数据库mq
Ⅰ 用java代码如何设置activemq消息持久化到数据库中
ActiveMQ持久化消息的二种方式;
1、持久化为文件
这个装ActiveMQ时默认就是这种,只要设置消息为持久化就可以了。涉及到的配置和代码有:
<persistenceAdapter>
<kahaDB directory="${activemq.base}/data/kahadb"/>
</persistenceAdapter>
procer.Send(request, MsgDeliveryMode.Persistent, level, TimeSpan.MinValue);
2、持久化为Mysql
首先需要把MySql的驱动放到ActiveMQ的Lib目录下,我用的文件名字是:mysql-connector-java-5.0.4-bin.jar
接下来修改配置文件
<persistenceAdapter>
<jdbcPersistenceAdapter dataDirectory="${activemq.base}/data" dataSource="#derby-ds"/>
</persistenceAdapter>
在配置文件中的broker节点外增加
<bean id="derby-ds" class="org.apache.commons.dbcp.BasicDataSource" destroy-method="close">
<property name="driverClassName" value="com.mysql.jdbc.Driver"/>
<property name="url" value="jdbc:mysql://localhost/activemq?relaxAutoCommit=true"/>
<property name="username" value="activemq"/>
<property name="password" value="activemq"/>
<property name="maxActive" value="200"/>
<property name="poolPreparedStatements" value="true"/>
</bean>
从配置中可以看出数据库的名称是activemq,需要手动在MySql中增加这个库。
然后重新启动消息队列,会发现多了3张表
1:activemq_acks
2:activemq_lock
3:activemq_msgs
Ⅱ 如何保证 数据库成功 mq一定成功
先将数据读入mq,数据库从mq里读数据,然后再写入数据库
Ⅲ 怎么从mqsql数据表读取数据
打开mysql控制台,并输入密码
要进入数据库 首先得输入 show databases;
要使用哪个数据库,必须先输入 use + 表名 如 use nowasp;
要知道这个数据库中有哪些表就输入命令 show + 第三步的数据库 如
show nowasp;
5
之后就可以大量使用sql语句来操作你所需要的表,达到学习sql语句的目的,如查看表中的数据 select * from accounts
Ⅳ 在用MQ处理高并发sql时,有什么方法能得到返回结果么
对于大量并发请求,我们暂且认为这个量已经超过了数据库正常的处理能力。那么仅仅通过数据库层面已经无法解决了。这需要在JAVA程序端通过缓存的方式进行优化。Hibernate本身对OR对象进行了一定程度的缓存处理,但如果这仍不能解决问题,那么就要考虑从业务层面来定义缓存的粒度。例如:在一个WEB应用中首页上会有很多需要从数据库中读取的内容,但其更新频率往往很慢,那么首页的可以作为缓存的颗粒。 这里介绍一个轻量级的缓存工具OSCache,它既可以在JSP页面中加入特殊的Tag来进行页面内容的缓存,也可以在后台逻辑中处理对象级缓存。 还有,对于高并发应用的优化是一个系统工程。上述的缓存技术只是一个方面,还有包括数据库优化,SQL优化,日志优化,负载均衡等等方法。这就不是一句两句能讲清楚的了。
Ⅳ 怎样利用Oracle golden gate 分发数据库同步消息至ActiveMQ
利用Oracle golden gate 分发数据库同步消息至ActiveMQ 引言
Oracle golden gate是甲骨文推出的一款数据库同步软件,可以实现异构数据库之间的亚秒级同步,它不仅仅支持Oracle,还支持Mysql和一些业界常用数据库。Ogg可以自动抽取表级数据的动态变化,直接将同步信息作用于目标数据库。然而,在某一些场景之中,我们并不需要将同步信息直接作用于目标数据库,而是将其保存在队列中,然后在队列中取出这些信息,完成一些下游系统的业务需求,这样可以让增量同步更加灵活。本篇文章主要讲述如何,配置Ogg来抽取源表的同步信息生成trail文件(Ogg专属同步文件),并利用分发器读取trail文件,适配成可以解析的xml,将其作为消息发送给队列。本文将不再讲诉一下关于安装的步骤,直接上干货。
OGG数据同步的重要概念 oracle归档和日志
Oacle归档模式是ORACLE热备份的必要条件,特别是7X24生产的数据库。可以这么认为:归档日志是增量同步的数据源,因此必须开启。可以通过下面的的指令查看是否开了归档:
SQL> archive log list
Ogg抽取进程
开启了归档和日志,ogg就有数据源来获取同步信息。而具体的工作是由Ogg抽取进程
Ⅵ mq是什么的缩写
message queuing(消息排队),是一种应用程序对应用程序的通信方法。通过这种技术的应用,能够为一个数据库系统带来较强的数据处理能力及较高的安全性.
即时通讯软件MQ,专门为旅游同行们量身定做的集网上即时通信、业务交易、办公管理于一体的软件。您可以使用同业MQ安全、快捷、高效地与各地的旅游同行像用QQ一样实时文字聊天、音频聊天、视频聊天、传文件、建讨论组、建群,还可以在网上进行旅游产品在线交易;集旅游线路、机票、景区、酒店、车队、旅游用品、购物点、旅游供求信息等资源为一体打造旅游同业资源交流共享! 另外,所有的交易结果都能通过同业MQ系统自动提醒,全面满足您推广业务、交易洽谈、交流经验、广交朋友的需求。
mq是指那种很活泼的人
非常活泼,很有个性,个性张扬.做起事来我行我素完全不在乎别人怎么看?具体特征:可以在公共场合大声唱歌,大声讲话.并且你的好又经常说的一句话是我不认识这个人(呵呵),那么你就是新时代的MQ人.
http://ke..com/view/732119.htm 这是网络上的介绍,你看看!
Ⅶ RabbitMQ与redis的区别是什么呢
首先说RabbitMQ,RabbitMQ是使用Erlang编写的一个开源的消息队列,本身支持很多的协议:AMQP,XMPP, SMTP, STOMP,也正因如此,它非常重量级,更适合于企业级的开发。同时实现了Broker构架,这意味着消息在发送给客户端时先在中心队列排队。对路由,负载均衡或者数据持久化都有很好的支持。
其次是Redis,Redis是一个基于Key-Value对的NoSQL数据库,开发维护很活跃。虽然它是一个Key-Value数据库存储系统,但它本身支持MQ功能,所以完全可以当做一个轻量级的队列服务来使用。对于RabbitMQ和Redis的入队和出队操作,各执行100万次,每10万次记录一次执行时间。测试数据分为128Bytes、512Bytes、1K和10K四个不同大小的数据。实验表明:入队时,当数据比较小时Redis的性能要高于RabbitMQ,而如果数据大小超过了10K,Redis则慢的无法忍受;出队时,无论数据大小,Redis都表现出非常好的性能,而RabbitMQ的出队性能则远低于Redis。
3.3ZeroMQ
ZeroMQ号称最快的消息队列系统,尤其针对大吞吐量的需求场景。ZeroMQ能够实现RabbitMQ不擅长的高级/复杂的队列,但是开发人员需要自己组合多种技术框架,技术上的复杂度是对这MQ能够应用成功的挑战。ZeroMQ具有一个独特的非中间件的模式,你不需要安装和运行一个消息服务器或中间件,因为你的应用程序将扮演这个服务器角色。你只需要简单的引用ZeroMQ程序库,可以使用NuGet安装,然后你就可以愉快的在应用程序之间发送消息了。但是ZeroMQ仅提供非持久性的队列,也就是说如果宕机,数据将会丢失。其中,Twitter的Storm 0.9.0以前的版本中默认使用ZeroMQ作为数据流的传输(Storm从0.9版本开始同时支持ZeroMQ和Netty作为传输模块)。
3.4ActiveMQ
ActiveMQ是Apache下的一个子项目。 类似于ZeroMQ,它能够以代理人和点对点的技术实现队列。同时类似于RabbitMQ,它少量代码就可以高效地实现高级应用场景。
3.5Kafka/Jafka
Kafka是Apache下的一个子项目,是一个高性能跨语言分布式发布/订阅消息队列系统,而Jafka是在Kafka之上孵化而来的,即Kafka的一个升级版。具有以下特性:快速持久化,可以在O(1)的系统开销下进行消息持久化;高吞吐,在一台普通的服务器上既可以达到10W/s的吞吐速率;完全的分布式系统,Broker、Procer、Consumer都原生自动支持分布式,自动实现负载均衡;支持Hadoop数据并行加载,对于像Hadoop的一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。Kafka通过Hadoop的并行加载机制统一了在线和离线的消息处理。Apache Kafka相对于ActiveMQ是一个非常轻量级的消息系统,除了性能非常好之外,还是一个工作良好的分布式系统。
上图中一个topic配置了3个partition。Partition1有两个offset:0和1。Partition2有4个offset。Partition3有1个offset。副本的id和副本所在的机器的id恰好相同。
如果一个topic的副本数为3,那么Kafka将在集群中为每个partition创建3个相同的副本。集群中的每个broker存储一个或多个partition。多个procer和consumer可同时生产和消费数据。
Ⅷ 消息队列(mq)是什么
是生产者先将消息投递一个叫队列的容器中,然后再从这个容器中取出消息,最后再转发给消费者。
消息队列是 Microsoft 的消息处理技术,它在任何安装 Microsoft Windows 的计算机组合中,为任何应用程序提供消息处理和消息队列功能,无论这些计算机是否在同一个网络上或者是否同时联机。
消息队列网络是能够相互间来回发送消息的任何一组计算机。网络中的不同计算机在确保消息顺利处理的过程中扮演不同的角色。它们中有些提供路由信息以确定如何发送消息,有些保存整个网络的重要信息,而有些只是发送和接收消息。
消息队列的类型介绍:
消息队列目前主要有两种类型:POSIX消息队列以及系统V消息队列,系统V消息队列目前被大量使用。每个消息队列都有一个队列头,用结构struct msg_queue来描述。队列头中包含了该消息队列的大量信息。包括消息队列键值、用户ID、组ID、消息队列中消息数目等等。
消息队列就是一个消息的链表,可以把消息看作一个记录,具有特定的格式以及特定的优先级。对消息队列有写权限的进程可以向消息队列中按照一定的规则添加新消息;对消息队列有读权限的进程则可以从消息队列中读走消息。消息队列是随内核持续的。
Ⅸ MQ一直提示登录SqlServer数据库失败
应该和开机密码没关系
看看SQL的用户名和密码对不对
ConnStr = "Driver={SQL Server};Server= " & DBServerName & ";DataBase= " & DBName & ";UID= " & DBUid & ";Pwd= " & DBPwd
Ⅹ apache-activemq-5.8.0怎么连接数据库
安装环境:linux rhe
activemq版本:5.8.0
1.从http://activemq.apache.org/download.html地址下载apache-activemq-5.8.0-bin.tar.gz包
2.解压缩到指定的目录
Shell代码
tar zxvf apache-activemq-5.8.0-bin.tar.gz -C /usr/local
解压缩后会在/usr/local下生成apache-activemq-5.8.0目录,其中bin目录下就是activeMQ的执行脚本存在的位置了。
3.如果启动脚本无法执行,我们需要修改一下权限
Shell代码
cd /usr/local/apache-activemq-5.8.0/bin
chmod 775 activemq
4.设置activeMQ配置环境.activemqrc
Shell代码
bin/activemq setup ~/.activemqrc
5.启动activeMQ
在activemq主目录键入如下命令:
Shell代码
bin/activemq start
然后会看到控制台日志输出如下:
Shell代码
INFO: Loading '/home/chenzhou/.activemqrc'
INFO: Using java '/usr/java/jdk1.6.0_03/bin/java'
INFO: Starting - inspect logfiles specified in logging.properties and log4j.properties to get details
INFO: pidfile created : '/usr/local/apache-activemq-5.8.0/data/activemq-localhost.localdomain.pid' (pid '18567')
我们也可以把日志输出到指定的日志文件中
Shell代码
bin/activemq start > /tmp/smlog 2>&1 &
然后日志就输出到/tmp/smlog文件中了
注意:官方文档中标明了如果按上述的方式启动后,如果我们把linux终端窗口关闭的话,则服务也会停止