activemq在5.4版本之后可以支持集群模式
一:
使用ZooKeeper实现的Master-Slave实现方式,是对ActiveMQ进行高可用的一种有效的解决方案,高可用的原理:使用ZooKeeper(集群)注册所有的ActiveMQBroker。只有其中的一个Broker可以对外提供服务(也就是Master节点),其
他的Broker处于待机状态,被视为Slave。如果Master因故障而不能提供服务,则利用ZooKeeper的内部选举机制会从Slave中选举出一个Broker充当Master节
点,继续对外提供服务
二:部署方案,ActiveMQ集群环境准备:
(1)首先我们下载apache-activemq-5.11.1-bin.tar.gz,到一台主节点上去,然后我们在(192.168.1.111一个节点
上实现集群即可)
(2)Zookeeper方案(个数最好是奇数)
主机IP 消息端口 通信端口 节点目录/usr/local/下
192.168.1.111 2181 2888:3888 zookeeper
192.168.1.112 2181 2888:3888 zookeeper
192.168.1.113 2181 2888:3888 zookeeper
(3)ActiveMQ方案(应该放到3台机器上,作为测试这里只是一台机器部署三个不同实例)
主机IP 集群通信端口 消息端口 控制台端口 节点目录/usr/local/下
192.168.1.111 62621 51511 8161 activemq-cluster/node1/
192.168.1.111 62622 51512 8162 activemq-cluster/node2/
192.168.1.111 62623 51513 8163 activemq-cluster/node3/
2:首先搭建zookeeper环境
编辑文件,每个节点配置下环境变量(命令vim /etc/profile):
改完记得 source /etc/profile,否则不生效
3:继续搭建activemq环境(1)在192.168.1.111节点下,创建/usr/local/activemqcluster
文件夹,解压apache-activemq-5.11.1-bin.tar.gz文件,然后对解压好的文件改名,操作如下:
1 命令:mkdir /usr/local/activemq-cluster
2 命令:cd software/
3 命令:tar -zxvf apache-activemq-5.11.1-bin.tar.gz -C /usr/local/activemq-cluster/
4 命令:cd /usr/local/activemq-cluster/
5 命令:mv apache-activemq-5.11.1/ node1
如此操作,再次反复解压apache-activemq-5.11.1-bin.tar.gz文件到/usr/local/activemqcluster/
下,建立node2和node3文件夹,如下:
(2)那我们现在已经解压好了三个mq节点也就是node1、node2、node3,下面
我们要做的事情就是更改每个节点不同的配置和端口(由于是在一台机器上实
现集群)。
1 修改控制台端口(默认为8161),在mq安装路径下的conf/jetty.xml进
行修改即可。(三个节点都要修改,并且端口都不同)
1命令:cd /usr/local/activemq-cluster/node1/conf/
2命令:vim /usr/local/activemq-cluster/node1/conf/jetty.xml
三个节点都需要修改为8161、8162、8163!!!
2 集群配置文件修改:我们在mq安装路径下的conf/activemq.xml进行修
改其中的持久化适配器,修改其中的bind、zkAddress、hostname、zkPath。
然后也需要修改mq的brokerName,并且每个节点名称都必须相同。
命令:vim /usr/local/activemq-cluster/node1/conf/activemq.xml
第一处修改:brokerName=”activemq-cluster”(三个节点都需要修改)
第二处修改:先注释掉适配器中的kahadb
第三处修改:添加新的leveldb配置如下(三个节点都需要修改):
Node1:
<persistenceAdapter>
<!--kahaDB directory="${activemq.data}/kahadb"/ -->
<replicatedLevelDB
directory="${activemq.data}/leveldb"
replicas="3"
bind="tcp://0.0.0.0:62621"
zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
hostname="bhz111"
zkPath="/activemq/leveldb-stores"/>
</persistenceAdapter>
Node2:
<persistenceAdapter>
<!--kahaDB directory="${activemq.data}/kahadb"/ -->
<replicatedLevelDB
directory="${activemq.data}/leveldb"
replicas="3"
bind="tcp://0.0.0.0:62622"
zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
hostname="bhz111"
zkPath="/activemq/leveldb-stores"/>
</persistenceAdapter>
<persistenceAdapter>
<!--kahaDB directory="${activemq.data}/kahadb"/ -->
<replicatedLevelDB
directory="${activemq.data}/leveldb"
replicas="3"
bind="tcp://0.0.0.0:62623"
zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
hostname="bhz111"
zkPath="/activemq/leveldb-stores"/>
</persistenceAdapter>
第四处修改:(修改通信的端口,避免冲突)
命令:vim /usr/local/activemq-cluster/node1/conf/activemq.xml
修改这个文件的通信端口号,三个节点都需要修改(51511,51512,51513)
Ok,到此为止,我们的activemq集群环境已经搭建完毕!
测试:
三:测试启动activemq集群:
第一步:启动zookeeper集群,命令:zkServer.sh start
第二步:启动mq集群:顺序启动mq:命令如下:
/usr/local/activemq-cluster/node1/bin/activemq start(关闭stop)
/usr/local/activemq-cluster/node2/bin/activemq start(关闭stop)
/usr/local/activemq-cluster/node3/bin/activemq start(关闭stop)
第三步:查看日志信息:
tail -f /usr/local/activemq-cluster/node1/data/activemq.log
tail -f /usr/local/activemq-cluster/node2/data/activemq.log
tail -f /usr/local/activemq-cluster/node3/data/activemq.log
如果不报错,我们的集群启动成功,可以使用控制台查看!
第四步:集群的brokerUrl配置进行修改即可:
failover:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://1
92.168.1.111:51513)?Randomize=false
/usr/local/activemq-cluster/node1/bin/activemq stop
/usr/local/activemq-cluster/node2/bin/activemq stop
/usr/local/activemq-cluster/node3/bin/activemq stop
zkServer.sh stop
第四:负载均衡配置如下:
集群1链接集群2:
<networkConnectors>
<networkConnector
uri="static:(tcp://192.168.1.112:51514,tcp://192.168.1.112:51515,tcp://192.168.1.112:51516)"
duplex="false"/>
</networkConnectors>
集群2链接集群1:
<networkConnectors>
<networkConnector
uri="static:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://192.168.1.111:51513)"
duplex="false"/>
</networkConnectors>