通过 Docker 部署 RocketMQ Dledger 集群模式( 版本v4.7.0)
文章目录
!版权声明:本博客内容均为原创,每篇博文作为知识积累,写博不易,转载请注明出处。
系统环境:
- 系统版本:CentOS 7.8
- RocketMQ 版本:4.7.0
- Docker 版本:19.03.13
参考地址:
一、RocketMQ 简介
RocketMQ 是一个由 Java 语言编写的分布式高性能消息中间件,由阿里创建,后将其开源给 Apache 基金会,现在已经成为 Apache 开源项目中的顶级开源项目,具有高性能、高可靠、高实时、分布式特点,尤其内部封装了很多跟业务相关的功能模块,能让我们快速用其解决业务上消息处理的一些难点,所以如何使用与部署 RocketMQ 是这里要讲的重点。这里记录一下如果通过 Docker 部署 RocketMQ Dledger 集群模式这个过程。
二、RocketMQ 需部署的组件
这里介绍下 RocketMQ 相关的组件:
- 名字服务(Name Server): 是一个几乎无状态节点,可集群部署,集群节点间相互独立没有信息交换。其功能主要为更新和发现 Broker 服务,生产者或消费者能够通过其查找到各主题相应的 Broker IP 列表。
- 代理服务(Broker Server): 消息中转角色,负责存储消息,转发消息。分为 Master Broker 和 Slave Broker,一个 Master Broker 可以对应多个 Slave Broker,但是一个 Slave Broker 只能对应一个 Master Broker。Broker 启动后需要完成一次将自己注册至 Name Server 的操作,随后每隔 30s 定期 向Name Server 上报 Topic 路由信息。
- 生产者: 与 Name Server 集群中的其中一个节点(随机)建立长链接(Keep-alive),定期从 Name Server 读取 Topic 路由信息,并向提供 Topic 服务的 Master Broker 建立长链接,且定时向 Master Broker 发送心跳。
- 消费者: 与 Name Server 集群中的其中一个节点(随机)建立长连接,定期从 Name Server 拉取 Topic 路由信息,并向提供 Topic 服务的 Master Broker、Slave Broker建立长连接,且定时向 Master Broker、Slave Broker 发送心跳。Consumer 既可以从 Master Broker 订阅消息,也可以从 Slave Broker 订阅消息,订阅规则由 Broker 配置决定。
- 控制台(console): RocketMQ 的 Web 可视化控制台,包含 RocketMQ 常用操作,可以用于简单管理 RocketMQ 平台。
三、RocketMQ 常用部署模式
RocketMQ 常用部署方案有以下几种:
- 单机模式
- 多主模式
- 双主双从/多主多从模式(异步复制)
- 双主双从/多主多从模式(同步双写)
- Dledger 集群模式
(1)、单机模式
这种模式就如该名单机模式一样,就是部署单个 RocketMQ Broker 来使用,一般使用这种方式在生产中风险较大,一旦 Broker 重启或者宕机时,会导致整个服务不可用,所以常常在学习、开发过程中才会使用这种模式。
优缺点分析:
- 优点: 本地开发测试,配置简单,同步刷盘消息不会丢失。
- 缺点: 不可靠,如果宕机会导致服务不可用。
(2)、多主模式
全部由 Broker Master 节点组成(即可能部署两个或者更多 Broker),生产者发送的数据会分别存入不同的 Broker 中,这样能够避免某个 Broker 一直接收处理数据从而负载过高。
优缺点分析:
- 优点: 性能高,配置简单,单个 Master 宕机或重启维护对应用无影响,在磁盘配置为 RAID10 时,即使机器宕机不可恢复,由于 RAID10 磁盘非常可靠,消息也不会丢(异步刷盘可能会丢失少量消息,同步刷盘能保证消息不丢)。
- 缺点: 单台服务器宕机期间,不可订阅该服务器上未被消费者消费的消息,只有机器恢复后才可恢复订阅,所以可能会影响消息的实时性。
(3)、双主双从/多主多从模式(异步复制)
一般会部署多个 Broker Master,同时也会为各个 Broker Master 部署一个 Broker Slave,且 Master 和 Slave 之间采用"异步复制数据"方式进行数据同步(主从同步消息会有延迟,毫秒级),这样在生产者将消息发送到 Broker Master 后不必等待数据同步到 Slave 节点,就返回成功。
优缺点分析:
- 优点: 性能高,且磁盘损坏也不会丢失大量消息,消息实时性不会受影响,Master 宕机后,消费者仍然可以从 Slave 消费。
- 缺点: 主备有短暂消息延迟,毫秒级,如果Master宕机,磁盘损坏情况,会丢失少量消息。
(4)、双主双从/多主多从模式(同步双写)
一般会部署多个 Broker Master,同时也会为各个 Broker Master 部署一个 Broker Slave,且 Master 和 Slave 之间采用"同步复制数据"方式进行数据同步,这样在生产者将消息发送到 Broker Master 后需要等待数据同步到 Slave 节点成功后,才返回成功。
优缺点分析:
- 优点: 数据与服务都无单点故障,Master 宕机情况下,消息无延迟,服务可用性与数据可用性都非常高;
- 缺点: 性能比异步复制模式略低(大约低10%左右),发送单个消息的 RT 会略高,且目前版本在主节点宕机后,备机不能自动切换为主机。
(5)、Dledger 集群模式
RocketMQ-on-DLedger Group 是指一组相同名称的 Broker,至少需要 3 个节点,通过 Raft 自动选举出一个 Leader,其余节点 作为 Follower,并在 Leader 和 Follower 之间复制数据以保证高可用。当 Master 节点出现问题宕机后也能自动容灾切换,并保证数据一致性。该模式也支持 Broker 水平扩展,即可以部署任意多个 RocketMQ-on-DLedger Group 同时对外提供服务。
优缺点分析:
- 优点:多节点(至少三个)组成集群,其中一个为 Leader 节点,其余为 Follower 节点组成高可用,能够自动容灾切换。
- 缺点:需要 RocketMQ 4.5 及以后版本才支持。
四、RocketMQ Dledger 集群模式简介
1、传统部署方式的不足
在 RocketMQ 4.5 之前的版本中,部署 RocketMQ 高可用方案一般都会采用多主多从方式,这种方式需要多个 Master 节点与实时备份 Master 节点数据的 Slave 节点,Slave 节点通过同步复制或异步复制的方式去同步 Master 节点数据。但这样的部署模式存在一定缺陷。比如故障转移方面,如果 Master 点挂了,还需要人为手动对 Master 节点进行重启或者切换,它无法自动的将 Slave 节点转换为 Master 节点。因此,我们希望能有一个新的多副本架构,去解决这个问题。
2、新技术解决的问题
新的多副本架构首先需要解决自动故障转移的问题,本质上来说问题关键点在于 Broker 如何自动推选主节点。这个问题的解决方案基本可以分为两种:
- 利用第三方协调服务集群完成选主,比如 Zookeeper 或者 Etcd,但是这种方案会引入了重量级外部组件,使部署变得复杂,同时也会增加运维对组件的故障诊断成本,比如在维护 RocketMQ 集群还需要维护 Zookeeper 集群,保证 Zookeeper 集群如何高可用,不仅仅如此,如果 zookeeper 集群出现故障也会影响到 RocketMQ 集群。
- 利用 raft 协议来完成一个自动选主,raft 协议相比前者的优点是不需要引入外部组件,自动选主逻辑集成到各个节点的进程中,节点之间通过通信就可以完成选主。
RocketMQ 最终选择使用 raft 协议来解决这个问题,而 DLedger 就是一个基于 raft 协议的 commitlog 存储库,也是 RocketMQ 实现新的高可用多副本架构的关键。
3、Dledger 简介
分布式算法中比较常常听到的是 Paxos 算法,但是由于 Paxos 算法难于理解,且实现比较苦难,所以不太受业界欢迎。然后出现新的分布式算法 Raft,其比 Paxos 更容易懂与实现,到如今在实际中运用的也已经很成熟,不同的语言都有对其的实现。Dledger 就是其中一个 Java 语言的实现,其将算法方面的内容全部抽象掉,这样开发人员只需要关系业务即可,大大降低使用难度。
Dledger 相关资料来源于网上搜索。
4、DLedger 定位
Raft 协议是复制状态机的实现,这种模型应用到消息系统中就会存在问题。对于消息系统来说,它本身是一个中间代理,commitlog 状态是系统最终状态,并不需要状态机再去完成一次状态构建。因此 DLedger 去掉了 raft 协议中状态机的部分,但基于raft协议保证commitlog 是一致的,并且是高可用的。
另一方面 DLedger 又是一个轻量级的 java library。它对外提供的 API 非常简单,append 和 get。Append 向 DLedger 添加数据,并且添加的数据会对应一个递增的索引,而 get 可以根据索引去获得相应的数据。因此 DLedger 是一个 append only 的日志系统。
5、DLedger 应用场景
DLedger 其中一个应用就是在分布式消息系统中,RocketMQ 4.5 版本发布后,可以采用 RocketMQ on DLedger 方式进行部署。DLedger commitlog 代替了原来的 commitlog,使得 commitlog 拥有了选举复制能力,然后通过角色透传的方式,raft 角色透传给外部 broker 角色,leader 对应原来的 master,follower 和 candidate 对应原来的 slave。
因此 RocketMQ 的 broker 拥有了自动故障转移的能力,在一组 broker 中如果 Master 挂了,能够依靠 DLedger 自动选主能力重新选出一个 leader,然后通过角色透传变成新的 Master。
DLedger 还可以构建高可用的嵌入式 KV 存储。我们把对一些数据的操作记录到 DLedger 中,然后根据数据量或者实际需求,恢复到hashmap 或者 rocksdb 中,从而构建一致的、高可用的 KV 存储系统,应用到元信息管理等场景。
6、RocketMQ Dledger 的方案简介
RocketMQ-on-DLedger Group 是指一组相同名称的 Broker,组中至少需要 3 个 Broker 节点来保证集群能够运行,在 Broker 启动时候,通过 raft 算法能够自动选举出一个 Broker 为 Leader 节点,其余为 Follower 节点。这种模式下 Leader 和 Follower 之间复制数据以保证高可用,如果 Leader 节点出现问题是可以自动进行容灾切换并保证数据一致性。且不仅仅如此,该模式也支持 Broker 节点水平扩展来增加吞吐量。所以该模式将会是部署 RocketMQ 常用模式之一。
7、Dledger 集群单个节点示例配置
1## RocketMQ 基本配置
2brokerClusterName=RaftCluster
3brokerName=RaftNode00
4listenPort=30911
5namesrvAddr=192.168.1.1:9876;192.168.1.2:9876
6storePathRootDir=/tmp/rmqstore/node00
7storePathCommitLog=/tmp/rmqstore/node00/commitlog
8
9## Dledger 配置
10dLegerSelfId=n0
11dLegerGroup=RaftNode00
12enableDLegerCommitLog=true
13sendMessageThreadPoolNums=16
14dLegerPeers=n0-192.168.1.1:40911;n1-192.168.1.2:40911;n2-192.168.1.3:40911
基本配置参数说明:
参数名称 | 参数描述 | 参数示例 |
---|---|---|
brokerClusterName | Broker 集群名称 | RaftCluster |
brokerName | Broker 名称 | RaftNode00 |
listenPort | Broker 监听端口 | 30911 |
namesrvAddr | Broker Namesrv 地址 | 192.168.1.1:9876;192.168.1.2:9876 |
storePathRootDir | Broker 存储目录 | /tmp/rmqstore/node00 |
storePathCommitLog | Commitlog 存储目录 | /tmp/rmqstore/node00/commitlog |
Dledger 配置参数说明:
参数名称 | 参数描述 | 参数示例 |
---|---|---|
enableDLegerCommitLog | 是否启动 DLedger | true |
dLegerGroup | DLedger Raft Group 的名字,建议和 brokerName 保持一致 | RaftNode00 |
dLegerPeers | DLedger Group 内各节点的地址与端口信息(同一个 Group 内的各个节点配置必须要保证一致) | n0-192.168.1.1:40911;n1-192.168.1.2:40911;n2-192.168.1.3:40911 |
dLegerSelfId | 节点 id, 必须属于 dLegerPeers 中的一个;同 Group 内各个节点要唯一 | 例如: 第一个节点配置为"n0" 第一个节点配置为"n1" 第一个节点配置为"n2" |
sendMessageThreadPoolNums | 发送线程个数(建议配置成 CPU 核数) | 8 |
五、部署 RcoketMQ Dledger 集群模式
1、部署服务器安排
服务器 | 部署的应用 | 物理资源 | 存储挂载目录 |
---|---|---|---|
192.168.2.21 | Namesrv Server、Broker、Console | 4C && 8G | /usr/local/rocketmq |
192.168.2.22 | Namesrv Server、Broker | 4C && 8G | /usr/local/rocketmq |
192.168.2.23 | Namesrv Server、Broker | 4C && 8G | /usr/local/rocketmq |
2、创建存储数据的目录
分别在两台服务器上创建下面目录:
1## 创建 Broker 持久化目录
2$ mkdir -p /usr/local/rocketmq/broker/conf && \
3 mkdir -p /usr/local/rocketmq/broker/logs && \
4 mkdir -p /usr/local/rocketmq/broker/store
5
6## 创建 NameServer 持久化目录
7$ mkdir -p /usr/local/rocketmq/server/logs
3、创建 Broker 配置文件
在三台服务器上,分别创建如下对应的文件:
- 服务器一 192.168.2.21: 创建 RaftNode00 配置文件。
- 服务器二 192.168.2.22: 创建 RaftNode01 配置文件。
- 服务器三 192.168.2.23: 创建 RaftNode02 配置文件。
服务器一创建 RaftNode00 配置:
1$ cat > /usr/local/rocketmq/broker/conf/broker.conf << EOF
2
3brokerIP1=192.168.2.21
4listenPort=30911
5brokerClusterName=RaftCluster
6brokerName=RaftNode00
7namesrvAddr=192.168.2.21:9876;192.168.2.22:9876;192.168.2.23:9876
8## DLeger
9dLegerSelfId=n0
10dLegerGroup=RaftNode00
11enableDLegerCommitLog=true
12## must be unique
13dLegerPeers=n0-192.168.2.21:40911;n1-192.168.2.22:40911;n2-192.168.2.23:40911
14sendMessageThreadPoolNums=2
15EOF
服务器二创建 RaftNode01 配置:
1$ cat > /usr/local/rocketmq/broker/conf/broker.conf << EOF
2
3brokerIP1=192.168.2.22
4listenPort=30911
5brokerClusterName=RaftCluster
6brokerName=RaftNode00
7namesrvAddr=192.168.2.21:9876;192.168.2.22:9876;192.168.2.23:9876
8## DLeger
9dLegerSelfId=n1
10dLegerGroup=RaftNode00
11enableDLegerCommitLog=true
12## must be unique
13dLegerPeers=n0-192.168.2.21:40911;n1-192.168.2.22:40911;n2-192.168.2.23:40911
14sendMessageThreadPoolNums=2
15EOF
服务器三创建 RaftNode02 配置:
1$ cat > /usr/local/rocketmq/broker/conf/broker.conf << EOF
2
3brokerIP1=192.168.2.23
4listenPort=30911
5brokerClusterName=RaftCluster
6brokerName=RaftNode00
7namesrvAddr=192.168.2.21:9876;192.168.2.22:9876;192.168.2.23:9876
8## DLeger
9dLegerSelfId=n2
10dLegerGroup=RaftNode00
11enableDLegerCommitLog=true
12## must be unique
13dLegerPeers=n0-192.168.2.21:40911;n1-192.168.2.22:40911;n2-192.168.2.23:40911
14sendMessageThreadPoolNums=2
15EOF
4、下载相关镜像
在三台服务器上,分别创建拉取对应的镜像:
- 服务器一 192.168.2.21: 拉取 rocketmq 与 rocketmq-console 镜像。
- 服务器二 192.168.2.22: 拉取 rocketmq 镜像。
- 服务器三 192.168.2.23: 拉取 rocketmq 镜像。
三台服务器分别拉取 RocketMQ 镜像:
1## 下载 RocketMQ 镜像
2$ docker pull foxiswho/rocketmq:4.7.0
第一台服务器拉取 RocketMQ Console 镜像:
1## 下载 RocketMQ 控制台
2$ docker pull apacherocketmq/rocketmq-console:2.0.0
5、查看镜像设置的用户与组的配置
任意一台服务器上查看镜像 rocketmq 的组成,分析其中用户与组的信息:
1$ docker history foxiswho/rocketmq:4.7.0
2
3IMAGE CREATED CREATED BY SIZE
41cf46e8f03d0 7 months ago /bin/sh -c #(nop) WORKDIR /home/rocketmq/roc… 0B
5<missing> 7 months ago /bin/sh -c #(nop) USER rocketmq 0B
6<missing> 7 months ago |5 gid=3000 group=rocketmq uid=3000 user=roc… 1.92kB
7<missing> 7 months ago |5 gid=3000 group=rocketmq uid=3000 user=roc… 0B
8<missing> 7 months ago |5 gid=3000 group=rocketmq uid=3000 user=roc… 11.3kB
9<missing> 7 months ago /bin/sh -c #(nop) EXPOSE 10909 10911 10912 0B
10<missing> 7 months ago |5 gid=3000 group=rocketmq uid=3000 user=roc… 10.1kB
11<missing> 7 months ago /bin/sh -c #(nop) EXPOSE 9876 0B
12<missing> 7 months ago |5 gid=3000 group=rocketmq uid=3000 user=roc… 15.1MB
13<missing> 7 months ago /bin/sh -c #(nop) COPY dir:bdc4a8518539da6ce… 11.4kB
14<missing> 7 months ago |5 gid=3000 group=rocketmq uid=3000 user=roc… 15.1MB
15<missing> 7 months ago /bin/sh -c #(nop) WORKDIR /home/rocketmq/roc… 0B
16<missing> 7 months ago /bin/sh -c #(nop) ENV ROCKETMQ_HOME=/home/r… 0B
17<missing> 7 months ago /bin/sh -c #(nop) ENV ROCKETMQ_VERSION=4.7.0 0B
18<missing> 7 months ago /bin/sh -c #(nop) ARG version=4.7.0 0B
19<missing> 7 months ago |4 gid=3000 group=rocketmq uid=3000 user=roc… 1.07MB
20<missing> 7 months ago /bin/sh -c #(nop) ARG gid=3000 0B
21<missing> 7 months ago /bin/sh -c #(nop) ARG uid=3000 0B
22<missing> 7 months ago /bin/sh -c #(nop) ARG group=rocketmq 0B
23<missing> 7 months ago /bin/sh -c #(nop) ARG user=rocketmq 0B
24<missing> 7 months ago /bin/sh -c yum install -y java-1.8.0-openjdk… 264MB
25<missing> 11 months ago /bin/sh -c #(nop) CMD ["/bin/bash"] 0B
26<missing> 11 months ago /bin/sh -c #(nop) LABEL org.label-schema.sc… 0B
27<missing> 11 months ago /bin/sh -c #(nop) ADD file:45a381049c52b5664… 203MB
可以观察到:
- 组名:rocketmq,组ID:3000
- 用户名:rocketmq,用户ID:3000
6、更改目录归属组与用户与容器的配置一致
两台服务器上分别创建组与用户:
1## 创建组
2$ groupadd rocketmq
3
4## 增加用户并加入组
5$ useradd -g rocketmq rocketmq
6
7## 设置用户密码
8$ passwd rocketmq
9
10## 更改组的 gid
11$ groupmod -g 3000 rocketmq
12
13## 更改用户的 uid
14$ usermod -u 3000 rocketmq
15
16## 查看是否更改成功
17$ id rocketmq
三台服务器上分别更改上面创建的目录的权限为上面创建的组与用户:
1$ chown -R rocketmq:rocketmq /usr/local/rocketmq
7、安装 RocketMQ NameServer
三台服务器上分别部署 NameServer,操作如下:
1$ docker run -d --name rmqnamesr --net host \
2-v /usr/local/rocketmq/server/logs:/home/rocketmq/logs \
3-e "JAVA_OPT_EXT=-Xms512M -Xmx512M -Xmn128m" \
4-p 9876:9876 \
5--restart=always \
6foxiswho/rocketmq:4.7.0 \
7sh mqnamesrv
8、安装 RocketMQ Broker
三台服务器分别部署 RocketMQ Broker,操作如下:
1$ docker run -d --name rmqbroker --net host \
2-e "JAVA_OPT_EXT=-Xmx4096m -Xms4096m -Xmn2048m" \
3-v /usr/local/rocketmq/broker/logs:/home/rocketmq/logs \
4-v /usr/local/rocketmq/broker/store:/home/rocketmq/store \
5-v /usr/local/rocketmq/broker/conf:/home/rocketmq/conf \
6-p 30909:30909 -p 30911:30911 -p 30912:30912 -p 40911:40911 \
7--restart=always \
8foxiswho/rocketmq:4.7.0 \
9sh mqbroker -c /home/rocketmq/conf/broker.conf
9、部署控制台
服务器一部署 RocketMQ 控制台:
1$ docker run -d --name rmqconsole \
2-p 8080:8080 \
3--restart=always \
4-e "JAVA_OPTS=-Drocketmq.namesrv.addr=192.168.2.21:9876;192.168.2.22:9876;192.168.2.23:9876 -Dcom.rocketmq.sendMessageWithVIPChannel=false" \
5apacherocketmq/rocketmq-console:2.0.0
10、访问控制台
输入 http://192.168.2.21:8080 访问在服务器一部署的 RocketMQ 控制台,进入到如下界面:
然后我们可以通过该控制台进行发送消息来验证 RocketMQ 是否正常,这里就交由大家自行验证了,文档到此结束。
---END---
!版权声明:本博客内容均为原创,每篇博文作为知识积累,写博不易,转载请注明出处。