Redis集群

AKF原则:水平、服务拆分、数据分片

Redis复制(Master/Slave)

Redis的复制,也就是我们所说的主从复制,主机数据更新后根据配置和策略,自动同步到备机的master/slaver机制,Master以写为主,Slave以读为主的策略。主要用来读写分离和容灾恢复

配从(库)不配主(库),配置主从复制,只需要把从库指向一个主库,实现对主库的复制即可,不需要主库做任何操作。

可以通过命令配置达到效果,但是每次与master断开之后,都需要重新执行命令连接,除非配置进redis.conf文件,新版本的slaveof改名成replicaof

1
slaveof 主库IP 主库端口

建议配置时拷贝多个redis.conf文件,通过redis-server启动时指定启动的配置文件即可。配置文件需要修改相应的配置:

  1. 开启守护线程后台运行
  2. 修改PID文件名称
  3. 修改指定端口
  4. 修改Log文件名称
  5. 修改dump.rdb名称
1
2
#redis.conf配置
slaveof <masterip> <masterport>

一主二仆

redis-25

可以看到从库(6380端口)配置了主库(6379端口)后,能够看到他的role标识为slave

redis-26

可以看到主库的role标识为master,其中connected_slaves连接的salve是1个。

当有多个slave时,他们配置的master都是同一个,即所有salve都直接和master进行数据同步策略。

薪火相传

上一个slave可以是下一个slavemasterslave同样可以接收其他slaves的连接和同步请求,那么该slave作为了链条中下一个的master,可以有效减轻master的写压力。

就好比如slave1(6380端口)配置了主库master(6379),然后salve2(6381端口)配置了slave1master,那么当6379端口的主库修改了数据时,会先同步到slave1,然后再由slave1同步到slave2

中途变更转向:会清除之前的数据,重新建立拷贝最新的。

反客为主

当主库master故障时,从库slave是不会自动上位成master,将依旧保持slave从库,这并不是我们想要的结果,可以通过手动将从库转换成主库,并修改其他从库的master配置,使当前数据库停止与其他数据库的同步,转成主数据库

1
SLAVEOF no one

复制原理

slave启动成功连接到master后会发送一个sync命令,master接到命令启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master将传送整个数据文件到slave,以完成一次完全同步。

全量复制:而slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。

增量复制:master继续将新的所有收集到的修改命令依次传给slave,完成增量同步。

但是只要是重新连接master,一次完全同步(全量复制)将被自动执行

哨兵模式

哨兵模式是反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库

通过创建sentinel.conf配置文件,并新增监控机器的配置,一组sentinel能同时监控多个Master

1
2
3
4
5
# sentinel monitor 自定义的名称 127.0.0.1 6379 1
#上面最后一个数字1,表示主机挂掉后salve投票看让谁接替成为主机,得票数多的成为主机
sentinel monitor host6379 127.0.0.1 6379 1
sentinel monitor host6380 127.0.0.1 6380 1
sentinel monitor host6381 127.0.0.1 6381 1

redis-27

1
2
3
4
#linux系统执行命令
redis-sentinel sentinel.conf
#window系统执行命令
redis-server.exe sentinel.conf --sentinel

通过执行启动哨兵,当master节点挂了后,哨兵模式会自动从salve中投票选举出新的master,原来的master节点重新加入时,将会变成salve节点。哨兵模式最低限度能够达到仅剩一台slave时,将之升级为master,即支持当master机器没有slave节点时,依旧能够正常工作。

由于所有的写操作都是先在master上操作,然后同步更新到slave上,所以master同步到slave机器有一定的延迟,当系统很繁忙的时候,延迟问题会更加严重,slave机器数量的增加也会使这个问题更加严重。

代理

twemproxy

官方文档 代理多个Redis进行分片数据分发。

1
2
3
4
5
6
7
8
9
10
11
12
13
[root@localhost twemproxy]# wget https://github.com/twitter/twemproxy/archive/master.zip

[root@localhost twemproxy]# unzip master.zip

[root@localhost twemproxy]# cd twemproxy-master/

[root@localhost twemproxy-master]# yum install automake libtool

[root@localhost twemproxy-master]# autoreconf -fvi

[root@localhost twemproxy-master]# ./configure --enable-debug=full

[root@localhost twemproxy-master]# make
1
2
3
4
5
6
7
8
9
10
11
12
#设置使用全局命令nutcracker
[root@localhost scripts]# cd scripts/

[root@localhost scripts]# cp nutcracker.init /etc/init.d/twemproxy

[root@localhost scripts]# chmod +x /etc/init.d/twemproxy

[root@localhost scripts]# mkdir /etc/nutcracker

[root@localhost scripts]# cp ../conf/* /etc/nutcracker/

[root@localhost scripts]# cp ../src/nutcracker /usr/bin
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
#修改配置文件
[root@localhost scripts]# cd /etc/nutcracker/

[root@localhost nutcracker]# vi nutcracker.yml

`
alpha:
listen: 127.0.0.1:22121
hash: fnv1a_64
distribution: ketama
auto_eject_hosts: true
redis: true
server_retry_timeout: 2000
server_failure_limit: 1
servers:
- 127.0.0.1:6379:1 #起两个实例
- 127.0.0.1:6380:1
`

[root@localhost nutcracker]# systemctl start twemproxy.service

[root@localhost nutcracker]# redis-cli -p 22121
#因为分治了,不支持keys、watch、MULTI
127.0.0.1:22121> keys *
Error: Server closed the connection

127.0.0.1:22121> set k3 111
OK
127.0、.0.1:22121> set k4 1111
OK
1
2
3
4
5
6
7
8
#如果执行 autoreconf -fvi 提示版本过低,则执行以下命令
[root@localhost yum.repos.d]# cd /etc/yum.repos.d/
[root@localhost yum.repos.d]# wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
[root@localhost yum.repos.d]# yum clean all

#回到twemproxy-master目录下
[root@localhost twemproxy-master]# yum search autoconf
[root@localhost twemproxy-master]# yum install autoconf268

predixy

官方文档

三台哨兵做集群,监控两个主从Redis,自动将两个主从进行分组,数据分而治之到不同的Master中。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
[root@localhost predixy]# wget https://github.com/joyieldInc/predixy/releases/download/1.0.5/predixy-1.0.5-bin-amd64-linux.tar.gz

[root@localhost predixy]# tar xf predixy-1.0.5-bin-amd64-linux.tar.gz

[root@localhost predixy]# cd predixy-1.0.5/conf

[root@localhost conf]# vi predixy.conf

`
Bind 127.0.0.1:7617
Include sentinel.conf
`

[root@localhost conf]# vi sentinel.conf

`
SentinelServerPool {
Databases 16
Hash crc16
HashTag "{}"
Distribution modula
MasterReadPriority 60
StaticSlaveReadPriority 50
DynamicSlaveReadPriority 50
RefreshInterval 1
ServerTimeout 1
ServerFailureLimit 10
ServerRetryTimeout 1
KeepAlive 120
Sentinels {
#哨兵的集群
+ 127.0.0.1 26379
+ 127.0.0.1 26780
+ 127.0.0.1 26781
}
#哨兵监控的主从名称
Group ooxx {
}
Group xxoo {
}
}
`
1
2
3
4
5
6
7
#redis的哨兵模式配置文件sentinel-26379.conf  监控两个主从的redis

port 26379
#36379是主节点,从节点是36380
sentinel monitor ooxx 127.0.0.1 36379 2
#46379是主节点,从节点是46380
sentinel monitor xxoo 127.0.0.1 46379 2
1
2
3
4
5
6
7
#redis的哨兵模式配置文件sentinel-26380.conf  监控两个主从的redis

port 26380
#36379是主节点,从节点是36380
sentinel monitor ooxx 127.0.0.1 36379 2
#46379是主节点,从节点是46380
sentinel monitor xxoo 127.0.0.1 46379 2
1
2
3
4
5
6
7
#redis的哨兵模式配置文件sentinel-26381.conf  监控两个主从的redis

port 26381
#36379是主节点,从节点是36380
sentinel monitor ooxx 127.0.0.1 36379 2
#46379是主节点,从节点是46380
sentinel monitor xxoo 127.0.0.1 46379 2
1
2
3
4
#进入bin目录
[root@localhost bin]# ./predixy ../conf/predixy.conf
[root@localhost bin]# redis-cli -p 7617
127.0.0.1:7617>

Redis-Cluster

自从redis 3.0版本开始支持redis-cluster集群,redis-cluster采用无中心结构,每个节点保存数据和整个集群的状态,每个节点都和其他所有节点连接。

redis-28

无需proxy代理,客户端直接与redis集群的每个节点连接,根据同样的hash算法计算出key对应的slot,然后直接在slot对应的redis节点上执行命令。

redis看来,响应时间是最苛刻的条件,增加一层带来的开销是redis不能接受的。因此,redis实现了客户端对节点的直接访问,为了去中心化,节点之间通过gossip协议交换互相的状态,以及探测新加入的节点信息redis集群支持动态加入节点,动态迁移slot,以及自动故障转移。

数据分片

redis 集群使用数据分片(sharding)而非一致性哈希(consistency hashing)来实现,Redis Cluster 采用的是虚拟槽分区算法,这个槽是用来存放缓存信息的单位,一个redis 集群包含 16384 个哈希槽(hash slot),槽的范围是 0 -16383,数据库中的每个键都属于这 16384 个哈希槽的其中一个。

集群使用公式 CRC16(key) % 16384 来计算键key属于哪个槽, 其中 CRC16(key) 语句用于计算键 keyCRC16 校验和 。集群中的每个节点负责处理一部分哈希槽。

举个例子, 一个集群可以有三个节点, 其中:

  • 节点 A 负责处理 0 号至 5500 号哈希槽。
  • 节点 B 负责处理 5501 号至 11000 号哈希槽。
  • 节点 C 负责处理 11001 号至 16383 号哈希槽。

此时 Redis Client 需要根据一个Key获取对应的 Value 的数据,首先通过 CRC16(key)%16384 计算出 Slot 的值,假设计算的结果是 5000,将这个数据传送给 Redis Cluster,集群接收到以后会到一个对照表中查找这个 Slot=5000 属于那个缓存节点。发现属于“节点 A ”负责,于是顺着红线的方向调用节点 A中存放的 Key-Value 的内容并且返回给 Redis Client

这种将哈希槽分布到不同节点的做法使得用户可以很容易地向集群中添加或者删除节点。 比如说:

  • 如果用户将新节点 D 添加到集群中, 那么集群只需要将节点 A 、B 、 C 中的某些槽移动到节点 D 就可以了。
  • 如果用户要从集群中移除节点 A , 那么集群只需要将节点 A 中的所有哈希槽移动到节点 B 和节点 C , 然后再移除空白(不包含任何哈希槽)的节点 A 就可以了。

因为将一个哈希槽从一个节点移动到另一个节点不会造成节点阻塞,且成本很低, 所以无论是添加新节点还是移除已存在节点, 又或者改变某个节点包含的哈希槽数量, 都不会造成集群下线

数据访问

客户端在初始化的时候只需要知道一个节点的地址即可,客户端会先尝试向这个节点执行命令,比如“get key”,如果key所在的slot刚好在该节点上,则能够直接执行成功。如果slot不在该节点,则节点会返回MOVED错误,同时把该slot对应的节点告诉客户端。客户端可以去该节点执行命令。

redis-29

集群支持hash tags功能,即可以把一类key定位到同一个slot,tag的标识目前不支持配置,只能使用{},redis处理hash tag的逻辑也很简单,redis只计算从第一次出现{,到第一次出现}的substring的hash值,substring为空,则仍然计算整个key的值,也能取出tag值。

1
2
3
4
5
6
7
8
9
10
11
12
13
127.0.0.1:6379> set {oo}k2 aaa
OK
127.0.0.1:6379> set {oo}k3 bbb
OK
127.0.0.1:6379> WATCH {oo}k2
OK
127.0.0.1:6379> set {oo}k2 ccc
QUEUED
127.0.0.1:6379> get {oo}k3
QUEUED
127.0.0.1:6379> exec
1) OK
2) "bbb"

我们都知道,redis单机支持mutl-key操作(mgetmset)。redis clustermutl-key命令的支持,只能支持多key都在同一个slot上,即使多个slot在同一个节点上也不行。通过hash tag可以很好的做到这一点。

数据结构

Redis Cluster中的每个节点都保存了集群的配置信息,并且存储在clusterState中,结构如下:

redis-30

上图的各个变量语义如下:

  • clusterState 记录了从集群中某个节点视角,来看集群配置状态;
  • currentEpoch 表示整个集群中最大的版本号,集群信息每变更一次,改版本号都会自增。
  • nodes 是一个列表,包含了本节点所感知的,集群所有节点的信息(clusterNode),也包含自身的信息。
  • clusterNode 记录了每个节点的信息,其中包含了节点本身的版本 Epoch;自身的信息描述:节点对应的数据分片范围(slot)、为master时的slave列表、为slave时的master等。

每个节点包含一个全局唯一的NodeId

当集群的数据分片信息发生变更(数据在节点间迁移时),Redis Cluster仍然保持对外服务。

当集群中某个master出现宕机时,Redis Cluster 会自动发现,并触发故障转移的操作。会将master的某个slave晋升为新的 master

由此可见,每个节点都保存着Node视角的集群结构。它描述了数据的分片方式,节点主备关系,并通过Epoch作为版本号实现集群结构信息的一致性,同时也控制着数据迁移和故障转移的过程。

节点通信

Redis Cluster中,这个配置信息交互通过Redis Cluster Bus来完成(独立端口)。Redis Cluster Bus上交互的信息结构如下:

redis-31

clusterMsg 中的type指明了消息的类型,配置信息的一致性主要依靠PING/PONG。每个节点向其他节点频繁的周期性的发送PING/PONG消息。对于消息体中的Gossip部分,包含了sender/receiver 所感知的其他节点信息,接受者根据这些Gossip 跟新对集群的认识。

对于大规模的集群,如果每次PING/PONG 都携带着所有节点的信息,则网络开销会很大。此时Redis Cluster 在每次PING/PONG,只包含了随机的一部分节点信息。由于交互比较频繁,短时间的几次交互之后,集群的状态也会达成一致。

一致性

Cluster 结构不发生变化时,各个节点通过gossip 协议在几轮交互之后,便可以得知Cluster的结构信息,达到一致性的状态。但是当集群结构发生变化时(故障转移/分片迁移等),优先得知变更的节点通过Epoch变量,将自己的最新信息扩散到Cluster,并最终达到一致。

clusterNodeEpoch描述的单个节点的信息版本;
clusterStatecurrentEpoch 描述的是集群信息的版本,它可以辅助Epoch 的自增生成。因为currentEpoch 是维护在每个节点上的,在集群结构发生变更时,Cluster 在一定的时间窗口控制更新规则,来保证每个节点的currentEpoch都是最新的。
更新规则如下:

当某个节点率先知道了变更时,将自身的currentEpoch 自增,并使之成为集群中的最大值。再用自增后的currentEpoch 作为新的Epoch 版本;

  • 当某个节点收到了比自己大的currentEpoch时,更新自己的currentEpoch
  • 当收到的Redis Cluster Bus 消息中的某个节点的Epoch > 自身的时,将更新自身的内容;
  • Redis Cluster Bus 消息中,包含了自己没有的节点时,将其加入到自身的配置中。

上述的规则保证了信息的更新都是单向的,最终朝着Epoch更大的信息收敛。同时Epoch也随着currentEpoch的增加而增加,最终将各节点信息趋于稳定。

为了使得集群在一部分节点下线或者无法与集群的大多数(majority)节点进行通讯的情况下, 仍然可以正常运作, Redis 集群对节点使用了主从复制功能: 集群中的每个节点都有 1 个至 N 个复制品(replica), 其中一个复制品为主节点(master), 而其余的 N-1 个复制品为从节点(slave)。

集群间节点支持主从关系,复制的逻辑基本复用了单机版的实现。不过还是有些地方需要注意。

  • 首先集群间节点建立主从关系不再使用原有的SLAVEOF命令和SLAVEOF配置,而是通过cluster replicate命令,这保证了主从节点需要先完成握手,才能建立主从关系。
  • 集群是不能组成链式主从关系的,也就是说从节点不能有自己的从节点。不过对于集群外的没开启集群功能的节点,redis并不干预这些节点去复制集群内的节点,但是在集群故障转移时,这些集群外的节点,集群不会处理。
  • 集群内节点想要复制另一个节点,需要保证本节点不再负责任何slot,不然redis也是不允许的。
  • 集群内的从节点在与其他节点通信的时候,传递的消息中数据分布表和epochmaster的值。

集群主节点出现故障,发生故障转移,其他主节点会把故障主节点的从节点自动提为主节点,原来的主节点恢复后,自动成为新主节点的从节点

这里先说明,把一个master和它的全部slave描述为一个group,故障转移是以group为单位的,集群故障转移的方式跟sentinel的实现很类似。

redis-32

均衡集群

在集群运行过程中,有的masterslave宕机,导致了该master成为孤儿masterorphaned masters),而有的master有很多slave

此处孤儿master的定义是那些本来有slave,但是全部离线的master,对于那些原来就没有slavemaster不能认为是孤儿master

redis集群支持均衡slave功能,官方称为Replica migration,而我觉得均衡集群的slave更好理解该概念。集群能把某个slave较多的group上的slave迁移到那些孤儿master上,该功能通过cluster-migration-barrier参数配置,默认为1。

slave在每次定时任务都会检查是否需要迁移slave,即把自己变成孤儿masterslave。 满足以下条件,slave就会成为孤儿masterslave

  • 自己所在的groupslave最多的group
  • 目前存在孤儿master
  • 自己所在的groupslave数目至少超过2个,只有自己一个的话迁移到其他group,自己原来的groupmaster又成了孤儿master
  • 自己所在的groupslave数量大于cluster-migration-barrier配置。
  • group内的其他slave基于memcmp比较node id,自己的node id最小。这个可以防止多个slave并发复制孤儿master,从而原来的group失去过多的slave

优势

  1. 去中心化,集群最大可增加1000个节点,性能随节点增加而线性扩展。
  2. 解耦 数据节点 之间的关系,简化了节点 扩容收缩 难度。
  3. 节点自身 维护槽的 映射关系,不需要 客户端 或者 代理服务 维护 槽分区元数据

劣势

  1. key 批量操作 支持有限。类似 msetmget 操作,目前只支持对具有相同 slot 值的key 执行 批量操作。对于 映射为不同 slot 值的key 由于执行 mgetmget 等操作可能存在于多个节点上,因此不被支持。
  2. 只支持 key同一节点上事务操作,当多个 key 分布在 不同 的节点上时 无法 使用事务功能。
  3. key 作为 数据分区 的最小粒度,不能将一个 大的键值 对象如 hashlist 等映射到 不同的节点
  4. 不支持多数据库空间单机下的Redis可以支持 16 个数据库(db0 ~ db15),集群模式下只能使用一个 数据库空间,即 db0。
  5. 复制结构 只支持一层,从节点 只能复制 主节点,不支持 嵌套树状复制 结构。

集群搭建

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
#redis.conf相关集群配置
#配置为cluster模式
cluster-enabled yes

#集群节点配置信息,包括nodeid,集群信息。此文件非常关键,要确保故障转移或者重启的时候此文件还在,所以如果在docker环境下要外挂到外部存储
cluster-config-file nodes-6379.conf

#节点连接超时,如果集群规模小,都在同一个网络环境下,可以配置的短些,更快的做故障转移
cluster-node-timeout 2000

#慢查询日志,用于性能分析,生产环境可设置为1000(毫秒)
slowlog-log-slower-than 1000

#保存慢查询的队列长度 ,设置为1000
slowlog-max-len 1000

#设置为0,默认为10如果master slave都挂掉,slave跟master失联又超过这个数值*timeout的数值,就不会发起选举了。
#如果设置为0,就是永远都会尝试发起选举,尝试从slave变为mater
cluster-slave-validity-factor 10

#设置为no,默认为yes,故障发现到自动完成转移期间整个集群是不可用状态,对于大多数业务无法容忍这种情况
#因此要设置为no,当主节点故障时只影 响它负责槽的相关命令执行,不会影响其他主节点的可用性
cluster-require-full-coverage yes
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
#分别修改不同的redis.conf,注意,不同的redis.conf分开文件夹
#端口分别为6301~6306
port 6301

#dir ./ 修改成每个conf的路径
dir /usr/local/redis1

#cluster-enabled yes 开启集群模式
cluster-enabled yes

#打开配置集群结点信息文件(6301~6306)
cluster-config-file nodes-6301.conf

#打开结点超时配置
cluster-node-timeout 15000

# 持久化配置
appendonly yes

#修改`PID`文件名称
pidfile /var/run/redis-6301.pid

#修改`Log`文件名称
logfile redis-6301.log

#修改`dump.rdb`名称
dbfilename dump-6301.rdb
1
2
3
4
5
#查群脚本命令帮助文档
[root@localhost /]# redis-cli --cluster create help

#--cluster-replicas 1表示给每个master分配一个slave,系统会自动分配master和salve
redis-cli --cluster create --cluster-replicas 1 127.0.0.1:6301 127.0.0.1:6302 127.0.0.1:6303 127.0.0.1:6304 127.0.0.1:6305 127.0.0.1:6306
1
2
3
4
5
6
7
8
9
10
#查看集群状态
[root@localhost /]# redis-cli -p 6301 cluster info
#查看集群节点状态
[root@localhost /]# redis-cli -p 6301 cluster nodes

#使用redis-cli连接到集群,指定-c参数
[root@localhost /]# redis-cli -p 6001 -c

#重新分槽
[root@localhost /]# redis-cli -cluster reshard 127.0.0.1 6301

redis-33

redis-34

redis-35

当访问的slot在当前机器时,直接返回,当数据在其他master管理的slot中时,会自动重定位到负责该slotmaster机器

redis-36

可以看到当我把6303端口的master停止后,6304端口的slave上位成master

redis-37

当我重启6303端口的redis时,6303端口的redis自动成为6304端口mastersalve


部分内容出自文章:

https://blog.csdn.net/wuxian90/article/details/81590252

https://www.cnblogs.com/pingyeaa/p/11294773.html

https://www.jianshu.com/p/84dbb25cc8dc

https://nealli.gitee.io/2020/05/21/Redis%E9%9B%86%E7%BE%A4%E5%AE%89%E8%A3%85/

最后更新: 2021年01月20日 23:58

原始链接: https://midkuro.gitee.io/2020/05/26/redis-cluster/

× 请我吃糖~
打赏二维码