Maison  >  Article  >  base de données  >  Parlons de la réplication maître-esclave, des sentinelles et des clusters dans Redis

Parlons de la réplication maître-esclave, des sentinelles et des clusters dans Redis

青灯夜游
青灯夜游avant
2022-01-12 10:17:132134parcourir

Cet article vous présentera la réplication maître-esclave, les sentinelles et les clusters dans Redis. J'espère qu'il vous sera utile !

1. Réplication maître-esclave Redis

1. Présentation de la réplication maître-esclave

La réplication maître-esclave fait référence à la copie des données d'un serveur vers d'autres serveurs Redis. Le premier est appelé nœud maître (Master) et le second est appelé nœud esclave (Slave) ; la réplication des données est unidirectionnelle et ne peut s'effectuer que du nœud maître vers le nœud esclave.

Par défaut, chaque serveur Redis est un nœud maître ; et un nœud maître peut avoir plusieurs nœuds esclaves, mais un nœud esclave ne peut avoir qu'un seul nœud maître. [Recommandations associées : Tutoriel vidéo Redis]

2. Le rôle de la réplication maître-esclave

weight 数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;有其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
高可用基石 : En plus des fonctions ci-dessus, la réplication maître-esclave est également la base de la mise en œuvre des sentinelles. et les clusters, on dit donc que la réplication maître-esclave est la base de la haute disponibilité de Redis.

3. Processus de réplication maître-esclave

(1) Si un processus de machine esclave est démarré, il enverra une commande "commande de synchronisation" à la machine maître pour demander une connexion synchrone.
(2) Qu'il s'agisse de la première connexion ou de la reconnexion, la machine maître démarrera un processus en arrière-plan et enregistrera l'instantané des données dans le fichier de données (effectuera une opération RDB en même temps, le maître enregistrera également toutes les commandes qui modifient). les données et les mettre en cache dans le fichier de données dans le fichier.
(3) Une fois l'opération de mise en cache terminée, la machine maître enverra le fichier de données à la machine esclave. La machine esclave enregistrera le fichier de données sur le disque dur, puis le chargera dans la mémoire. modifiera les données. Toutes les opérations sont envoyées ensemble à la machine esclave. Si l'esclave tombe en panne et provoque un temps d'arrêt, il se reconnectera automatiquement lorsqu'il reviendra à la normale.
(4) Une fois que la machine maître a reçu la connexion de la machine esclave, elle envoie son fichier de données complet à la machine esclave. Si le maître reçoit plusieurs demandes de synchronisation de la part de l'esclave en même temps, le maître lancera un processus dans la machine esclave. arrière-plan pour enregistrer le fichier de données, puis l'envoyer à toutes les machines esclaves pour garantir que toutes les machines esclaves sont normales.

4. Configurer la réplication maître-esclave Redis

4.1 Configuration IP du serveur

Serveur Nom d'hôte IP
Nœud maître master 192.168 .122.10
Nœud Esclave1 esclave1 192.168.122.11
Nœud Esclave2 esclave2 192.168.122.12
防4.2 Environnement de pare-feu de chaque serveur

systemctl stop firewalld && systemctl disable firewalld
setenforce 0
E

4.3 Installation de chaque serveur Redis

Installation de Redis pour plus de détails :

Explication détaillée de Redis de Nosql

传入安装包到/opt目录
yum install -y gcc gcc-c++ make
tar zxvf redis-5.0.7.tar.gz -C /opt/
cd /opt/redis-5.0.7/
make
make PREFIX=/usr/local/redis install
cd /opt/redis-5.0.7/utils
./install_server.sh
......
Please select the redis executable path []
#输入/uar/local/redis/bin/redis-server
ln -s /usr/local/redis/bin/* /usr/local/bin/

4.4 Modifier le fichier de configuration Redis (fonctionnement du nœud maître)

Maître : 192.168.122.10

[root@master ~]# vim /etc/redis/6379.conf
 
##70行,修改监听地址为0.0.0.0,表示监听任何地址
bind 0.0.0.0
##137行,开启守护进程
daemonize yes
##172行,指定日志文件目录
logfile /var/log/redis_6379.log
##264行,指定工作日志
dir /var/lib/redis/6379
##700行,开启AOF持久化功能
appendonly yes

4.5 Modifier le fichier de configuration Redis (opération du nœud esclave)

Esclave1 : 192.168.122.11

[root@slave1 utils]# vim /etc/redis/6379.conf 
 
##70行,修改监听地址为0.0.0.0,表示监听任何地址
bind 0.0.0.0
##137行,开启守护进程
daemonize yes
##172行,指定日志文件目录
logfile /var/log/redis_6379.log
##264行,指定工作日志
dir /var/lib/redis/6379
##288行,添加要同步的Master节点IP和端口
replicaof 192.168.122.10 6379
##700行,开启AOF持久化功能
appendonly yes
 
[root@slave1 utils]# /etc/init.d/redis_6379 restart
Stopping ...
Redis stopped
Starting Redis server...

Esclave2 : 192.168.122.12

[root@slave2 utils]# vim /etc/redis/6379.conf 
 
##70行,修改监听地址为0.0.0.0,表示监听任何地址
bind 0.0.0.0
##137行,开启守护进程
daemonize yes
##172行,指定日志文件目录
logfile /var/log/redis_6379.log
##264行,指定工作日志
dir /var/lib/redis/6379
##288行,添加要同步的Master节点IP和端口
replicaof 192.168.122.10 6379
##700行,开启AOF持久化功能
appendonly yes
 
[root@slave2 utils]# /etc/init.d/redis_6379 restart
Stopping ...
Redis stopped
Starting Redis server...

4.6 Vérifier l'effet maître-esclave

4.6. 1 Lisez le journal sur le nœud maître

[root@master ~]# tail -f /var/log/redis_6379.log 
1002:M 23 Sep 2021 16:46:33.569 * Background saving terminated with success
1002:M 23 Sep 2021 16:46:33.569 * Synchronization with replica 192.168.122.11:6379 succeeded
1002:M 23 Sep 2021 16:46:34.519 * Replica 192.168.122.12:6379 asks for synchronization
1002:M 23 Sep 2021 16:46:34.519 * Full resync requested by replica 192.168.122.12:6379
1002:M 23 Sep 2021 16:46:34.519 * Starting BGSAVE for SYNC with target: disk
1002:M 23 Sep 2021 16:46:34.519 * Background saving started by pid 7941
7941:C 23 Sep 2021 16:46:34.521 * DB saved on disk
7941:C 23 Sep 2021 16:46:34.521 * RDB: 0 MB of memory used by copy-on-write
1002:M 23 Sep 2021 16:46:34.591 * Background saving terminated with success
1002:M 23 Sep 2021 16:46:34.591 * Synchronization with replica 192.168.122.12:6379 succeeded

4.6.2 Vérifiez le nœud esclave sur le nœud maître

[root@master ~]# redis-cli info replication
# Replication
role:master
connected_slaves:2
slave0:ip=192.168.122.11,port=6379,state=online,offset=910,lag=0
slave1:ip=192.168.122.12,port=6379,state=online,offset=910,lag=0
master_replid:9d7fa17fc64cd573f5b81457183831d97dfad7dc
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:910
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:910

2. Redis Sentinel Mode

1. Basé sur la réplication maître-esclave, Sentinel introduit le basculement automatique du nœud maître.

2. Principe du mode Sentinel

Sentinel est un système distribué utilisé pour surveiller chaque serveur dans la structure maître-esclave. Lorsqu'une panne se produit, un nouveau maître est sélectionné via un mécanisme de vote et tous les esclaves sont connectés. au nouveau Maître. Par conséquent, le nombre de clusters entiers exécutant Sentinel ne doit pas être inférieur à 3 nœuds.

3. Le rôle du mode sentinelle

Quantity: Surveillance : Sentinel vérifiera en permanence si le nœud maître et les nœuds esclaves fonctionnent normalement. Basculement automatique : lorsque le nœud maître ne fonctionne pas correctement, Sentinel démarre une opération de basculement automatique. Il met à niveau l'un des nœuds esclaves du nœud maître défaillant vers le nouveau nœud maître et le laisse. autres nœuds esclaves Le nœud change pour répliquer le nouveau nœud principal. Rappel de notification : Sentinel peut envoyer les résultats du basculement au client.

监控:哨兵会不断地检查主节点和从节点是否运作正常。
自动故障转移:当主节点不能正常工作时,哨兵会开始自动故障转移操作,它会将失效主节点的其中一个从节点升级为新的主节点,并让其他从节点改为复制新的主节点。
通知提醒4. La structure du mode sentinelle

La structure sentinelle se compose de deux parties, le nœud sentinelle et le nœud de données : ● Nœud sentinelle : Le système sentinelle se compose d'un ou plusieurs nœuds. un nœud redis spécial. Aucune donnée n'est stockée. ● Nœud de données : le nœud maître et le nœud esclave sont tous deux des nœuds de données.



5. Comment fonctionne le mode Sentinel

Le démarrage de Sentinel dépend du mode maître-esclave, le mode maître-esclave doit donc être installé avant de démarrer le mode Sentinel et doit être déployé sur tous les nœuds. En mode , le mode sentinelle surveillera si tous les nœuds de travail Redis sont normaux. Lorsqu'il y a un problème avec le maître, les autres nœuds voteront car ils ont perdu le contact avec le nœud maître. Si plus de la moitié des votes votent. être considéré qu'il y a effectivement un problème avec le Maître, puis la salle sentinelle en sera informée, puis en sélectionnera un parmi les Esclaves comme nouveau Maître.


6. Le mécanisme de basculement

est régulièrement surveillé par le nœud sentinelle pour détecter si le nœud maître est en panne. Chaque nœud sentinelle enverra une commande ping au nœud maître, au nœud esclave et aux autres nœuds sentinelles toutes les secondes pour la détection du rythme cardiaque. Si le nœud maître ne répond pas dans un certain délai ou répond avec un message d'erreur, alors la sentinelle pensera que le nœud maître est subjectivement hors ligne (unilatéralement). Lorsque plus de la moitié des nœuds sentinelles estiment que le nœud maître est subjectivement hors ligne, il le sera objectivement.

  • Lorsque le nœud maître échoue, les nœuds sentinelles mettront en œuvre le mécanisme d'élection via l'algorithme Raft (algorithme d'élection) pour élire conjointement un nœud sentinelle comme leader responsable de la gestion du basculement et de la notification du nœud maître. Par conséquent, le nombre d'hôtes dans le cluster Sentinel ne doit pas être inférieur à trois nœuds.

  • Le nœud sentinelle leader effectue le basculement. Le processus est le suivant :

    ● Mettez à niveau un certain nœud esclave vers le nouveau nœud maître et laissez les autres nœuds esclaves pointer vers le nouveau nœud maître

    ● Si le nœud maître d'origine récupère ; devient également un nœud esclave. Et pointez vers le nouveau nœud maître ;
  • ● Informez le client que le nœud maître a été modifié.
  • Il est important de noter que l'objectif hors ligne est un concept uniquement pour le nœud maître ; si le nœud esclave et le nœud sentinelle échouent, après avoir été subjectivement hors ligne par la sentinelle, il n'y aura pas d'opérations objectives ultérieures hors ligne et de basculement.



  • 7. Élection du nœud maître

Filtrez les nœuds esclaves malsains (hors ligne) qui ne répondent pas aux réponses ping de la sentinelle.

  • Sélectionnez le nœud esclave avec la configuration la plus prioritaire dans le fichier de configuration (priorité réplication, la valeur par défaut est 100).

  • Sélectionnez le nœud esclave avec le décalage de copie le plus grand, c'est-à-dire la copie la plus complète.

  • 8. Construire le mode sentinelle Redis

8.1 Configuration IP du serveur

Serveur Nom d'hôteNœud maîtremaîtreesclave1esclave2
IP
192.168. 122.10 Nœud Esclave1
192.168.122.11 Nœud Esclave2
192.168.122.12

8.2 各服务器防火墙环境

systemctl stop firewalld && systemctl disable firewalld
setenforce 0

8.3 修改Redis哨兵模式的配置文件(所有节点操作)

vim /opt/redis-5.0.7/sentinel.conf
 
##17行,取消注释,关闭保护模式
protected-mode no
##21行,Redis哨兵默认的监听端口
port 26379
##26行,指定sentienel为后台启动
daemonize yes
##36行,指定日志存放路径
logfile "/var/log/sentinel.log"
##65行,指定数据库存放路径
dir "/var/lib/redis/6379"
##84行,修改,指定该哨兵节点监控192.168.122.10 6379这个主节点,该主节点的名称是mymaster
##最后的2的含义与主节点的故障判定有关;至少需要2个哨兵节点同意,才能判定故障并进行故障转移
sentinel monitor mymaster 192.168.122.10 6379 2
##113行,判定服务器down掉的时间周期,默认30000毫秒(30秒)
sentinel down-after-milliseconds mymaster 30000
##146行,故障节点的最大超时时间为180000毫秒(180秒)
sentinel failover-timeout mymaster 180000

8.4 启动哨兵模式

注意:需先启动master,再启动slave

cd /opt/redis-5.0.7/
redis-sentinel sentinel.conf &

8.5 查看哨兵信息

Master:192.168.122.10

[root@master redis-5.0.7]# redis-cli -p 26379 info sentinel
# Sentinel
sentinel_masters:1
sentinel_tilt:0
sentinel_running_scripts:0
sentinel_scripts_queue_length:0
sentinel_simulate_failure_flags:0
master0:name=mymaster,status=ok,address=192.168.122.10:6379,slaves=2,sentinels=3

三、Redis 群集模式

1. Redis集群的概述

集群,即Redis Cluster,是Redis 3.0开始引入的分布式存储方案。

2. Redis集群

集群由多个节点(Node)组成,Redis的数据分布在这些节点中。集群中的节点分为主节点和从节点;只有主节点负责读写请求和集群信息的维护;从节点只进行主节点数据和状态信息的复制。

3. Redis集群的作用

集群的作用,可以归纳为两点:

3.1 数据分区

数据分区(或称数据分片)是集群最核心的功能。
集群将数据分散到多个节点,一方面突破了Redis单机内存大小的限制,存储容量大大增加;另一方面每个主节点度可以对外提供读服务和写服务,大大提高了集群的响应能力。
Redis单机内存大小受限问题,在介绍持久化和主从复制时都有体积;例如,如果单机内存太大,bgsave和bgrewriteaof的fork操作可能导致主进程阻塞,主从环境下主机切换时可能导致从节点长时间无法提供服务,全量复制阶段主节点的复制缓冲区可能溢出。

3.2 高可用

集群支持主从复制和主节点的自动故障转换(与哨兵类似);当任一节点发生故障时,集群仍然可以对外提供服务。

4. Redis集群的数据分片

● Redis集群引入了哈希槽的概念
● Redis集群有16384个哈希槽(编号0-16383)
● 集群的每个节点负责一部分哈希槽
● 每个key通过CRC16校验后对16384取余来决定放置哪个哈希槽,通过这个值,去找到所对应的节点,然后直接跳转到这个对应的节点上进行存取操作。

5. 哈希槽

5.1 哈希槽的分配

  • 哈希槽可按照集群主机数平均分配(默认分配)
    以3个节点组成的集群为例:
    节点A包含0-5460号哈希槽
    节点B包含5461-10922号哈希槽
    节点C包含10923-16383号哈希槽

  • 也可以根据主机的性能以及功能自定义分配
    以3个节点组成的集群为例:
    节点A性能最差,包含0-2000号哈希值
    节点B性能中等,包含2001-7000号哈希值
    节点C性能最强,包含7001-16383号哈希值

5.2 哈希槽的使用

集群搭建的时候,需要给集群的节点分配插槽,0~16383
在node1执行set a a

  • 使用crc16算法对key进行计算,得到一个数字,然后对这个数字进行求余16384(crc16 : a = 26384l;26384 % 16384 = 10000)

  • 查找包含10000的插槽的节点,找到了node2,自动跳转到node2

  • 在node2上执行set a a命令

node3上执行get a

  • a --> 10000

  • 跳转到node2

  • 在node2执行get a

6. Redis集群的主从复制模型


集群中具有A、B、C三个节点,如果节点B失败了,整个集群就会因缺少5461-10922这个范围的槽而不可以用。
以每个节点添加一个从节点A1、B1、C1整个集群便有了三个Master节点和三个Slave节点组成,在节点B失败后,集群选举B1位为新的主节点继续服务。当B和B1都失败后,集群将不可用。

7. 搭建Redis群集模式

7.1 服务器IP配置

redis的集群一般需要6个节点,3主3从。方便起见,这里在同一台服务器上模拟;
以端口号进行区分,3个主节点端口号6001/6002/6003,对应的从节点端口号6004/6005/6006。

服务器 主机名 IP 主端口 从端口
Node1节点 node 192.168.122.10 6001 6004
Node2节点 node 192.168.122.10 6002 6005
Node3节点 node 192.168.122.10 6003 6006

7.2 服务器防火墙环境

systemctl stop firewalld && systemctl disable firewalld
setenforce 0

7.3 创建集群配置目录及文件

[root@node ~]# cd /etc/redis
[root@node redis]# mkdir -p redis-cluster/redis600{1..6}
[root@node redis]# for i in {1..6}
> do
> cp /opt/redis-5.0.7/redis.conf /etc/redis/redis-cluster/redis600$i
> cp /opt/redis-5.0.7/src/redis-cli /opt/redis-5.0.7/src/redis-server /etc/redis/redis-cluster/redis600$i
> done
[root@node redis]# ls -R redis-cluster/
redis-cluster/:
redis6001  redis6002  redis6003  redis6004  redis6005  redis6006
 
redis-cluster/redis6001:
redis-cli  redis.conf  redis-server
 
redis-cluster/redis6002:
redis-cli  redis.conf  redis-server
 
redis-cluster/redis6003:
redis-cli  redis.conf  redis-server
 
redis-cluster/redis6004:
redis-cli  redis.conf  redis-server
 
redis-cluster/redis6005:
redis-cli  redis.conf  redis-server
 
redis-cluster/redis6006:
redis-cli  redis.conf  redis-server

7.4 开启群集功能

仅以redis6001为例,其他5个文件夹的配置文件以此类推修改,特别注意端口号的修改。

[root@node redis]# cd redis-cluster/redis6001
[root@node redis6001]# vim redis.conf 
 
##69行,注释掉bind项,默认监听所有网卡
#bind 127.0.0.1
##88行,修改,关闭保护模式
protected-mode no
##92行,修改,redis监听端口
port 6001
##136行,开启守护进程,以独立进程启动
daemonize yes
##832行,取消注释,开启群集功能
cluster-enabled yes
##840行,注销注释,群集名称文件设置
cluster-config-file nodes-6001.conf
##846行,注销注释,群集超时时间设置
cluster-node-timeout 15000
##700行,修改,开启AOF持久化
appendonly yes

7.5 启动redis节点

分别进入那六个文件夹,执行命令:“redis-server redis.conf”,来启动redis节点

[root@node redis6001]# for d in {1..6}
> do
> cd /etc/redis/redis-cluster/redis600$i
> ^C
[root@node redis6001]# for d in {1..6}
> do
> cd /etc/redis/redis-cluster/redis600$d
> redis-server redis.conf
> done
[root@node1 redis6006]# ps -ef | grep redis
root        992      1  0 13:45 ?        00:00:07 /usr/local/redis/bin/redis-server 0.0.0.0:6379
root       2289      1  0 14:41 ?        00:00:00 redis-server *:6001 [cluster]
root       2294      1  0 14:41 ?        00:00:00 redis-server *:6002 [cluster]
root       2299      1  0 14:41 ?        00:00:00 redis-server *:6003 [cluster]
root       2304      1  0 14:41 ?        00:00:00 redis-server *:6004 [cluster]
root       2309      1  0 14:41 ?        00:00:00 redis-server *:6005 [cluster]
root       2314      1  0 14:41 ?        00:00:00 redis-server *:6006 [cluster]
root       2450   2337  0 14:50 pts/0    00:00:00 grep --color=auto redis

7.6 启动集群

[root@node redis6006]# redis-cli --cluster create 127.0.0.1:6001 127.0.0.1:6002 127.0.0.1:6003 127.0.0.1:6004 127.0.0.1:6005 127.0.0.1:6006 --cluster-replicas 1

六个实例分为三组,每组一主一从,前面的做主节点,后面的做从节点。下面交互的时候需要输入yes才可以成功创建。
–replicas 1表示每个主节点有1个从节点。

7.7 测试集群

[root@node1 redis6006]# redis-cli -p 6001 -c
#加-c参数,节点之前就可以互相跳转
127.0.0.1:6001> cluster slots
#查看节点的哈希槽编号范围
1) 1) (integer) 0
#哈希槽起始编号
   2) (integer) 5460
#哈希槽终止编号
   3) 1) "127.0.0.1"
      2) (integer) 6001
#node节点主
      3) "18e59f493579facea29abf90ca4050f566d66339"
   4) 1) "127.0.0.1"
      2) (integer) 6004
#node节点从
      3) "2635bf6a0c286ef910ec5da03dbdc7cde308c588"
2) 1) (integer) 10923
   2) (integer) 16383
   3) 1) "127.0.0.1"
      2) (integer) 6003
      3) "51460d417eb56537e5bd7e8c9581c66fdd817b3c"
   4) 1) "127.0.0.1"
      2) (integer) 6006
      3) "51a75667dcf21b530e69a3242a3e9f81f577168d"
3) 1) (integer) 5461
   2) (integer) 10922
   3) 1) "127.0.0.1"
      2) (integer) 6002
      3) "6381d68c06ddb7ac43c8f7d7b8da0644845dcd59"
   4) 1) "127.0.0.1"
      2) (integer) 6005
      3) "375ad927116d3aa845e95ad5f0586306e7ff3a96"
127.0.0.1:6001> set num 1
OK
127.0.0.1:6001> get num
"1"
127.0.0.1:6001> keys *
1) "num"
127.0.0.1:6001> quit
[root@node1 redis6006]# redis-cli -p 6002 -c
127.0.0.1:6002> keys *
#6002端口无键值对
(empty list or set)
127.0.0.1:6002> get num
-> Redirected to slot [2765] located at 127.0.0.1:6001
"1"
#6002端口获取到num键位于6001端口,切换到6001端口并显示键值
127.0.0.1:6001> set key1 11111
-> Redirected to slot [9189] located at 127.0.0.1:6002
OK
#6001端口创建键值对,将其存至6002端口,并切换至6002端口
127.0.0.1:6002>

更多编程相关知识,请访问:编程入门!!

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer