设为首页 收藏本站
查看: 1517|回复: 0

[经验分享] 结合keepalived实现redis群集高可用故障自动切换

[复制链接]
发表于 2015-9-4 11:12:12 | 显示全部楼层 |阅读模式
原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://birdinroom.blog.iyunv.com/7740375/1401663
  系统架构图:
DSC0000.jpg
  
  我们所要实现的目的很简单,
  104,107 为keepalive和redis主从架构,其余服务器比如105、106均为redis从库并且挂在vip 192.168.56.180下面。
  主keepalive负责主要日常工作,从keepalive担任备机角色,一旦主keepalive挂掉,从keepalive服务器立即使从redis转变角色切换成master状态开始接管任务提供服务,实现业务的无缝切换,当挂掉的服务器修好上线后继续担任主的角色,从库会自动切换到slave状态并且不影响挂载在vip下的从redis的数据同步,一满足高并发架构的需求。
  
  keepalive在ubuntu的安装很简单



1
2
3
4


apt-get install libssl-dev
apt-get install openssl
apt-get install libpopt-dev
apt-get install keepalived
  redis的安装也很简单:
  网上很多方法,也可参考我的另一篇文章: redis的shell安装脚本,实现在linux下本机主从架构
  网上有一篇郭冬的一篇文章给了我很大启发故拿来参考:通过Keepalived实现Redis Failover自动故障切换
  下面我们看192.168.56.104主keepalived的配置
  /etc/keepalived/keepalived.conf
  



1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31


global_defs {
        notification_email {
                409011500@qq.com
        }
        notification_email_from  409011500@qq.com
                smtp_server 127.0.0.1  (如果本机配置的话)
                smtp_connect_timeout 30
                router_id redis-ha
}
vrrp_script chk_redis {
                script "/home/lhb/sh/redis_check.sh"   ###监控脚本
                interval 2                                        ###监控时间
}
vrrp_instance VI_1 {
        state MASTER                            ###设置为MASTER
        interface eth0                          ###监控网卡
        virtual_router_id 52
        priority 101                            ###权重值
        authentication {
                     auth_type PASS             ###加密
                     auth_pass redis            ###密码
        }
        track_script {
                chk_redis                       ###执行上面定义的chk_redis
        }
        virtual_ipaddress {
             192.168.56.180                        ###VIP
        }
        notify_master /home/lhb/sh/redis_master.sh
        notify_backup /home/lhb/sh/redis_backup.sh
}
  /home/lhb/sh/redis_master.sh



1
2
3
4
5
6
7
8
9
10
11


#!/bin/bash
REDISCLI="/usr/local/redis/bin/redis-cli"
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
echo "[master]" >> $LOGFILE
date >> $LOGFILE
echo "Being master...." >> $LOGFILE 2>&1
echo "Run SLAVEOF cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.107 6379 >> $LOGFILE  2>&1
sleep 10 #延迟10秒以后待数据同步完成后再取消同步状态
echo "Run SLAVEOF NO ONE cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF NO ONE >> $LOGFILE 2>&1
  
  /home/lhb/sh/redis_backup.sh



1
2
3
4
5
6
7
8
9


#!/bin/bash
REDISCLI="/usr/local/redis/bin/redis-cli"
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
echo "[backup]" >> $LOGFILE
date >> $LOGFILE
echo "Being slave...." >> $LOGFILE 2>&1
sleep 15 #延迟15秒待数据被对方同步完成之后再切换主从角色
echo "Run SLAVEOF cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.107 6379 >> $LOGFILE  2>&1
  
  /usr/local/redis/etc/redis.conf



1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44


daemonize yes
pidfile /var/run/redis.pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile "/usr/local/redis/log/redis.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error yes
rdbcompression yes
rdbchecksum yes
dbfilename dump.rdb
dir /usr/local/redis/data
slave-serve-stale-data yes
slave-read-only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly yes
appendfilename "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua-time-limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events ""
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set-max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync yes
  
  192.168.56.107从keepalived的配置
  /etc/keepalived/keepalived.conf



1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31


global_defs {
        notification_email {
                409011500@qq.com
        }
        notification_email_from 409011500@qq.com
                smtp_server 127.0.0.1
                smtp_connect_timeout 30
                router_id redis-ha
}
vrrp_script chk_redis {
                script "/home/lhb/sh/redis_check.sh"   ###监控脚本
                interval 2                                        ###监控时间
}
vrrp_instance VI_1 {
        state BACKUP                                ###设置为BACKUP
        interface eth0                              ###监控网卡
        virtual_router_id 52
        priority 100                                ###比MASTRE权重值低
        authentication {
                     auth_type PASS
                     auth_pass redis                ###密码与MASTRE相同
        }
        track_script {
                chk_redis                       ###执行上面定义的chk_redis
        }
        virtual_ipaddress {
             192.168.56.180                         ###VIP
        }
        notify_master /home/lhb/sh/redis_master.sh
        notify_backup /home/lhb/sh/redis_backup.sh
}
  
  /home/lhb/sh/redis_master.sh



1
2
3
4
5
6
7
8
9
10
11


#!/bin/bash
REDISCLI="/usr/local/redis/bin/redis-cli"
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
echo "[master]" >> $LOGFILE
date >> $LOGFILE
echo "Being master...." >> $LOGFILE 2>&1
echo "Run SLAVEOF cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.104 6379 >> $LOGFILE  2>&1
sleep 10 #延迟10秒以后待数据同步完成后再取消同步状态
echo "Run SLAVEOF NO ONE cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF NO ONE >> $LOGFILE 2>&1
  
  /home/lhb/sh/redis_backup.sh



1
2
3
4
5
6
7
8
9


#!/bin/bash
REDISCLI="/usr/local/redis/bin/redis-cli"
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
echo "[backup]" >> $LOGFILE
date >> $LOGFILE
echo "Being slave...." >> $LOGFILE 2>&1
sleep 15 #延迟15秒待数据被对方同步完成之后再切换主从角色
echo "Run SLAVEOF cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.104 6379 >> $LOGFILE  2>&1
  
  /home/lhb/sh/redis_check.sh



1
2
3
4
5
6
7
8
9


#!/bin/bash
ALIVE=`/usr/local/redis/bin/redis-cli PING`
if [ "$ALIVE" == "PONG" ]; then
  echo $ALIVE
  exit 0
else
  echo $ALIVE
  exit 1
fi
  
  /usr/local/redis/etc/redis_slave.conf



1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45


daemonize yes
pidfile /var/run/redis_salve.pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile "/usr/local/redis/log/redis_slave.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error yes
rdbcompression yes
rdbchecksum yes
dbfilename dump_salve.rdb
dir /usr/local/redis/data
slave-serve-stale-data yes
slave-read-only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly yes
appendfilename "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua-time-limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events ""
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set-max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync yes
SLAVEOF 192.168.56.104 6379
  
  192.168.56.105、192.168.56.106 redis配置文件相同:
  /usr/local/redis/etc/redis_salve.conf



1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45


daemonize yes
pidfile /var/run/redis_salve.pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile "/usr/local/redis/log/redis_slave.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error yes
rdbcompression yes
rdbchecksum yes
dbfilename dump_salve.rdb
dir /usr/local/redis/data
slave-serve-stale-data yes
slave-read-only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly no
appendfilename "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua-time-limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events ""
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set-max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync yes
SLAVEOF 192.168.56.180 6379
  
  好了,下面我们就来展示一下是否是我们期待的那样?
  
  启动192.168.56.104,192.168.56.107上的redis,keepalvied,以及192.168.56.105,192.168.56.106上的redis
  在192.168.56.104 我们看到以下结果,已经获取vip:192.168.56.180
DSC0001.jpg
  
DSC0002.jpg
  
  在192.168.56.107 我们看到以下结果,并没有获得vip192.168.56.180
DSC0003.jpg
  
DSC0004.jpg
  
  在192.168.56.105,192.168.56.106我们看到相同结果redis挂载在vip:192.168.56.180下
DSC0005.jpg
  
  这时我们把192.168.56.104下的redis给关闭掉,看一下结果:vip已经释放
DSC0006.jpg
  然后到192.168.56.107下看一下信息: 已经获取vip,并且redis已经从salve切换到master,并且从库105、106状态均为online


  
  192.168.56.105、192.168.56.106 redis结果:一直挂载在vip下面并且link_status处于up状态

  由此可见,当主redis挂掉后,备机上的redis立即切换为master,并且不影响业务正常运行。
  
  我们然后把主上redis从新启动,看到下面结果: 主服务器获取vip

  redis信息:我们可以看到192.168.56.107备机已经出现在master的slave列表中

  然后切换到:192.168.56.107看一下信息: 已经释放vip,并且redis已经从master切换到slave状态,并且指向的master是192.168.56.104

  

  
  在看192.168.56.105、192.168.56.106 redis信息,亦然指向192.168.56.180

  
  看到这里,已经满足我们系统架构最初的所有设想功能。有感兴趣的同学可以一起交流。谢谢
  
  本文出自 “宅鸟乐园” 博客,请务必保留此出处http://birdinroom.blog.iyunv.com/7740375/1401663

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-109317-1-1.html 上篇帖子: MySQL主从复制与lvs+keepalived单点写入读负载均衡高可用实验【转】 下篇帖子: Keepalived 双机web服务宕机检测切换系统软件
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表