设为首页 收藏本站
查看: 1342|回复: 0

[经验分享] 结合keepalived实现redis群集高可用故障自动切换

[复制链接]

尚未签到

发表于 2018-11-7 08:06:30 | 显示全部楼层 |阅读模式
  系统架构图:
DSC0000.jpg

  我们所要实现的目的很简单,
  104,107 为keepalive和redis主从架构,其余服务器比如105、106均为redis从库并且挂在vip 192.168.56.180下面。
  主keepalive负责主要日常工作,从keepalive担任备机角色,一旦主keepalive挂掉,从keepalive服务器立即使从redis转变角色切换成master状态开始接管任务提供服务,实现业务的无缝切换,当挂掉的服务器修好上线后继续担任主的角色,从库会自动切换到slave状态并且不影响挂载在vip下的从redis的数据同步,一满足高并发架构的需求。
  keepalive在ubuntu的安装很简单
apt-get install libssl-dev  
apt-get install openssl
  
apt-get install libpopt-dev
  
apt-get install keepalived
  redis的安装也很简单:
  网上很多方法,也可参考我的另一篇文章: redis的shell安装脚本,实现在linux下本机主从架构
  网上有一篇郭冬的一篇文章给了我很大启发故拿来参考:通过Keepalived实现Redis Failover自动故障切换
  下面我们看192.168.56.104主keepalived的配置
  /etc/keepalived/keepalived.conf
global_defs {  notification_email {
  409011500@qq.com
  }
  notification_email_from  409011500@qq.com
  smtp_server 127.0.0.1  (如果本机配置的话)
  smtp_connect_timeout 30
  router_id redis-ha
  
}
  
vrrp_script chk_redis {
  script "/home/lhb/sh/redis_check.sh"   ###监控脚本
  interval 2                                        ###监控时间
  
}
  
vrrp_instance VI_1 {
  state MASTER                            ###设置为MASTER
  interface eth0                          ###监控网卡
  virtual_router_id 52
  priority 101                            ###权重值
  authentication {
  auth_type PASS             ###加密
  auth_pass redis            ###密码
  }
  track_script {
  chk_redis                       ###执行上面定义的chk_redis
  }
  virtual_ipaddress {
  192.168.56.180                        ###VIP
  }
  notify_master /home/lhb/sh/redis_master.sh
  notify_backup /home/lhb/sh/redis_backup.sh
  
}
  /home/lhb/sh/redis_master.sh
#!/bin/bash  
REDISCLI="/usr/local/redis/bin/redis-cli"
  
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
  
echo "[master]" >> $LOGFILE
  
date >> $LOGFILE
  
echo "Being master...." >> $LOGFILE 2>&1
  
echo "Run SLAVEOF cmd ..." >> $LOGFILE
  
$REDISCLI SLAVEOF 192.168.56.107 6379 >> $LOGFILE  2>&1
  
sleep 10 #延迟10秒以后待数据同步完成后再取消同步状态
  
echo "Run SLAVEOF NO ONE cmd ..." >> $LOGFILE
  
$REDISCLI SLAVEOF NO ONE >> $LOGFILE 2>&1
  /home/lhb/sh/redis_backup.sh
#!/bin/bash  
REDISCLI="/usr/local/redis/bin/redis-cli"
  
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
  
echo "[backup]" >> $LOGFILE
  
date >> $LOGFILE
  
echo "Being slave...." >> $LOGFILE 2>&1
  
sleep 15 #延迟15秒待数据被对方同步完成之后再切换主从角色
  
echo "Run SLAVEOF cmd ..." >> $LOGFILE
  
$REDISCLI SLAVEOF 192.168.56.107 6379 >> $LOGFILE  2>&1
  /usr/local/redis/etc/redis.conf
daemonize yes  
pidfile /var/run/redis.pid
  
port 6379
  
tcp-backlog 511
  
timeout 0
  
tcp-keepalive 0
  
loglevel notice
  
logfile "/usr/local/redis/log/redis.log"
  
databases 16
  
save 900 1
  
save 300 10
  
save 60 10000
  
stop-writes-on-bgsave-error yes
  
rdbcompression yes
  
rdbchecksum yes
  
dbfilename dump.rdb
  
dir /usr/local/redis/data
  
slave-serve-stale-data yes
  
slave-read-only no
  
repl-disable-tcp-nodelay no
  
slave-priority 100
  
appendonly yes
  
appendfilename "appendonly.aof"
  
appendfsync everysec
  
no-appendfsync-on-rewrite no
  
auto-aof-rewrite-percentage 100
  
auto-aof-rewrite-min-size 64mb
  
lua-time-limit 5000
  
slowlog-log-slower-than 10000
  
slowlog-max-len 128
  
notify-keyspace-events ""
  
hash-max-ziplist-entries 512
  
hash-max-ziplist-value 64
  
list-max-ziplist-entries 512
  
list-max-ziplist-value 64
  
set-max-intset-entries 512
  
zset-max-ziplist-entries 128
  
zset-max-ziplist-value 64
  
activerehashing yes
  
client-output-buffer-limit normal 0 0 0
  
client-output-buffer-limit slave 256mb 64mb 60
  
client-output-buffer-limit pubsub 32mb 8mb 60
  
hz 10
  
aof-rewrite-incremental-fsync yes
  192.168.56.107从keepalived的配置
  /etc/keepalived/keepalived.conf
global_defs {  notification_email {
  409011500@qq.com
  }
  notification_email_from 409011500@qq.com
  smtp_server 127.0.0.1
  smtp_connect_timeout 30
  router_id redis-ha
  
}
  
vrrp_script chk_redis {
  script "/home/lhb/sh/redis_check.sh"   ###监控脚本
  interval 2                                        ###监控时间
  
}
  
vrrp_instance VI_1 {
  state BACKUP                                ###设置为BACKUP
  interface eth0                              ###监控网卡
  virtual_router_id 52
  priority 100                                ###比MASTRE权重值低
  authentication {
  auth_type PASS
  auth_pass redis                ###密码与MASTRE相同
  }
  track_script {
  chk_redis                       ###执行上面定义的chk_redis
  }
  virtual_ipaddress {
  192.168.56.180                         ###VIP
  }
  notify_master /home/lhb/sh/redis_master.sh
  notify_backup /home/lhb/sh/redis_backup.sh
  
}
  /home/lhb/sh/redis_master.sh
#!/bin/bash  
REDISCLI="/usr/local/redis/bin/redis-cli"
  
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
  
echo "[master]" >> $LOGFILE
  
date >> $LOGFILE
  
echo "Being master...." >> $LOGFILE 2>&1
  
echo "Run SLAVEOF cmd ..." >> $LOGFILE
  
$REDISCLI SLAVEOF 192.168.56.104 6379 >> $LOGFILE  2>&1
  
sleep 10 #延迟10秒以后待数据同步完成后再取消同步状态
  
echo "Run SLAVEOF NO ONE cmd ..." >> $LOGFILE
  
$REDISCLI SLAVEOF NO ONE >> $LOGFILE 2>&1
  /home/lhb/sh/redis_backup.sh
#!/bin/bash  
REDISCLI="/usr/local/redis/bin/redis-cli"
  
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
  
echo "[backup]" >> $LOGFILE
  
date >> $LOGFILE
  
echo "Being slave...." >> $LOGFILE 2>&1
  
sleep 15 #延迟15秒待数据被对方同步完成之后再切换主从角色
  
echo "Run SLAVEOF cmd ..." >> $LOGFILE
  
$REDISCLI SLAVEOF 192.168.56.104 6379 >> $LOGFILE  2>&1
  /home/lhb/sh/redis_check.sh
#!/bin/bash  
ALIVE=`/usr/local/redis/bin/redis-cli PING`
  
if [ "$ALIVE" == "PONG" ]; then
  echo $ALIVE
  exit 0
  
else
  echo $ALIVE
  exit 1
  
fi
  /usr/local/redis/etc/redis_slave.conf
daemonize yes  
pidfile /var/run/redis_salve.pid
  
port 6379
  
tcp-backlog 511
  
timeout 0
  
tcp-keepalive 0
  
loglevel notice
  
logfile "/usr/local/redis/log/redis_slave.log"
  
databases 16
  
save 900 1
  
save 300 10
  
save 60 10000
  
stop-writes-on-bgsave-error yes
  
rdbcompression yes
  
rdbchecksum yes
  
dbfilename dump_salve.rdb
  
dir /usr/local/redis/data
  
slave-serve-stale-data yes
  
slave-read-only no
  
repl-disable-tcp-nodelay no
  
slave-priority 100
  
appendonly yes
  
appendfilename "appendonly.aof"
  
appendfsync everysec
  
no-appendfsync-on-rewrite no
  
auto-aof-rewrite-percentage 100
  
auto-aof-rewrite-min-size 64mb
  
lua-time-limit 5000
  
slowlog-log-slower-than 10000
  
slowlog-max-len 128
  
notify-keyspace-events ""
  
hash-max-ziplist-entries 512
  
hash-max-ziplist-value 64
  
list-max-ziplist-entries 512
  
list-max-ziplist-value 64
  
set-max-intset-entries 512
  
zset-max-ziplist-entries 128
  
zset-max-ziplist-value 64
  
activerehashing yes
  
client-output-buffer-limit normal 0 0 0
  
client-output-buffer-limit slave 256mb 64mb 60
  
client-output-buffer-limit pubsub 32mb 8mb 60
  
hz 10
  
aof-rewrite-incremental-fsync yes
  
SLAVEOF 192.168.56.104 6379
  192.168.56.105、192.168.56.106 redis配置文件相同:
  /usr/local/redis/etc/redis_salve.conf
daemonize yes  
pidfile /var/run/redis_salve.pid
  
port 6379
  
tcp-backlog 511
  
timeout 0
  
tcp-keepalive 0
  
loglevel notice
  
logfile "/usr/local/redis/log/redis_slave.log"
  
databases 16
  
save 900 1
  
save 300 10
  
save 60 10000
  
stop-writes-on-bgsave-error yes
  
rdbcompression yes
  
rdbchecksum yes
  
dbfilename dump_salve.rdb
  
dir /usr/local/redis/data
  
slave-serve-stale-data yes
  
slave-read-only no
  
repl-disable-tcp-nodelay no
  
slave-priority 100
  
appendonly no
  
appendfilename "appendonly.aof"
  
appendfsync everysec
  
no-appendfsync-on-rewrite no
  
auto-aof-rewrite-percentage 100
  
auto-aof-rewrite-min-size 64mb
  
lua-time-limit 5000
  
slowlog-log-slower-than 10000
  
slowlog-max-len 128
  
notify-keyspace-events ""
  
hash-max-ziplist-entries 512
  
hash-max-ziplist-value 64
  
list-max-ziplist-entries 512
  
list-max-ziplist-value 64
  
set-max-intset-entries 512
  
zset-max-ziplist-entries 128
  
zset-max-ziplist-value 64
  
activerehashing yes
  
client-output-buffer-limit normal 0 0 0
  
client-output-buffer-limit slave 256mb 64mb 60
  
client-output-buffer-limit pubsub 32mb 8mb 60
  
hz 10
  
aof-rewrite-incremental-fsync yes
  
SLAVEOF 192.168.56.180 6379
  好了,下面我们就来展示一下是否是我们期待的那样?
  启动192.168.56.104,192.168.56.107上的redis,keepalvied,以及192.168.56.105,192.168.56.106上的redis
  在192.168.56.104 我们看到以下结果,已经获取vip:192.168.56.180
DSC0001.jpg

DSC0002.jpg

  在192.168.56.107 我们看到以下结果,并没有获得vip192.168.56.180
DSC0003.jpg

DSC0004.jpg

  在192.168.56.105,192.168.56.106我们看到相同结果redis挂载在vip:192.168.56.180下
DSC0005.jpg

  这时我们把192.168.56.104下的redis给关闭掉,看一下结果:vip已经释放
DSC0006.jpg

  然后到192.168.56.107下看一下信息: 已经获取vip,并且redis已经从salve切换到master,并且从库105、106状态均为online
DSC0007.jpg

DSC0008.jpg

  192.168.56.105、192.168.56.106 redis结果:一直挂载在vip下面并且link_status处于up状态
DSC0009.jpg

  由此可见,当主redis挂掉后,备机上的redis立即切换为master,并且不影响业务正常运行。
  我们然后把主上redis从新启动,看到下面结果: 主服务器获取vip
DSC00010.jpg

  redis信息:我们可以看到192.168.56.107备机已经出现在master的slave列表中
DSC00011.jpg

  然后切换到:192.168.56.107看一下信息: 已经释放vip,并且redis已经从master切换到slave状态,并且指向的master是192.168.56.104
DSC00012.jpg

DSC00013.jpg

  在看192.168.56.105、192.168.56.106 redis信息,亦然指向192.168.56.180
DSC00014.jpg

  看到这里,已经满足我们系统架构最初的所有设想功能。有感兴趣的同学可以一起交流。谢谢



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-631712-1-1.html 上篇帖子: Redis应用(3)客户端访问 下篇帖子: redis数据库的安装
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表