设为首页 收藏本站
查看: 1487|回复: 0

[经验分享] 结合keepalived实现redis群集高可用故障自动切换

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-4-25 09:46:42 | 显示全部楼层 |阅读模式
系统架构图:
wKioL1NYeY7CE3KNAAGRzA16SNA956.jpg

我们所要实现的目的很简单,
104,107 为keepalive和redis主从架构,其余服务器比如105、106均为redis从库并且挂在vip 192.168.56.180下面。
主keepalive负责主要日常工作,从keepalive担任备机角色,一旦主keepalive挂掉,从keepalive服务器立即使从redis转变角色切换成master状态开始接管任务提供服务,实现业务的无缝切换,当挂掉的服务器修好上线后继续担任主的角色,从库会自动切换到slave状态并且不影响挂载在vip下的从redis的数据同步,一满足高并发架构的需求。
keepalive在ubuntu的安装很简单


apt-get install libssl-dev
apt-get install openssl
apt-get install libpopt-dev
apt-get install keepalived
redis的安装也很简单:
网上很多方法,也可参考我的另一篇文章: redis的shell安装脚本,实现在linux下本机主从架构
网上有一篇郭冬的一篇文章给了我很大启发故拿来参考:通过Keepalived实现Redis Failover自动故障切换,
下面我们看192.168.56.104主keepalived的配置
/etc/keepalived/keepalived.conf


global_defs {
        notification_email {
                409011500@qq.com
        }
        notification_email_from  409011500@qq.com
                smtp_server 127.0.0.1  (如果本机配置的话)
                smtp_connect_timeout 30
                router_id redis-ha
}
vrrp_script chk_redis {
                script "/home/lhb/sh/redis_check.sh"   ###监控脚本
                interval 2                                        ###监控时间
}
vrrp_instance VI_1 {
        state MASTER                            ###设置为MASTER
        interface eth0                          ###监控网卡
        virtual_router_id 52
        priority 101                            ###权重值
        authentication {
                     auth_type PASS             ###加密
                     auth_pass redis            ###密码
        }
        track_script {
                chk_redis                       ###执行上面定义的chk_redis
        }
        virtual_ipaddress {
             192.168.56.180                        ###VIP
        }
        notify_master /home/lhb/sh/redis_master.sh
        notify_backup /home/lhb/sh/redis_backup.sh
}
/home/lhb/sh/redis_master.sh


#!/bin/bash
REDISCLI="/usr/local/redis/bin/redis-cli"
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
echo "[master]" >> $LOGFILE
date >> $LOGFILE
echo "Being master...." >> $LOGFILE 2>&1
echo "Run SLAVEOF cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.107 6379 >> $LOGFILE  2>&1
sleep 10 #延迟10秒以后待数据同步完成后再取消同步状态
echo "Run SLAVEOF NO ONE cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF NO ONE >> $LOGFILE 2>&1

/home/lhb/sh/redis_backup.sh


#!/bin/bash
REDISCLI="/usr/local/redis/bin/redis-cli"
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
echo "[backup]" >> $LOGFILE
date >> $LOGFILE
echo "Being slave...." >> $LOGFILE 2>&1
sleep 15 #延迟15秒待数据被对方同步完成之后再切换主从角色
echo "Run SLAVEOF cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.107 6379 >> $LOGFILE  2>&1

/usr/local/redis/etc/redis.conf


daemonize yes
pidfile /var/run/redis.pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile "/usr/local/redis/log/redis.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error yes
rdbcompression yes
rdbchecksum yes
dbfilename dump.rdb
dir /usr/local/redis/data
slave-serve-stale-data yes
slave-read-only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly yes
appendfilename "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua-time-limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events ""
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set-max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync yes

192.168.56.107从keepalived的配置
/etc/keepalived/keepalived.conf


global_defs {
        notification_email {
                409011500@qq.com
        }
        notification_email_from 409011500@qq.com
                smtp_server 127.0.0.1
                smtp_connect_timeout 30
                router_id redis-ha
}
vrrp_script chk_redis {
                script "/home/lhb/sh/redis_check.sh"   ###监控脚本
                interval 2                                        ###监控时间
}
vrrp_instance VI_1 {
        state BACKUP                                ###设置为BACKUP
        interface eth0                              ###监控网卡
        virtual_router_id 52
        priority 100                                ###比MASTRE权重值低
        authentication {
                     auth_type PASS
                     auth_pass redis                ###密码与MASTRE相同
        }
        track_script {
                chk_redis                       ###执行上面定义的chk_redis
        }
        virtual_ipaddress {
             192.168.56.180                         ###VIP
        }
        notify_master /home/lhb/sh/redis_master.sh
        notify_backup /home/lhb/sh/redis_backup.sh
}

/home/lhb/sh/redis_master.sh


#!/bin/bash
REDISCLI="/usr/local/redis/bin/redis-cli"
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
echo "[master]" >> $LOGFILE
date >> $LOGFILE
echo "Being master...." >> $LOGFILE 2>&1
echo "Run SLAVEOF cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.104 6379 >> $LOGFILE  2>&1
sleep 10 #延迟10秒以后待数据同步完成后再取消同步状态
echo "Run SLAVEOF NO ONE cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF NO ONE >> $LOGFILE 2>&1

/home/lhb/sh/redis_backup.sh


#!/bin/bash
REDISCLI="/usr/local/redis/bin/redis-cli"
LOGFILE="/usr/local/redis/log/keepalived-redis-state.log"
echo "[backup]" >> $LOGFILE
date >> $LOGFILE
echo "Being slave...." >> $LOGFILE 2>&1
sleep 15 #延迟15秒待数据被对方同步完成之后再切换主从角色
echo "Run SLAVEOF cmd ..." >> $LOGFILE
$REDISCLI SLAVEOF 192.168.56.104 6379 >> $LOGFILE  2>&1

/home/lhb/sh/redis_check.sh


#!/bin/bash
ALIVE=`/usr/local/redis/bin/redis-cli PING`
if [ "$ALIVE" == "PONG" ]; then
  echo $ALIVE
  exit 0
else
  echo $ALIVE
  exit 1
fi

/usr/local/redis/etc/redis_slave.conf


daemonize yes
pidfile /var/run/redis_salve.pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile "/usr/local/redis/log/redis_slave.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error yes
rdbcompression yes
rdbchecksum yes
dbfilename dump_salve.rdb
dir /usr/local/redis/data
slave-serve-stale-data yes
slave-read-only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly yes
appendfilename "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua-time-limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events ""
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set-max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync yes
SLAVEOF 192.168.56.104 6379

192.168.56.105、192.168.56.106 redis配置文件相同:
/usr/local/redis/etc/redis_salve.conf


daemonize yes
pidfile /var/run/redis_salve.pid
port 6379
tcp-backlog 511
timeout 0
tcp-keepalive 0
loglevel notice
logfile "/usr/local/redis/log/redis_slave.log"
databases 16
save 900 1
save 300 10
save 60 10000
stop-writes-on-bgsave-error yes
rdbcompression yes
rdbchecksum yes
dbfilename dump_salve.rdb
dir /usr/local/redis/data
slave-serve-stale-data yes
slave-read-only no
repl-disable-tcp-nodelay no
slave-priority 100
appendonly no
appendfilename "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
lua-time-limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
notify-keyspace-events ""
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set-max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
activerehashing yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync yes
SLAVEOF 192.168.56.180 6379

好了,下面我们就来展示一下是否是我们期待的那样?

启动192.168.56.104,192.168.56.107上的redis,keepalvied,以及192.168.56.105,192.168.56.106上的redis
在192.168.56.104 我们看到以下结果,已经获取vip:192.168.56.180
wKiom1NYiejyYscZAAJldQVu4Ss388.jpg

wKiom1NYinnxIpddAAFCuP5SdOw780.jpg

在192.168.56.107 我们看到以下结果,并没有获得vip192.168.56.180
wKioL1NYi1zBOgf1AAKBRQPf020589.jpg

wKiom1NYi4biZ_S3AAF73oQ0smY062.jpg

在192.168.56.105,192.168.56.106我们看到相同结果redis挂载在vip:192.168.56.180下
wKiom1NYjBuzgpjdAAEyqSBY5RY919.jpg

这时我们把192.168.56.104下的redis给关闭掉,看一下结果:vip已经释放
wKioL1NYjPXQ4BV_AAMw36SD3cA511.jpg
然后到192.168.56.107下看一下信息: 已经获取vip,并且redis已经从salve切换到master,并且从库105、106状态均为online
wKiom1NYjeDguOWsAAJWPJYKPGI184.jpg
wKioL1NYjbbxEHjuAAFUpLSSi1g578.jpg

192.168.56.105、192.168.56.106 redis结果:一直挂载在vip下面并且link_status处于up状态
wKiom1NYlL3DwQmnAAEXRmwk9Vc332.jpg
由此可见,当主redis挂掉后,备机上的redis立即切换为master,并且不影响业务正常运行。

我们然后把主上redis从新启动,看到下面结果: 主服务器获取vip
wKioL1NYlefRP8S_AAQN0ZwQ7F8168.jpg
redis信息:我们可以看到192.168.56.107备机已经出现在master的slave列表中
wKioL1NYlkaj5aC2AAFGW2SCmkA345.jpg
然后切换到:192.168.56.107看一下信息: 已经释放vip,并且redis已经从master切换到slave状态,并且指向的master是192.168.56.104
wKiom1NYlw2SQ3b_AAIcAEkp6cU174.jpg

wKioL1NYluSyuVL6AAFzkvp_rMo237.jpg

在看192.168.56.105、192.168.56.106 redis信息,亦然指向192.168.56.180
wKiom1NYl6ywM19YAAEZ8YuEbtI608.jpg

看到这里,已经满足我们系统架构最初的所有设想功能。有感兴趣的同学可以一起交流。谢谢




运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-18391-1-1.html 上篇帖子: keepalived 中的MISC_CHECK用法 下篇帖子: Keepalived基础知识
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表