设为首页 收藏本站
查看: 1678|回复: 1

[经验分享] LB集群之LVS/keepalived

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2016-12-23 09:03:34 | 显示全部楼层 |阅读模式
在上一个实验的基础上LVS/DR
(NTA,DR HA 都是用 nginx 服务操作的,省去了安装nginx安装配置)
lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把httpd进程停掉,那么director照样会把请求转发过去,这样就造成了某些请求不正常。所以需要有一种机制用来检测real server的状态,这就是keepalived。它的作用除了可以检测rs状态外,还可以检测备用director的状态,也就是说keepalived(集HA+LB于一体)可以实现ha集群的功能,当然了也需要一台备用director.
实验环境:三台虚拟机,10.72.4.48 (dir/master),10.72.4.39(rs2&slave),10.72.4.37 (rs2)

[iyunv@dir ~]# ipvsadm -C  #清空之前的规则
[iyunv@dir ~]# yum install -y keepalived  #安装keepalived

[iyunv@dir ~]# vim /etc/keepalived/keepalived.conf
    state MASTER   #备用服务器上为 BACKUP
    interface eth0
    virtual_router_id 51
    priority 100  #备用服务器上为90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        10.72.4.100
    }
}

virtual_server 10.72.4.100 80 {
    delay_loop 6                  #(每隔10秒查询realserver状态)
    lb_algo wlc                  #(lvs 算法)
    lb_kind DR                  #(Direct Route)
    persistence_timeout 60        #(同一IP的连接60秒内被分配到同一台realserver)
    protocol TCP                #(用TCP协议检查realserver状态)
    real_server 10.72.4.37 80 {
        weight 100               #(权重)
        TCP_CHECK {
        connect_timeout 10       #(10秒无响应超时)
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }

real_server 10.72.4.39 80 {
        weight 100
        TCP_CHECK {
        connect_timeout 10
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
     }
}


  ------------------------------------------------
[iyunv@dir ~]# scp /etc/keepalived/keepalived.conf 10.72.4.39:/etc/keepalived/keepalived.conf  #拷贝到从上

[iyunv@rs2 ~]# vim /etc/keepalived/keepalived.conf #只改以下两处,其他地方不都不用改
vrrp_instance VI_1 {
    state BACKUP   #备用服务器上为 BACKUP
    interface eth0
    virtual_router_id 51
    priority 90  #备用服务器上为90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        10.72.4.100
    }
}
------------------------------------------
[iyunv@dir ~]# /etc/init.d/keepalived start
Starting keepalived:                                       [ OK  ]

[iyunv@rs2 ~]# /etc/init.d/keepalived start
Starting keepalived:                                       [  OK  ]

[iyunv@rs1 ~]vim /usr/local/sbin/lvs_nat.sh  #编译脚本
#! /bin/bash
vip= spacer.jpg 10.72.4.100
ifconfig lo:0 $vip broadcast $vip netmask spacer.jpg 255.255.255.255 up
route add -host $vip lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce


[iyunv@rs1 ~]sh /usr/local/sbin/lvs_nat.sh   #执行脚本

[iyunv@rs2 ~]vim /usr/local/sbin/lvs_nat.sh  #编译脚本
#! /bin/bash
vip= spacer.jpg 10.72.4.100
ifconfig lo:0 $vip broadcast $vip netmask spacer.jpg 255.255.255.255 up
route add -host $vip lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce


[iyunv@rs2 ~]sh /usr/local/sbin/lvs_nat.sh #执行脚本

[iyunv@dir ~]# vim /usr/local/sbin/lvs_dr.sh  #编译打开dir 上的端口转发脚本
#! /bin/bash
echo 1 > /proc/sys/net/ipv4/ip_forward

[iyunv@dir ~]# sh /usr/local/sbin/lvs_dr.sh #执行脚本


wKiom1hbjuzwpibmAAHW6vTCe6Y599.jpg

[iyunv@rs2 ~]# /etc/init.d/nginx stop  #停掉 rs2 上的nginx ,
Stopping nginx:                                            [  OK  ]
#停掉rs2 上的nginx 后,IE 刷新 10.72.4.100,不会再出现rs2 上的内容。且主服务器也会把rs2 的IP 踢除,重新启动rs2 上的nginx 服务,会恢复正常。
wKiom1hbktPwiO3SAABwghf6mTQ492.jpg
wKioL1hbk3uwwq3nAACJR-5QdzU311.jpg

--------------------------------------------------------
[iyunv@dir ~]# /etc/init.d/keepalived stop #停掉主dir上的 keepalived ,rs2从上的keepalived就会启动,取代dir 成为主,继续工作。
Stopping keepalived:                                       [  OK  ]
wKioL1hblt7in9yxAALR7LWQvWo458.jpg
再次重新启动主的 keepalived ,就会恢复到之前的状态。


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-318178-1-1.html 上篇帖子: LB集群之LVS/DR 下篇帖子: Centos7-Lvs+Keepalived架构
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表