设为首页 收藏本站
查看: 804|回复: 0

[经验分享] LVS DR模式搭建、keepalived+LVS搭建介绍

[复制链接]

尚未签到

发表于 2018-12-29 10:03:19 | 显示全部楼层 |阅读模式
LVS DR模式搭建

1.准备工作


  • DR模式同样需要三台虚拟机,三台机器只需要有“公网”IP,但在这种模式下又多了一个VIP。
      调度器dir:172.16.111.100
    真实服务器rs1:172.16.111.110
    真实服务器rs2:172.16.111.120
    VIP:172.16.111.200



2.DR模式搭建

在dir机器上写入脚本

[root@garytao-01 ~]# vim /usr/local/sbin/lvs_dr.sh
增加如下脚本内容:
#! /bin/bash
echo 1 > /proc/sys/net/ipv4/ip_forward
ipv=/usr/sbin/ipvsadm
vip=172.16.111.200
rs1=172.16.111.110
rs2=172.16.111.120
#注意这里的网卡名字
ifdown ens33   #为了不让网卡设置多次
ifup ens33
ifconfig ens33:2 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip dev ens33:2
$ipv -C
$ipv -A -t $vip:80 -s rr
$ipv -a -t $vip:80 -r $rs1:80 -g -w 1
$ipv -a -t $vip:80 -r $rs2:80 -g -w 1
#启动脚本
[root@garytao-01 ~]# sh /usr/local/sbin/lvs_dr.sh  
成功断开设备 'ens33'。
成功激活的连接(D-Bus 激活路径:/org/freedesktop/NetworkManager/ActiveConnection/2)
在rs1与rs2上编写同样脚本

[root@garytao-02 ~]# vim /usr/local/sbin/lvs_rs.sh
增加如下脚本内容:
#/bin/bash
vip=172.16.111.200
#把vip绑定在lo上,是为了实现rs直接把结果返回给客户端
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
#以下操作为更改arp内核参数,目的是为了让rs顺利发送mac地址给客户端
#参考文档www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.html
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
#启动脚本
[root@garytao-02 ~]# sh /usr/local/sbin/lvs_rs.sh
#在查看机器上查看路由及IP
[root@garytao-02 ~]# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
0.0.0.0         172.16.111.2    0.0.0.0         UG    100    0        0 ens33
172.16.0.0      0.0.0.0         255.255.0.0     U     100    0        0 ens33
172.16.111.200  0.0.0.0         255.255.255.255 UH    0      0        0 lo
[root@garytao-02 ~]# ip add
1: lo:  mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet 172.16.111.200/32 brd 172.16.111.200 scope global lo:0
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33:  mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:2c:5f:75 brd ff:ff:ff:ff:ff:ff
inet 172.16.111.110/16 brd 172.16.255.255 scope global ens33
valid_lft forever preferred_lft forever
inet6 fe80::b6dc:6aed:f1d0:2f43/64 scope link
valid_lft forever preferred_lft forever
[root@garytao-03 ~]# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
0.0.0.0         172.16.111.2    0.0.0.0         UG    100    0        0 ens33
172.16.111.0    0.0.0.0         255.255.255.0   U     100    0        0 ens33
172.16.111.200  0.0.0.0         255.255.255.255 UH    0      0        0 lo
[root@garytao-03 ~]# ip add
1: lo:  mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet 172.16.111.200/32 brd 172.16.111.200 scope global lo:0
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33:  mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:84:9e:21 brd ff:ff:ff:ff:ff:ff
inet 172.16.111.120/24 brd 172.16.111.255 scope global ens33
valid_lft forever preferred_lft forever
inet6 fe80::5a44:6d44:2313:b46f/64 scope link
valid_lft forever preferred_lft forever

3.浏览器访问测试


  • 浏览器里访问172.16.111.200,访问第一次的时候要等一段时间再刷新,有缓存。
DSC0000.png
DSC0001.png


keepalived + LVS

  LVS架构中,不管是NAT模式还是DR模式,当后端的RS宕掉时,调度器依然会把请求转发到宕掉的RS上,这样的结果并不是我们想要的。keepalived就可以解决该问题,它不仅仅有高可用的功能,还有负载均衡的功能,在调度器上只要安装了keepalived,就不用再安装ipvsadm了,也不用去编写LVS相关的脚本了,也就是说keepalived已经嵌入了LVS功能,完整的keepalived+LVS架构需要有两台调度器实现高可用,提供调度服务的只需要一台,另外一台作为备用。
  完整架构需要两台服务器(角色为dir)分别安装keepalived软件,目的是实现高可用,但keepalived本身也有负载均衡的功能,所以本次实验可以只安装一台keepalived。


1.准备工作


  • keepalived内置了ipvsadm的功能,所以不需要再安装ipvsadm包,也不用编写和执行那个lvs_dir的脚本。
  • 准备三台机器分别为:
      dir(安装keepalived)172.16.111.100
    rs1:172.16.111.110
    rs2:172.16.111.120
    vip:172.16.111.200



2.配置dir机器上的keepalived配置文件

[root@garytao-01 ~]# vim /etc/keepalived/keepalived.conf
删除之前的配置,增加如下配置内容:
vrrp_instance VI_1 {
#备用服务器上为 BACKUP
state MASTER
#绑定vip的网卡为ens33,你的网卡和阿铭的可能不一样,这里需要你改一下
interface ens33
virtual_router_id 51
#备用服务器上为90
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass aminglinux
}
virtual_ipaddress {
172.16.111.200
}
}
virtual_server 172.16.111.200 80 {
#(每隔10秒查询realserver状态)
delay_loop 10
#(lvs 算法)
lb_algo wlc
#(DR模式)
lb_kind DR
#(同一IP的连接60秒内被分配到同一台realserver)
persistence_timeout 60
#(用TCP协议检查realserver状态)
protocol TCP
real_server 172.16.111.110 80 {
#(权重)
weight 100
TCP_CHECK {
#(10秒无响应超时)
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
real_server 172.16.111.120 80 {
weight 100
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
}
#由于之前执行过LVS的脚本,可能需要做以下操作:
#把之前的ipvsadm规则清空
[root@garytao-01 ~]# ipvsadm -C
#把之前设置的VIP删除掉
[root@garytao-01 ~]# systemctl restart network
#在keepalived的配置文件中定义的LVS模式为DR模式,所以需要在两台rs上执行lvs_dr_rr.sh脚本,在上一节设置的脚本。
[root@garytao-01 ~]# sh /usr/local/sbin/lvs_dr_rs.ch
#启动keepalived
[root@garytao-01 ~]# systemctl start keepalived
[root@garytao-01 ~]# ps aux |grep keep
root       5753  0.0  0.1 120720  1396 ?        Ss   19:05   0:00 /usr/sbin/keepalived -D
root       5754  0.0  0.3 122916  3124 ?        S    19:05   0:00 /usr/sbin/keepalived -D
root       5755  0.0  0.2 127116  2660 ?        S    19:05   0:00 /usr/sbin/keepalived -D
root       5760  0.0  0.0 112680   972 pts/0    R+   19:06   0:00 grep --color=auto keep
[root@garytao-01 ~]# ip add
1: lo:  mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33:  mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:09:e5:58 brd ff:ff:ff:ff:ff:ff
inet 172.16.111.100/16 brd 172.16.255.255 scope global ens33
valid_lft forever preferred_lft forever
inet 172.16.111.200/32 brd 172.16.111.200 scope global ens33:2
valid_lft forever preferred_lft forever
inet6 fe80::1ffb:cde1:5f3e:5778/64 scope link
valid_lft forever preferred_lft forever
3: ens38:  mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:09:e5:6c brd ff:ff:ff:ff:ff:ff
inet 172.16.13.129/24 brd 172.16.13.255 scope global dynamic ens38
valid_lft 1486sec preferred_lft 1486sec
inet6 fe80::1392:1882:3d3d:ad8c/64 scope link
valid_lft forever preferred_lft forever
#使用执行命令ipvsadm -ln测试查看连接数
#停掉120上的nginx后,使用ipvsadm -ln查看如下
[root@garytao-03 ~]# systemctl stop nginx
[root@garytao-03 ~]# ps aux |grep nginx
root       7020  0.0  0.0 112680   976 pts/0    R+   19:29   0:00 grep --color=auto nginx
[root@garytao-01 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  172.16.111.200:80 wlc persistent 60
-> 172.16.111.110:80            Route   100    0          0      
#关掉keepalived,
[root@garytao-01 ~]# systemctl stop keepalived
[root@garytao-01 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
#开启120上的nginx及keepalived后
[root@garytao-03 ~]# systemctl start nginx
[root@garytao-03 ~]# ps aux |grep nginx
root       7032  0.0  0.0  20500   624 ?        Ss   19:32   0:00 nginx: master process /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf
nobody     7033  0.0  0.3  22944  3208 ?        S    19:32   0:00 nginx: worker process
nobody     7034  0.0  0.3  22944  3208 ?        S    19:32   0:00 nginx: worker process
root       7036  0.0  0.0 112680   972 pts/0    S+   19:32   0:00 grep --color=auto nginx
[root@garytao-01 ~]# systemctl start keepalived  #dir机器
[root@garytao-01 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  172.16.111.200:80 wlc persistent 60
-> 172.16.111.110:80            Route   100    0          0         
-> 172.16.111.120:80            Route   100    0          0         

备注:在浏览器检验是否成功的方法也很简单,在浏览器直接访问VIP127.16.111.200,然后故意把其中一台rs的Nginx服务关掉,比如先关闭110的,然后再刷新浏览器看结果,刷新的时候需要使用组合键(ctrl+F5)强制刷新浏览器,这样就不会有缓存数据了。




运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-657129-1-1.html 上篇帖子: keepalived(续一) 下篇帖子: 基于amoeba+keepalived+mmm实现mysql读写分离高可用架构
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表