设为首页 收藏本站
查看: 788|回复: 0

[经验分享] Linux集群:LVS搭建负载均衡集群(二)

[复制链接]

尚未签到

发表于 2019-1-4 08:20:48 | 显示全部楼层 |阅读模式
一、DR模式LVS搭建

1、准备工作



  • 调度器dir:192.168.242.128
  • 真实服务器rs1:192.168.242.129,网关恢复为之前的原始网关
  • 真实服务器rs2:192.168.242.130,网关恢复为之前的原始网关
  • VIP:192.168.242.110


2、dir上编写脚本

[root@zlinux-01 ~]# vim /usr/local/sbin/lvs_dr.sh
#! /bin/bash
echo 1 > /proc/sys/net/ipv4/ip_forward
ipv=/usr/sbin/ipvsadm
vip=192.168.242.110
rs1=192.168.242.129
rs2=192.168.242.130
#ifdown ifup 同等于重启网卡,对虚拟网卡进行重置
#防止再次启动脚本的时候,再次设置虚拟网卡的IP地址
ifdown ens33
ifup ens33
#注意这里的网卡名字
ifconfig ens33:2 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip dev ens33:2
$ipv -C
$ipv -A -t $vip:80 -s rr
$ipv -a -t $vip:80 -r $rs1:80 -g -w 1
$ipv -a -t $vip:80 -r $rs2:80 -g -w 1
[root@zlinux-01 ~]# sh /usr/local/sbin/lvs_dr.sh
成功断开设备 'ens33'。
成功激活的连接(D-Bus 激活路径:/org/freedesktop/NetworkManager/ActiveConnection/2)
3、rs上编写脚本(两台内容相同)

[root@zlinux-02 ~]# vim /usr/local/sbin/lvs_dr_rs.sh
#!/bin/bash
vip=192.168.242.110
ifdown lo
ifup lo
#把vip绑定在lo上,是为了实现rs直接把结果返回给客户端
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
#以下操作为更改arp内核参数,目的是为了让rs顺利发送mac地址给客户端
#参考文档 www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.html
echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce
[root@zlinux-02 ~]# sh /usr/local/sbin/lvs_dr_rs.sh
4、测试
  我在这里是用的第四台虚拟机测试的,没有的话可以直接在浏览器输入VIP地址测试。

[root@zlinux-04 ~]# curl 192.168.242.110
LVS-zlinux03
[root@zlinux-04 ~]# curl 192.168.242.110
LVS-zlinux02
[root@zlinux-04 ~]# curl 192.168.242.110
LVS-zlinux03
[root@zlinux-04 ~]# curl 192.168.242.110
LVS-zlinux02
[root@zlinux-04 ~]# curl 192.168.242.110
LVS-zlinux03


二、keepalived+LVS

  完整架构需要两台服务器(角色为dir)分别安装keepalived软件,目的是实现高可用,但keepalived本身也有负载均衡的功能,所以本次实验可以只安装一台keepalived;
keepalived内置了ipvsadm的功能,所以不需要再安装ipvsadm包,也不用编写和执行那个lvs_dir的脚本。


1、准备工作

  主keepalived(调度器dir):192.168.242.128
真实服务器rs1:192.168.242.129,网关恢复为之前的原始网关
真实服务器rs2:192.168.242.130,网关恢复为之前的原始网关
VIP:192.168.242.110


2、修改keepalived配置问价

[root@zlinux-01 ~]# cp /etc/keepalived/keepalived.conf /etc/keepalived/keepalived.conf.bak    //备份下配置文件
[root@zlinux-01 ~]# > /etc/keepalived/keepalived.conf     //清空
[root@zlinux-01 ~]# vim /etc/keepalived/keepalived.conf             //添加以下内容
vrrp_instance VI_1 {
#备用服务器上为 BACKUP
state MASTER
interface ens33
virtual_router_id 51
#备用服务器上为90
priority 100
auth_pass zlinux
}   
virtual_ipaddress {
192.168.242.110
}   
}   
virtual_server 192.168.242.110 80 {
#(每隔10秒查询realserver状态)
delay_loop 10
#(lvs 算法)
lb_algo wlc
#(DR模式)
lb_kind DR
#(同一IP的连接60秒内被分配到同一台realserver)
persistence_timeout 0
#(用TCP协议检查realserver状态)
protocol TCP
real_server 192.168.242.129 80 {
#(权重)
weight 100
TCP_CHECK {
#(10秒无响应超时)
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}   
real_server 192.168.242.130 80 {
weight 100
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}  
}  
3、启动keepalived

[root@zlinux-01 ~]# ipvsadm -C           //清空之前的规则,因为之前执行过LVS脚本
[root@zlinux-01 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
[root@zlinux-01 ~]# systemctl start keepalived     //启动
[root@zlinux-01 ~]# ps aux | grep keep
root       3406  0.0  0.0 120720  1404 ?        Ss   18:21   0:00 /usr/sbin/keepalived -D
root       3407  0.0  0.1 127464  3324 ?        S    18:21   0:00 /usr/sbin/keepalived -D
root       3408  0.0  0.1 131656  2848 ?        S    18:21   0:00 /usr/sbin/keepalived -D
root       3414  0.0  0.0 112680   976 pts/0    R+   18:25   0:00 grep --color=auto keep
  还需要在两台rs上执行sh /usr/local/sbin/lvs_dr_rs.sh

4、测试
  检验方法1:
在浏览器输入VIP192.168.242.110,然后故意停掉一台rs的Nginx服务,然后刷新浏览器看结果。
检验方法2:
在调度器执行相关命令,查看连接数:

[root@zlinux-01 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.242.110:80 wlc
-> 192.168.242.129:80           Route   100    0          0         
[root@zlinux-01 ~]# ipvsadm -ln                 //打开另一台Nginx服务,刷新之后,两个连接
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.242.110:80 wlc
-> 192.168.242.129:80           Route   100    0          0         
-> 192.168.242.130:80           Route   100    1          0



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-659139-1-1.html 上篇帖子: Lvs的Fullnat模式部署安装 下篇帖子: lvs 的 hash table-Paniho
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表