设为首页 收藏本站
查看: 2007|回复: 0

[经验分享] 六十三、LVS DR模式搭建、Keepalived+LVS DR

[复制链接]

尚未签到

发表于 2018-12-31 09:51:08 | 显示全部楼层 |阅读模式
  六十三、LVS DR模式搭建、Keepalived+LVS DR

  一、LVS DR模式搭建
  准备工作:
   三台机器
  只需要一个网卡,一个IP
   分发器,也叫调度器(简写为dir)
   93.130
   rs1
   93.131     网关改回93.2
   rs2
  93.132      网关改回93.2
   vip
  93.200
   dir上编写脚本 vim /usr/local/sbin/lvs_dr.sh //内容如下
  #! /bin/bash
  echo 1 > /proc/sys/net/ipv4/ip_forward
  ipv=/usr/sbin/ipvsadm
  vip=192.168.93.200
  rs1=192.168.93.131
  rs2=192.168.93.132
  #注意这里的网卡名字
  ifdown ens33
  ifup ens33           //这里ifdown再ifup,再执行这个脚本时,就不会重复设置这个IP了。
  ifconfig ens33:2 $vip broadcast $vip netmask 255.255.255.255 up //绑定VIP的;ifconfig这个命令可以给一个网卡设置个虚拟网卡,虚拟网卡叫ens33:2
  route add -host $vip dev ens33:2     //添加网关
  $ipv -C
  $ipv -A -t $vip:80 -s rr
  $ipv -a -t $vip:80 -r $rs1:80 -g -w 1
  $ipv -a -t $vip:80 -r $rs2:80 -g -w 1
  解析:
  -C:清空规则
  -g:DR模式
   两台rs上也编写脚本 vim /usr/local/sbin/lvs_rs.sh//内容如下
  #/bin/bash
  vip=192.168.93.200
  ifdown lo
  ifup lo
  #下面这条是把vip绑定在lo上,是为了实现rs直接把结果返回给客户端
  ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
  route add -host $vip lo:0
  #以下操作为更改arp内核参数,目的是为了让rs顺利发送mac地址给客户端
  #参考文档www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.html
  echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
  echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
  echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
  echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
   分别在dir上和两个rs上执行这些脚本
  route -n可以看到有个93.200
  rs上ip add看一下lo是不是也绑定了这个93.200
  dir上ip add看到ens33有个93.200
   测试
  用火狐浏览器访问192.168.93.200,然后重复的ctrl+F5可以看到效果。一直在rs1和rs2上切换访问着。
  二、Keepalived+LVS DR
   完整架构需要两台服务器(角色为dir)分别安装keepalived软件。
  目的是实现高可用,但keepalived本身也有负载均衡的功能,所以本次实验可以只安装一台keepalived。
   keepalived内置了ipvsadm的功能,所以不需要再安装ipvsadm包,也不用编写和执行那个lvs_dir的脚本
  LVS并不聪明,即使后端的rs宕机了,它还会把请求转发过去,然后访问的时候就会显示无法连接。
  Keepalived就是为了解决这个问题,当请求分发过来时,它可以检测到后端的rs宕机了,就不再把请求分发给它了。
   三台机器分别为:
   dir(安装keepalived)93.130
   rs1 93.131
   rs2 93.132
   vip 93.200
   dir上编辑keepalived配置文件
  # vim /etc/keepalived/keepalived.conf
  vrrp_instance VI_1 {
  #备用服务器上为 BACKUP
  state MASTER
  #绑定vip的网卡为ens33,你的网卡和阿铭的可能不一样,这里需要你改一下
  interface ens33
  virtual_router_id 51
  #备用服务器上为90
  priority 100
  advert_int 1
  authentication {
  auth_type PASS
  auth_pass aminglinux
  }
  virtual_ipaddress {
  192.168.93.200
  }
  }
  virtual_server 192.168.93.200 80 {
  #(每隔10秒查询realserver状态,检查rs是否正常,这里控制频率)
  delay_loop 10
  #(lvs 算法)
  lb_algo wlc
  #(DR模式,如果是NAT就写NAT)
  lb_kind DR
  #(同一IP的连接60秒内被分配到同一台realserver)
  persistence_timeout 0
  #(用TCP协议检查realserver状态)
  protocol TCP
  real_server 192.168.93.131 80 {
  #(weight权重)
  weight 100
  TCP_CHECK {
  #(10秒无响应超时)
  connect_timeout 10
  nb_get_retry 3
  delay_before_retry 3
  connect_port 80
  }
  }
  real_server 192.168.93.132 80 {
  weight 100
  TCP_CHECK {
  connect_timeout 10
  nb_get_retry 3
  delay_before_retry 3
  connect_port 80
  }
  }
  }
  # systemctl start keepalived
  # ipvsadm -ln
  IP Virtual Server version 1.2.1 (size=4096)
  Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
  TCP  192.168.93.200:80 wlc
  -> 192.168.93.131:80            Route   100    0          0
  -> 192.168.93.132:80            Route   100    0          0
  可以看到有两条规则,如果没有,在dir上把Keepalived停掉,再到rs上把nginx重启一下,再回dir上启动Keepalived就可以看到了,这里如果看不到了,说明Keepalived把宕机的rs剔除了
   需要更改里面的ip信息
   执行ipvsadm -C  把之前的ipvsadm规则清空掉
   systemctl restart network 可以把之前的vip清空掉
   两台rs上,依然要执行/usr/local/sbin/lvs_rs.sh脚本
   keepalived有一个比较好的功能,可以在一台rs宕机时,不再把请求转发过去
   测试
  扩展
  haproxy+keepalived http://blog.csdn.net/xrt95050/article/details/40926255
  nginx、lvs、haproxy比较 http://www.csdn.net/article/2014-07-24/2820837
  keepalived中自定义脚本 vrrp_script http://my.oschina.net/hncscwc/blog/158746
  lvs dr模式只使用一个公网ip的实现方法 http://storysky.blog.运维网.com/628458/338726




运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-657865-1-1.html 上篇帖子: LVS/NAT双主 + keepalived负载均衡实现 下篇帖子: keepalived主备简单使用以及简单监控脚本编辑
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表