设为首页 收藏本站
查看: 1431|回复: 0

[经验分享] centos6.5实现LVS+Keepalived双主热备

[复制链接]

尚未签到

发表于 2018-12-31 12:26:04 | 显示全部楼层 |阅读模式
拓扑
  


1、   基本配置
根据拓扑配置IP
2、   调度器配置
-安装ipvsadm,并启用ip_vs模块
[root@localhost ~]# yum -y install ipvsadm
[root@localhost ~]# modprobe ip_vs
[root@localhost ~]# echo "modproce ip_vs" >>/etc/rc.local  

-修改内核参数
[root@localhost ~]# sysctl –p
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.eth0.send_redirects = 0  

-安装keepalived,并修改配置文件
  --安装
[root@localhost~]# cd /usr/src/
[root@localhost src]# tar zxfkeepalived-1.2.13.tar.gz
[root@localhost src]# cd keepalived-1.2.13
[root@localhost keepalived-1.2.13]#./configure --prefix=/--with-kernel-dir=/usr/src/kernels/2.6.32-431.el6.x86_64/ && make&& make install  

--修改配置文件-全局配置
global_defs {
  notification_email {
    acassen@firewall.loc
    failover@firewall.loc
    sysadmin@firewall.loc
  }
  notification_email_from Alexandre.Cassen@firewall.loc
  smtp_server 192.168.200.1
  smtp_connect_timeout 30
  router_id LVS_DEVEL_1     #调度器名称
}  

--修改配置文件-热备配置
vrrp_instance VI_1 {     #热备组1
   state MASTER       #热备状态
   interface eth0
   virtual_router_id 51
   priority 100           #优先级
   advert_int 1
   authentication {
       auth_type PASS
       auth_pass 1111
   }
   virtual_ipaddress {        
       192.168.1.11                 #群集VIP地址
   }
}
vrrp_instance VI_2 {             #热备组2
   state BACKUP
   interface eth0
   virtual_router_id 52
   priority 90
   advert_int 1
   authentication {
       auth_type PASS
       auth_pass 1111
    }
   virtual_ipaddress {
       192.168.1.22
   }
}  

--修改配置文件-web服务器配置
irtual_server 192.168.1.11 80 {     #虚拟服务器地址(VIP),端口’
   delay_loop 6           #健康检查时间间隔(s)
   lb_algo rr            #调度算法-轮询
   lb_kind DR            #集群工作模式
!  persistence_timeout 50      #连接保持时间(s),去掉!启用
   protocol TCP           #应用服务采用的是TCP协议
   real_server 192.168.1.2 80 {        #第一个web节点的地址,端口
       weight 1              #节点的权重
       TCP_CHECK {            #健康检查方式
            connect_timeout 3     #连接超时
            nb_get_retry 3      #重试次数
            delay_before_retry 3   #重试间隔
       }
   }
   real_server 192.168.1.3 80 {        #第二个web节点的地址,端口
       weight 1
       TCP_CHECK {
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
       }
   }
}
virtual_server 192.168.1.22 80 {
   delay_loop 6
   lb_algo rr
   lb_kind DR
!  persistence_timeout 50
   protocol TCP
   real_server 192.168.1.2 80 {
       weight 1
       TCP_CHECK {
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
       }
   }
   real_server 192.168.1.3 80 {
       weight 1
       TCP_CHECK {
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
       }
   }
}  

--重启服务
service keepalived restart  

--同理配置另一调度器
3、   节点服务器配置
-修改内核参数
[root@localhost network-scripts]# sysctl–p
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_announce = 2  

-配置lo:0,lo:1虚接口
[root@localhost ~]# cat/etc/sysconfig/network-scripts/ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.1.11
NETMASK=255.255.255.255
[root@localhost ~]# cat/etc/sysconfig/network-scripts/ifcfg-lo:1
DEVICE=lo:1
ONBOOT=yes
IPADDR=192.168.1.22
NETMASK=255.255.255.255  

-添加本地路由
[root@localhost ~]# route add -host192.168.1.11 dev lo:0
[root@localhost ~]# route add -host192.168.1.22 dev lo:1
[root@localhost ~]# echo "route add-host 192.168.1.11 dev lo:0" >> /etc/rc.local
[root@localhost ~]# echo "route add-host 192.168.1.22 dev lo:1" >> /etc/rc.local  

-启动web服务
4、   NFS配置
[root@localhost ~]# cat /etc/exports
/var/www/html     192.168.2.0/24(rw,sync,no_root_squash)
[root@localhost ~]# service rpcbindrestart
停止 rpcbind:                                             [确定]
正在启动 rpcbind:                                         [确定]
[root@localhost ~]# service nfs restart
关闭 NFS 守护进程:                                        [失败]
关闭 NFS mountd:                                          [失败]
关闭 NFS quotas:                                          [失败]
Shutting down RPC idmapd:                                  [失败]
启动 NFS 服务:                                            [确定]
关掉 NFS 配额:                                            [确定]
启动 NFS mountd:                                          [确定]
启动 NFS 守护进程:                                        [确定]
正在启动 RPC idmapd:                                     [确定]

[root@localhost ~]# showmount -e192.168.2.1
Export list for 192.168.2.1:
/var/www/html 192.168.2.0/24
[root@localhost ~]# mount192.168.2.1:/var/www/html/ /var/www/html/  

5、   内部服务器发布—NAT
  服务配置防火墙代替路由器测试
  Eth0配置两个ip
[root@localhost network-scripts]# catifcfg-eth0
DEVICE=eth0
HWADDR=00:0C:29:D5:AD:1B
TYPE=Ethernet
UUID=d3db1bd9-b0f5-4cc2-a5bb-3f0c28430ee0
ONBOOT=yes
IPADDR0=200.0.0.11
NETMASK=255.255.255.0
IPADDR1=200.0.0.22
NETMASK=255.255.255.0  

  --NAT
[root@localhost ~]# iptables -t nat -APREROUTING -i eth0 -d 200.0.0.11 -p tcp --dport 80 -j DNAT --to 192.168.1.11
[root@localhost ~]# iptables -t nat -APREROUTING -i eth0 -d 200.0.0.22 -p tcp --dport 80 -j DNAT --to 192.168.1.22  

附:DNS配置
[root@j1 ~]# cat /var/named/abc.com
$TTL 1D
@    INSOA   @ rname.invalid. (
                                   0     ; serial
                                   1D   ; refresh
                                   1H   ; retry
                                   1W  ; expire
                                   3H) ; minimum
       in    ns    dns
dns      in    a     200.0.0.2
www      in    a     200.0.0.11
       in    a     200.0.0.22  

  --启动nfs前
  



    --启动nfs后

  --调度器1

  --调度器2
  
  

  





运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-657954-1-1.html 上篇帖子: keepalived实现WEB服务集群的高可用负载均衡 下篇帖子: Keepalived高可用集群来实现web服务器负载均衡集群
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表