uf123 发表于 2019-1-6 06:08:53

一步步教你为LVS中的Director实现高可用集群

  Director对于LVS来说,是重中之重,所有对服务的请求都要经过它 向他身后提供服务的集群进行转发,但它也是LVS高负载均衡集群的不稳定因素,如果Director主机宕机,后方的服务集群也就不能够提供服务了,这是坚决不允许出现的情况,因此我们可以通过为Director提供高可用集群服务来保证当一个Director宕机之后,还有其它的Director可以替代提供服务,知道宕机的Director重新恢复。   
      我们使用高可用集群解决方案之一 ——Heartbeat来实现这个目的   
      我们先来考虑一个问题,当Director的主节点宕机之后,必须要将资源转移到备节点上,否则备节点也只是摆设,并不能替代宕机的主节点来完成Director的工作。关键就在这个资源转移的方法上。   
         Heartbeat为LVS中的Director实现高可用集群量身定做了套解决方案,我们只需要在Heartbeat的几个配置文件中进行简单的配置,我们所需要的目的都统统能够实现,不仅如此,它自身还具备了帮我们检测后方服务集群中主机服务状态的功能,简直让我们喜出望外,下面我们就通过一个简单的实验来阐明这个观点。
         实验拓扑如图:   
         http://aceruser.blog.运维网.com/attachment/201109/10/2772529_1315655758B2yN.jpg   
      我们要实现的LVS的类型为DR,即直接路由   
      route为连接外网的路由器,switch为内网中的交换机,RS1、RS2为提供web服务的集群,直接和交换机相连,ND1、ND2为LVS中的两个Director节点,我们要对这连个Director节点实现高可用集群服务,两个Director和交换机直接相连之外,两个节点之间还需要直接连接进行心跳等基本信息的传递。   
      每个有标记的块状物为网卡,上面是编号,在连个ND节点之间有一个被称为资源一部分的VIP在哪个节点上是不固定的,外网的用户也是通过这个VIP来访问我们的web服务的。
  开始配置:设定VIP为192.168.0.85/24
  一、我们先来RS1和RS2让其称为一个web服务的集群   
      
   1、对RS1的配置
  (1)、对realserver配置内核参数:   
                先来解释一下修改内核参数的原因,因为在DR模型中RS1、RS2在lo:0上都配置了VIP的地址,是为了在数据包响应用户的时候源地址为用户访问的VIP地址,但是在数据包进入路由器之后,在我们的内网中有多个VIP地址,路由器将不能将其转发到应该得到数据包的ND上,为了避免这种情况出现,我们就修改内核参数来让RS上的VIP网卡不对路由器的产生响应即可。      
               echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore   
               echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore   
               echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce   
               echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce
  (2)、为RS1配置虚拟的VIP地址(是为了实现在数据包返回用户的时候源地址为用户访问的地址)   
               ifconfig lo:0 192.168.0.85 broadcast 192.168.0.85 netmask 255.255.255.255 up   
                   为RS1的eth0网卡添加地址   
               ifconfig eth0 192.168.0.206/24
  (3)、给realserver主机添加路由信息   
                route add -host 192.168.0.85 dev lo:0设定相应的数据包的源地址都为这个地址
  (4)、为RS1安装web服务   
                yum install php php-mbstring mysql mysql-server httpd php-mysql
      (5)、为实现结果为web指定一个有其代号的网页,并写一个有ok的测试网页   
                echo RS1 > /var/www/html/index.html   
                echo ok > /var/www/html/.ok.html
      (6)、测试httpd服务能否正常运行,测试结果如下:

http://aceruser.blog.运维网.com/attachment/201109/10/2772529_1315655775K6MT.jpg

      2、对RS2进行配置   
          (1)、RS2的eth0端口配置   
                   ifconfig eth0 192.168.0.207/24   
          (2)、写入网页   
                   echo RS2 > /var/www/html/index.html   
         其他配置和RS1完全一样,不再演示:   
         对RS2的web服务进行验证,结果如下:   
            http://aceruser.blog.运维网.com/attachment/201109/10/2772529_13156557809tJC.jpg   

  二、对两个Director节点进行配置:
  配置两个Director节点,ND1为node1,ND2为node2
  1、给node1配置地址   
       ifconfig eth0 192.168.0.202/24
       ifconfig eth1 1.1.1.1   
         给noid2配置地址   
       ifconfig eth0 192.168.0.204/24
       ifconfig eth1 1.1.1.2
  2、配置本地主机名称解析
  在node1上   
       vim /etc/hosts 添加如下内容   
      192.168.0.202 node1.a.org   
      192.168.0.204 node2.a.org
  对node1、node2的主机名进行相应的修改   
       在node1上
       hostname node1.a.org   
       在node2上
       hostname node2.a.org
  3、只有我们要多次在连个节点间拷贝文件,为了省去繁琐的密码输入,我们在两个节点上进行如下配置
  在node1上   
       ssh-keygen -t rsa   
       ssh-copy-id -i .ssh/id_rsa.pub root@192.168.0.204   
       在node2上
       ssh-keygen -t rsa   
       ssh-copy-id -i .ssh/id_rsa.pub root@192.168.0.202   
       从此我们在两个节点上拷贝文件就不需要输入密码了
  4、开始安装集群服务
  (1)、下载安装包   
      heartbeat-ldirectord-2.1.4-9.el5.i386.rpm   
      perl-MailTools-1.77-1.el5.noarch.rpm   
      heartbeat-2.1.4-9.el5.i386.rpm   
      heartbeat-pils-2.1.4-10.el5.i386.rpm   
      heartbeat-devel-2.1.4-9.el5.i386.rpm   
      heartbeat-stonith-2.1.4-10.el5.i386.rpm   
      heartbeat-gui-2.1.4-9.el5.i386.rpm
      libnet-1.1.4-3.el5.i386.rpm   
      创建一个目录将所用的安装包都放在这个目录内   
       mkdir node
      将软件包移动进目录的命令我就不再说明了
  (2)、安装 这些软件包,因为他们之间有依赖关系,所以使用yum安装
  cd node   
      yum localinstall * --nogpgcheck –y
  前两步需要在两个节点上都进行同样的操作
  (3)、将heartbeat的配置文件移动到/etc/下   
      cd /usr/share/doc/hearbeat-2.1.4   
      cp ha.cfauthkeys /etc/ha.d   
      cd /usr/share/doc/heartbeat-ldirectord-2.1.4   
      cp   ldirectord.cf/etc/ha.d/
  (4)、编辑配置文件/etc/ha.d/ha.cf
  vim /etc/ha.d/ha.cf 进行如下修改
      打开日志 logfile /var/log/ha-log   
      打开 udpport 694 两节点用此端口发送心跳信息   
      添加 bcast eth1 发送心跳信息的网卡   
      添加定义节点 node node1.a.org   
       node node2.a.org
  (5)、编辑配置文件/etc/ha.d/authkeys   
      vim /etc/ha.d/authkeys 添加如下内容   
      auth 2   
      2 sha1 kfhslkdhfsk(md5加密后的字符串,想要得到这个字符串运行如下命令,在将结果粘贴即可
       dd if=/dev/urandom bs=512 count=1 | md5sum)
  将此文件的权限改为400   
       chmod 400 authkeys
  (6)、编辑配置文件/etc/ha.d/ldirectord.cf   
      修改结果如下:   
      checktimeout=3   对后端的RS进行服务状态检测的超时时间   
      checkinterval=1    每次一秒检测一次   
      autoreload=yes   
      logfile="/var/log/ldirectord.log"开启错误日志   
      quiescent=yes
  virtual=192.168.0.85:80   指定VIP地址   
      real=192.168.206:80 gate 200   指定RS1的IP、服务端口、lvs的类型、权重(实际的大小为*100)   
      real=192.168.207:80 gate 600   
      fallback=127.0.0.1:80 gate   
      service=http      提供的服务   
      request=".ok.html"    对RS进行状态检测是检测的网页   
      receive="ok"               在网页中搜索的关键字,只要找到这个关键字就认为是服务正常   
      scheduler=rr   LVS使用的调度算法   
      protocol=tcp    使用的协议   
      checktype=negotiate    检测的类型   
      checkport=80    检测的端口   

  (7)、将我们配置的这三个文件拷贝到node2上
  cd /etc/ha.d   
      scp ha.cf authkeys ldirectord node2.a.org:/etc/ha.d
  (8)、启动heartbeat   
      在哪个节点上启动第一个该服务,以后所有的这个服务必须在这个节点上启动   
      我们就在node1上启动heartbeat服务   
         /etc/init.d/heartbeat start
      在node1上启动node2的heartbeat服务   
      ssh node2 --‘/etc/init.d/heartbeat start’   
    (9)、在每个节点上都启动ldirectord服务   
         service ldirectordstart
  查看我们的Director高可用集群是否正常启动:   
      执行命令:   
      crm_mon   
      可能刚开始看到的显示为:   
      http://aceruser.blog.运维网.com/attachment/201109/10/2772529_1315655787J0tv.jpg   
       表示没有启动,但是别急多等一会,比较慢,我们过一会再看,如果看到显示如下表示成功:   
      http://aceruser.blog.运维网.com/attachment/201109/10/2772529_131565579890w6.jpg   
      图片底部的信息表示Director的主节点为ND1   
      
      接下来我们在浏览器中输入192.168.0.85进行测试,看能够看到网页,如果看到表示LVS的服务正常:   
      http://aceruser.blog.运维网.com/attachment/201109/10/2772529_1315655799lDSV.jpg   

  我们将主节点的服务关闭,看资源是否成功流转到ND2上   
      在node1上执行/etc/init.d/heartbeat stop
  至执行成功之后到node2上,在此查看资源状态   
      http://aceruser.blog.运维网.com/attachment/201109/10/2772529_1315655803hpD1.jpg   
      结果显示,node1已经宕机,此时node2已经称为主节点
  我们再次验证,Director高性能集群能否提供LVS功能:   
      继续在浏览器中数据192.168.0.85   
         http://aceruser.blog.运维网.com/attachment/201109/10/2772529_1315655809BVtB.jpg   
         结果显示,RS集群还能够提供web服务,表示Director集群依然能够正常工作



页: [1]
查看完整版本: 一步步教你为LVS中的Director实现高可用集群