LVS结合keepalived
前面的lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把nginx停掉,那么 director server照样会把请求转发过去,这样就造成了某些请求不正常。所以需要有一种机制用来检测 real server 的状态,这就是 keepalived。它的作用除了可以检测 RS 状态外,还可以检测备用 director 的状态,也就是说 keepalived 可以实现 ha 集群的功能,当然了也需要一台备用 director server。1、前提准备
主dir: eth0 192.168.1.180
备dir1: eth0 192.168.1.183
rs1: eth0 192.168.1.182
rs2: eth0 192.168.0.181
vip: 192.168.1.190
因为前面我们已经配置过一些操作,而下面我们使用 keepaliave 操作会和之前的操作是有些冲突,所以先做一些预先处理。 在主dr上执行:
# ipvsadm -C
# ifconfig eth0:0 down
2、安装
在主dr和备dir1上都安装keepalived
# yum install -y keepalived
同时也都安装ipvsadm,因为主dir之前安装配置过,故只需配置备dir1。
# yum install -y ipvsadm
3、配置
在主dr上配置
# echo "" > /etc/keepalived/keepalived.conf //先清空默认配置
# vim /etc/keepalived/keepalived.conf //再添加如下内容
vrrp_instance VI_1 {
state MASTER #如果是备用服务器,这里改为 BACKUP
interface eth0
virtual_router_id 51
priority 100 #如果是备用服务器,这里改为 90(少于100即可)
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.190 #vip
}
}
virtual_server 192.168.1.190 80 {
delay_loop 6 #(每隔 10 秒查询 realserver 状态)
lb_algo wlc #(lvs 算法)
lb_kind DR #(Direct Route)
persistence_timeout 60 #(同一 IP 的连接 60 秒内被分配到同一台realserver)
protocol TCP #(用 TCP 协议检查 realserver 状态)
real_server 192.168.0.182 80 {
weight 100
TCP_CHECK {
connect_timeout 10 #(10 秒无响应超时)
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
real_server 192.168.0.181 80 {
weight 100
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
}
在备dr1上配置
拷贝主上文件到从上
# scp 192.168.1.180:/etc/keepalived/keepalived.conf /etc/keepalived/keepalived.conf
# vim /etc/keepalived/keepalived.conf //找到标红两处,修改为以下参数
state BACKUP
priority 90
4、查看
分别在主备上都查看
ipvsadm -ln //没有ipvsadm规则
ip addr //没有虚拟ip:eth0:0的。eth0只有一个ip。
5、开启端口转发(主从都要做)
# echo 1 > /proc/sys/net/ipv4/ip_forward
然后在两个 rs 上都执行/usr/local/sbin/lvs_rs.sh 脚本
# bash /usr/local/sbin/lvs_rs.sh
6、启动 keepalived 服务(先主后从)
# /etc/init.d/keepalived start
7、再查看
接着都在主备上查看
ipvsadm -ln //可看到已经产生ipvsadm规则
ip addr //产生虚拟ip:eth0:0
8、测试
用第五台机器curl测试192.168.1.190,可以发现是平均请求rs1和rs2的nginx主页面。
页:
[1]