Haproxy+keepalived实现双主负载均衡高可用集群
项目说明1、 使用Haproxy负载均衡用户请求到后端web服务器,并且实现健康状态检查
2、 使用keepalived高可用Haproxy,避免LVS单点故障
3、 集群中分别在HK-01和HK-02运行一个VIP地址,实现Haproxy双主
4、 用户通过DNS轮训的方式实现访问集群的负载均衡(不演示)
实验拓扑
http://s3.运维网.com/wyfs02/M01/6E/B0/wKioL1WDA3bCWYnIAAJIaJPi-hA560.jpg
环境介绍:
IP地址
功能描述
HK-01
172.16.4.100
调度用户请求到后端web服务器,并且和HK-02互为备份
HK-02
172.16.4.101
调度用户请求到后端web服务器,并且和HK-01互为备份
WEB-01
172.16.4.102
提供web服务
WEB-02
172.16.4.103
提供web服务
DNS
172.16.4.10
实现DNS轮训解析用户请求域名地址
VIP1
172.16.4.1
用户访问集群的入口地址,可能在HK-01,也可能在HK-02
VIP2
172.16.4.2
用户访问集群的入口地址,可能在HK-01,也可能在HK-02
配置示例
后端WEB服务器配置
Web服务器的配置极其简单,只需要提供测试页面启动web服务即可,配置如下:
Web-01配置
# echo "web-01" >/var/www/html/index.html
# service httpd start
Web-02配置
# echo "web-02" >/var/www/html/index.html
# service httpd start Haproxy访问后端web服务器,验证web服务提供成功
# curl 172.16.4.102
web-01
# curl 172.16.4.103
web-02 出现设置的页面,就说明web服务是正常
Haproxy+keepalived配置
两个HK节点都安装haproxy和keepalived
# yum -y install haproxy
# yum -y install haproxy
# yum -y install keepalived
# yum -y install keepalived修改内核参数设置,设置haproxy启动的时候不管有没有vip地址都可以启动
# echo"net.ipv4.ip_nonlocal_bind = 1" >> /etc/sysctl.conf
# sysctl –p
# echo "net.ipv4.ip_nonlocal_bind= 1" >> /etc/sysctl.conf
# sysctl -p 此选项为集群中关键选项,不然VIP地址没有在Haproxy服务器的时候,服务器无法正常启动
设置haproxy
Haproxy想实现双主就需要先配置双实例,分别监听两个VIP地址,并且两个实例都得将用户的请求负载均衡转发给后端web服务器,使用户不论访问那个节点都可以实现负载均衡。
两个haproxy节点的配置文件一模一样,所以只放出一个
# vim /etc/haproxy/haproxy.cfg
global
log 127.0.0.1 local2
chroot /var/lib/haproxy
pidfile /var/run/haproxy.pid
maxconn 4000
user haproxy
group haproxy
daemon
statssocket /var/lib/haproxy/stats
defaults
mode http
log global
option httplog
option dontlognull
optionhttp-server-close
optionforwardfor except 127.0.0.0/8
option redispatch
retries 3
timeouthttp-request 10s
timeoutqueue 1m
timeoutconnect 10s
timeoutclient 1m
timeoutserver 1m
timeouthttp-keep-alive 10s
timeoutcheck 10s
maxconn 3000
stats enable #启用Haproxy的状态页面
statsuri /admin?stats #设置Haproxy状态页面的访问URL
statsauth proxy:proxy #设置访问Haproxy状态页面的用户名和密码
listen www1 #定义一个实例
bind172.16.4.1:80 #监听地址为VIP地址
mode tcp #设置转发模式为TCP
option forwardfor #允许在发往服务器的请求首部中插入“X-Forwarded-For”首部
server www01172.16.4.102:80check#定义后端服务器的,并启用健康检查
server www02172.16.4.103:80check
listen www2 #定义第二个实例
bind172.16.4.2:80 #除了绑定的VIP地址和第一个实例不同之外,其他均相同
mode tcp
option forwardfor
server www01172.16.4.102:80check
server www01172.16.4.103:80checkHaproxy的配置就是安装,修改配置文件,设置完成之后只要启动Haproxy就可以正常提供服务了
keepalived设置
HK-01配置
# vim /etc/keepalived/keepalived.conf
global_defs {
router_idLVS_DEVEL
}
vrrp_script chk_mt_down {
script"[[ -f /etc/keepalived/down ]] && exit 1 || exit 0"#定义一个脚本,判断down文件是否存在,存在就退出执行,不存在继续执行
interval 1 #1秒检测一次
weight -5 #优先级减五
}
vrrp_instance VI_1 { #定义VRRP热备实例
state MASTER #MASTER表示主节点
interfaceeth0 #承载VIP地址的物理接口
virtual_router_id 51 #虚拟路由器的ID号
priority100 #优先级,数值越高优先级越大
advert_int 1 #通知间隔秒数(心跳频率)
authentication { #认证信息配置
auth_type PASS #设置认证类型为密码
auth_pass asdfgh#设置认证的密码
}
virtual_ipaddress { #指定漂移地址
172.16.4.1/32 brd 172.16.4.1 dev eth0 label eth0:0
}
track_script {
chk_mt_down #调用上面定义的脚本,如果这里没有调用,那么上面定义的脚本是无法生效的
}
}
vrrp_instance VI_2 { #定义实例为HK-02的备份节点
stateBACKUP #BACKUP表示备份节点
interfaceeth0
virtual_router_id 52
priority99 #优先级,低于主服务器
advert_int 1
authentication {
auth_type PASS
auth_pass qwerty
}
virtual_ipaddress {
172.16.4.2
}
track_script {
chk_mt_down
}
} HK-02配置,配置和HK-01基本一致,只不过主备设置的位置不同
# vim /etc/keepalived/keepalived.conf
global_defs {
router_idLVS_DEVEL
}
vrrp_script chk_mt_down {
script"[[ -f /etc/keepalived/down ]] && exit 1 || exit 0"
interval 1
weight -5
}
vrrp_instance VI_1 {
state BACKUP
interfaceeth 0
virtual_router_id 51
priority 99
advert_int 1
authentication {
auth_type PASS
auth_pass asdfgh
}
virtual_ipaddress {
172.16.4.1/32 brd 172.16.4.1 dev eth0 label eth0:0
}
track_script {
chk_mt_down
}
}
vrrp_instance VI_2 {
stateMASTER
interfaceeth0
virtual_router_id 52
priority100
advert_int 1
authentication {
auth_type PASS
auth_pass qwerty
}
virtual_ipaddress {
172.16.4.2
}
track_script {
chk_mt_down
}
}
设置完成之后两个节点分别启动haproxy和keepalived服务,集群就配置完成了
# service haproxy start
# service keepalived start
# service haproxy start
# service keepalived start验证
访问状态页面,www1,和www2示例都显示正常
http://s3.运维网.com/wyfs02/M01/6E/B4/wKiom1WDAcbDYM-UAAeWkkOZMgE442.jpg
VIP地址也都分别启动到了两个节点实现了双主
# ip addr show dev eth0
2: eth0: mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:22:c5:c2 brd ff:ff:ff:ff:ff:ff
inet172.16.4.100/16 brd 172.16.255.255 scope global eth0
inet172.16.4.1/32 brd 172.16.4.1 scope global eth0:0 #VIP地址正常启动
inet6fe80::20c:29ff:fe22:c5c2/64 scope link
valid_lft forever preferred_lft forever
# ip addr show dev eth0
2: eth0: mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:f1:dd:b2 brd ff:ff:ff:ff:ff:ff
inet172.16.4.101/16 brd 172.16.255.255 scope global eth0
inet172.16.4.2/32 scope global eth0 #VIP地址正常启动
inet6fe80::20c:29ff:fef1:ddb2/64 scope link
valid_lft forever preferred_lft forever负载均衡测试
分别访问两个vip地址均实现了负载均衡的效果
# curl 172.16.4.1
web-02
# curl 172.16.4.1
web-01
# curl 172.16.4.2
web-01
# curl 172.16.4.2
web-02高可用验证
手动关闭其中HK-02,验证vip地址是否会自动漂移到HK-01服务器
# touch /etc/keepalived/down 两个vip地址均正常漂移到HK-02
# ip addr show dev eth0
2: eth0: mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:22:c5:c2 brd ff:ff:ff:ff:ff:ff
inet172.16.4.100/16 brd 172.16.255.255 scope global eth0
inet172.16.4.1/32 brd 172.16.4.1 scope global eth0:0
inet172.16.4.2/32 scope global eth0 #HK-02的VIP地址已经漂移过来了
inet6fe80::20c:29ff:fe22:c5c2/64 scope link
valid_lft forever preferred_lft forever健康状态检测验证
手动关闭web-02,查看是否会自动下线web-02
# service httpd stop 查看web状态页面,WEB-02已经自动下线了
http://s3.运维网.com/wyfs02/M00/6E/B4/wKiom1WDAcnxYr_qAAebly3gXnk395.jpg
访问验证,调度请求不会转发到web-02
# curl 172.16.4.1
web-01
# curl 172.16.4.1
web-01
# curl 172.16.4.2
web-01
# curl 172.16.4.2
web-01
页:
[1]