设为首页 收藏本站
查看: 1248|回复: 0

[经验分享] [转] 企业级web负载均衡nginx+keepalived完美架构

[复制链接]

尚未签到

发表于 2016-12-26 09:13:08 | 显示全部楼层 |阅读模式
  此系统架构仅映射内网VIP的80及443端口于外网的Juniper防火墙下,其它端口均关闭,内网所有机器均关闭iptables及ipfw防火墙;外网DNS指向即通过Juniper映射出来的外网地址,而此映射的地址对映的其实是内网VIP地址。这里说下端口的问题,有的朋友可能会很疑惑,这样映射端口行不?通过项目实践得知,这样完全是可行的,php-cgi需要的9000端口及MySQL的3306端口均可走内网,完全不影响业务系统的运行。
  另外,我维护的电子商务网站并发大约在1000左右,此时,Nginx+Apache集群运行得非常稳定,尤其是apache,并没有想象中那般弱;其实,在内存足够(>=8G)的情况,测试时不连数据库的话,单台apache+php5能顶得住6000并发,而且相当稳定。在网站升级架构方面,我不赞成全面淘汰生级,锦上添花式的升级会更好。
  
DSC0000.png
  第一部分:Nginx+Keepalived的说明及环境说明
  喜欢看我博客或文章的朋友都知道,我一直主力推崇Nginx+Keepalived作web的负载均衡高可用架构,并积极将其用于项目方案中;Nginx负载均衡作服务器遇到的故障一般有①服务器网线松动等网络故障;②服务器硬件故障从而crash;③nginx服务死掉;遇到前二者情况,keeaplived是能起到HA的作用的;然而遇到③种情况就没有办法了,但可以通过shell监控解决这问题,从而实现真正意义上的负载均衡高可用。此篇的最新更新时间为2010年6月25号,下面将其安装步骤详细说明下:
  centos5.3(64位)、nginx-0.7.51、keepalived-1.1.15   
  主nginx负载均衡器:192.168.0.154  
  辅nginx负载均衡器:192.168.9.155  
  vip:192.168.0.188
  第二部分:分别安装Nginx负载均衡器及相关配置脚本
  先安装Nginx负载均衡器,nginx负载的配置就用一般的模板来配置了
  #添加运行nginx的用户和组www

groupadd www   
useradd -g www www   
wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-7.8.tar.gz  
tar zxvf pcre-7.8.tar.gz  
cd pcre-7.8/  
./configure  
make && make install  
wget http://sysoev.ru/nginx/nginx-0.7.51.tar.gz  
tar zxvf nginx-0.7.51.tar.gz  
cd nginx-0.7.51/  
./configure --user=www --group=www --prefix=/usr/local/webserver/nginx --with-http_stub_status_module --with-http_ssl_module  
make && make install
  配置nginx负载均衡器的配置文件vim /usr/local/nginx/conf/nginx.conf,此篇文章仅仅只是我的某项目的配置文档,纯80转发;如果对nginx配置有https要求的可参考张宴的相关文章。

user www www;  
worker_processes 8;  
pid /usr/local/nginx/logs/nginx.pid;  
worker_rlimit_nofile 65535;  
events  
{  
use epoll;  
worker_connections 65535;  
}  
http{  
include       mime.types;  
default_type application/octet-stream;  
server_names_hash_bucket_size 128;  
client_header_buffer_size 32k;  
large_client_header_buffers 4 32k;  
client_max_body_size 8m;  
sendfile on;  
tcp_nopush     on;  
keepalive_timeout 60;  
tcp_nodelay on;  
fastcgi_connect_timeout 300;  
fastcgi_send_timeout 300;  
fastcgi_read_timeout 300;  
fastcgi_buffer_size 64k;  
fastcgi_buffers 4 64k;  
fastcgi_busy_buffers_size 128k;  
fastcgi_temp_file_write_size 128k;  
gzip on;  
gzip_min_length 1k;  
gzip_buffers     4 16k;  
gzip_http_version 1.0;  
gzip_comp_level 2;  
gzip_types       text/plain application/x-javascript text/css application/xml;  
gzip_vary on;  
upstream backend  
{  
server 192.168.1.102:80;  
server 192.168.1.103:80;  
server 192.168.1.105:80;  
}  
server {  
listen 80;  
server_name www.yuhongchun027.com;  
location / {  
root /var/www ;  
index index.jsp index.htm index.html;  
proxy_redirect off;  
proxy_set_header Host $host;  
proxy_set_header X-Real-IP $remote_addr;  
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;  
proxy_pass http://backend;  
}  
location /nginx {  
access_log on;  
auth_basic "NginxStatus";  
auth_basic_user_file /usr/local/nginx/htpasswd;  
}  
log_format access '$remote_addr - $remote_user [$time_local] "$request" '  
'$status $body_bytes_sent "$http_referer" '  
'"$http_user_agent" $http_x_forwarded_for';  
access_log /var/log/access.log access;  
}  
}
  小节:
  第一部分和第二部分讲的是如何通过安装Nginx来达到负载均衡后端web集群的过程,Nginx能实现自动切换后端有故障的web服务器;但Nginx负载均衡器出了问题怎么办呢,它们之间是如何实现无故障转移的呢?
  第三部分:安装Keepalived,让其分别作web及Nginx的HA
  安装keepalived,并将其做成服务模式,方便以后调试。

wget http://www.keepalived.org/software/keepalived-1.1.15.tar.gz  
#tar zxvf keepalived-1.1.15.tar.gz  
#cd keepalived-1.1.15  
#./configure --prefix=/usr/local/keepalived  
#make   
#make install  
#cp /usr/local/keepalived/sbin/keepalived /usr/sbin/  
#cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/  
#cp /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/  
#mkdir /etc/keepalived  
#cd /etc/keepalived/  
vim keepalived.conf  
! Configuration File for keepalived  
global_defs {  
notification_email {  
yuhongchun027@163.com  
}  
notification_email_from keepalived@chtopnet.com  
smtp_server 127.0.0.1  
smtp_connect_timeout 30  
router_id LVS_DEVEL  
}  
vrrp_instance VI_1 {  
state MASTER  
interface eth0  
virtual_router_id 51  
mcast_src_ip 192.168.0.154    <==主nginx的IP地址  
priority 100  
advert_int 1  
authentication {  
auth_type PASS  
auth_pass chtopnet  
}  
virtual_ipaddress {  
192.168.0.188                      <==vip地址  
}  
}  
#service keepalived start
  我们来看一下日志:

[iyunv@ltos ~]# tail /var/log/messages  
Oct 6 03:25:03 ltos avahi-daemon[2306]: Registering new address record for 192.168.0.188 on eth0.  
Oct 6 03:25:03 ltos avahi-daemon[2306]: Registering new address record for 192.168.0.154 on eth0.  
Oct 6 03:25:03 ltos avahi-daemon[2306]: Registering HINFO record with values 'I686'/'LINUX'.  
Oct 6 03:25:23 ltos avahi-daemon[2306]: Withdrawing address record for fe80::20c:29ff:feb9:eeab on eth0.  
Oct 6 03:25:23 ltos avahi-daemon[2306]: Withdrawing address record for 192.168.0.154 on eth0.  
Oct 6 03:25:23 ltos avahi-daemon[2306]: Host name conflict, retrying with <ltos-31>
  很显然vrrp已经启动,我们还可以通过命令来检查

[iyunv@ltos html]# ip addr  
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue   
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00  
inet 127.0.0.1/8 scope host lo  
inet6 ::1/128 scope host   
valid_lft forever preferred_lft forever  
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast qlen 1000  
link/ether 00:0c:29:ba:9b:e7 brd ff:ff:ff:ff:ff:ff  
inet 192.168.0.154/24 brd 192.168.0.255 scope global eth0  
inet 192.168.0.188/32 scope global eth0  
inet6 fe80::20c:29ff:feba:9be7/64 scope link   
valid_lft forever preferred_lft forever  
3: sit0: <NOARP> mtu 1480 qdisc noop   
link/sit 0.0.0.0 brd 0.0.0.0
  说明vip已经启动,这样主服务器就配置好了,辅机的配置大致一样,除了配置文件有少部分的变化,下面贴出辅机的配置文件:

! Configuration File for keepalived  
global_defs {  
notification_email {  
yuhongchun027@163.com  
}  
notification_email_from keepalived@chtopnet.com  
smtp_server 127.0.0.1  
smtp_connect_timeout 30  
router_id LVS_DEVEL  
}  
vrrp_instance VI_1 {  
state BACKUP  
interface eth0  
virtual_router_id 51  
mcast_src_ip 192.168.0.155              <==辅nginx的IP的地址  
priority 100  
advert_int 1  
authentication {  
auth_type PASS  
auth_pass chtopnet  
}  
virtual_ipaddress {  
192.168.0.188  
}  
}
  第四部分:针对Keepalived的不足,用Nginx_pid.sh来监控nginx进程,实现真正意义上的负载均衡高可用。
  针对Nginx+Keepalived,编写nginx监控脚本nginx_pid.sh,此脚本思路其实也很简单,即放置在后台一直监控nginx进程;如进程消失,尝试重启nginx,如是失败则立即停掉本机的keepalived服务,让另一台负载均衡器接手,此脚本直接从生产环境下载:

vim /root/nginx_pid.sh   
#!/bin/bash  
while  :  
do  
nginxpid=`ps -C nginx --no-header | wc -l`  
if [ $nginxpid -eq 0 ];then  
/usr/local/nginx/sbin/nginx  
sleep 5  
nginxpid=`ps -C nginx --no-header | wc -l`
if [ $nginxpid -eq 0 ];then  
/etc/init.d/keepalived stop  
fi  
fi  
sleep 5   
done
  然后置于后台运行 sh /root/nginx_pid.sh &,这种写法是错误的,这样你用root用户logout后,此进程会消失;正确写法为nohup/bin/bash /root/nginx_pid.sh &,附带下注释:如果你正在运行一个进程,而且你觉得在退出帐户时该进程还不会结束,那么可以使用nohup命令。该命令可以在你退出root帐户之后继续运行相应的进程。nohup就是不挂起的意思( no hang up),哈哈,差点老马失蹄了。
  后记:
  我的线上环境网络非常复杂,这也是LVS+Keepalived失败的原因。目前此套架构在1000并发的电子商务网站非常稳定,带来的直接影响就是nginx_backup一直处于闲置状态。相对于张宴的双机轮询而言,我感觉他的可能更加完美,因为目前我的Nginx仅仅只做了负载均衡器,如果以后有机会我会尝试做负载均衡器/反向代理加速。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-319444-1-1.html 上篇帖子: nginx服务器 解决域名恶意指向 下篇帖子: Nginx upload module (v 2.2.0)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表