|
介绍:
Nginx是一款高性能的HTTP和反向代理服务器,能够选择高效的epoll(linux2.6内核)、kqueue(freebsd)、eventport(solaris10)作为网络I/O模型,能够支持高达50000个并发连接数的响应,而内存、CPU等系统资源消耗却非常低、运行非常稳定。
选择的理由:
* 支持高并发连接:nginx使用高效的多路复用模型(epoll/linux, kqueue/freebsd, eventport/solaris)
* 内存消耗少:在服务器3W并发连接下,开启10个Nginx进程消耗150MB内存(15MB*10)
* 成本低廉:购买F5 BIG-IP、NetScaler等负载均衡交换机需要几十万RMB,而开源Nginx替代这些商业设备。
* 其他理由:网络配置简单;支持rewrite重写规则,能够根据域名、URL的不同、将HTTP请求分到不同的后端服务器群组;内置的健康检查功能;节省带宽,支持GZIP压缩,可以添加浏览器本地缓存的Header头;支持热部署,能够在不间断服务的情况下、对软件版本进行升级
2. 环境
[root@nginx ~]$ uname -r
2.6.32-642.13.1.el6.x86_64
[root@nginx ~]$ uname -m
x86_64
[root@nginx ~]$ cat /etc/redhat-release
CentOS release 6.8 (Final)
3. 优化
* nginx配置文件优化
- nginx进程数,建议按照cpu数目来指定,一般为它的倍数:
- worker_processes 4;
- 为每个进程绑定cpu:
- worker_cpu_affinity 00000001 00000010 00000100 00001000;
- nginx进程打开的最多文件描述符数目:
- worker_rlimit_nofile 102400;
- 使用epoll的I/O复用模型:
- use epoll;
- 每个进程允许的最多连接数:
- worker_connections 102400;
- keepalive超时时间:
- keepalive_timeout 60;
- 客户端请求头部的缓冲区大小: (分页大小可以用命令getconf PAGESIZE取得):
- client_header_buffer_size 4k;
- 打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive是指经过多长时间文件没被请求后删除缓存:
- open_file_cache max=102400 inactive=20s;
- 指定多长时间检查一次缓存的有效信息:
- open_file_cache_valid 30s;
- 设置最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的:
- open_file_cache_min_uses 1;
1.基本的安全优化:
1.1. 隐藏版本
1.2. 隐藏nginx的名称
1.3. 更改nginx服务的默认用户
1.4. 使用普通用户启动nginx
2. 根据参数优化nginx服务性能
2.1. 优化nginx进程的个数
一般调整为cpu的个数
查看系统cup的个数:
查看LInux可查看CPU个数及总核数
grep processor /proc/cpuinfo|wc -l
查看CPU总颗数
grep 'physical id' /proc/cpuinfo|sort|uniq|wc -l
通过执行top命令,然后按数字1,即可显示所有的CPU核数
2.2. 优化绑定不同的nginx进程到不同的cpu上
默认情况下,nginx的进程跑在某一个CPU或CPU的某一个核上,导致nginx进程使用硬件的资源不均,本节的优化是不同的nginx进程给不同的CPU处理,充分有效的利用有效的硬件资源
4核CPU配置
worker_processes 4;通常应该略少于CPU物理核心数:
worker_cpu_affinity 0001 0010 0100 1000;
2核CPU配置:
worker_processes 2;
worker_cpu_affinity 0101 1010;
还有一个命令taskset -c用来分配服务给CPU
2.3. nginx事件处理模型优化:
nginx的连接处理机制在于不同的操作系统会采用不同的I/O模型,Linux下,nginx使用epoll的I/O多路复用模型,在freebsd使用kqueue的IO多路复用模型,在solaris使用/dev/pool方式的IO多路复用模型,在windows使用的icop等等。
要根据系统类型不同选择不同的事务处理模型,选择有“use [ kqueue | rtsig |epool |dev/pool |select |pllo ];”我们使用的是Centos6.5的linux,因此将nginx的事件处理模型调整为epool模型。
events {
worker_connections 1024;
use epoll;
}
官方说明:在不指定事件处理模型时,nginx默认会自动的选择最佳的事件处理模型服务
2.4. 调整nginx单个进程允许的客户端最大连接数:
参数语法:worker_connections number
默认配置:worker_connections 512
放置位置:events 标签
events {
worker_connections 1024; #一个worker进程的并发
}
总并发= worker_processes* worker_connections
2.5. 配置nginx worker进程最大打开文件数:
参数语法:worker_rlimit_nofile number
放置位置:主标签段
说明:作用是改变worker processes能打开的最大文件数
worker_rlimit_nofile 65535;
这个参数受系统文件的最大打开数限制,解决方法:
cat /proc/sys/fs/file-max
* 系统优化
- timewait的数量,默认是180000。(Deven:因此如果想把timewait降下了就要把tcp_max_tw_buckets值减小):
- net.ipv4.tcp_max_tw_buckets = 6000
- 允许系统打开的端口范围:
- net.ipv4.ip_local_port_range = 1024 65000
- 启用timewait快速回收:
- net.ipv4.tcp_tw_recycle = 1
- 开启重用。允许将TIME-WAIT sockets重新用于新的TCP连接:
- net.ipv4.tcp_tw_reuse = 1
- 开启SYN Cookies,当出现SYN等待队列溢出时,启用cookies来处理:
- net.ipv4.tcp_syncookies = 1
- web应用中listen函数的backlog默认会给我们内核参数的net.core.somaxconn限制到128,而nginx定义的NGX_LISTEN_BACKLOG默认为511:
- net.core.somaxconn = 262144
- 允许送到队列的数据包的最大数目:
- net.core.netdev_max_backlog = 262144
- 系统中最多有多少个TCP套接字不被关联到任何一个用户文件句柄上:
- net.ipv4.tcp_max_orphans = 262144
- 记录的那些尚未收到客户端确认信息的连接请求的最大值:
- net.ipv4.tcp_max_syn_backlog = 262144
- 时间戳可以避免序列号的卷绕:
- net.ipv4.tcp_timestamps = 0
- 内核放弃连接之前发送SYN+ACK包:
- net.ipv4.tcp_synack_retries = 1
- 内核放弃建立连接之前发送SYN包的数量:
- net.ipv4.tcp_syn_retries = 1
- 保持在FIN-WAIT-2状态的时间:
- net.ipv4.tcp_fin_timeout = 1
- 当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时:
- net.ipv4.tcp_keepalive_time = 30
4. 总结
以需求驱动技术,技术本身没有优略之分,只有业务之分。
|
|
|
|
|
|
|