设为首页 收藏本站
查看: 793|回复: 0

[经验分享] CentOS6上mongodb连接数无法突破1000的解决办法

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2015-12-16 08:48:21 | 显示全部楼层 |阅读模式
问题描述:
生产环境发现CPU满负荷运行,MongoDB的连接数始终突破不了1000。

解决方案:
1、查看mongodb的日志,报下面的错误:
1
2
Wed Nov 21 15:26:09 [initandlisten] pthread_create failed: errno:11 Resource temporarily unavailable   
Wed Nov 21 15:26:09 [initandlisten] can't create new thread, closing connection



2、在一台一样的centos5的机器上测试,发现连接2000个连接一点问题都没有。   
3、上google查找问题,关键字“mongod.conf can’t create new thread, closing connection”   
4、找到问题所在,原来centos6与之前centos5不同,多了一个默认的限制用户nproc的配置文件 :/etc/security/limits.d/90-nproc.conf ,默认把普通用户的nproc设置成1024,而mongodb正好又是使用mongod这个非root用户跑的,所以连接数一直上不去了。   
5、更改/etc/security/limits.d/90-nproc.conf ,把1024改成20480 ,问题解决。
1
2
3
4
5
[iyunv@test ~]# cat /etc/security/limits.d/90-nproc.conf   
# Default limit for number of user's processes to prevent   
# accidental fork bombs.   
# See rhbz #432903 for reasoning.
*          soft    nproc     20480




打开文件句柄数和最大用户进程数限制:
在Linux下面部署应用的时候,有时候会遇上Socket/File: Can’t open so many files的问题;这个值也会影响服务器的最大并发数,其实Linux是有文件句柄限制的,而且Linux默认不是很高,一般都是1024,生产服务器用其实很容易就达到这个数量。下面说的是,如何通过正解配置来改正这个系统默认值。
  
查看方法
我们可以用ulimit -a来查看所有限制值   

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
[iyunv@test ~]# ulimit -a   
core file size          (blocks, -c) 0   
data seg size           (kbytes, -d) unlimited   
scheduling priority             (-e) 0   
file size               (blocks, -f) unlimited   
pending signals                 (-i) 256469   
max locked memory       (kbytes, -l) 64   
max memory size         (kbytes, -m) unlimited   
open files                      (-n) 64000   
pipe size            (512 bytes, -p) 8   
POSIX message queues     (bytes, -q) 819200   
real-time priority              (-r) 0   
stack size              (kbytes, -s) 10240   
cpu time               (seconds, -t) unlimited   
max user processes              (-u) 65536   
virtual memory          (kbytes, -v) unlimited   
file locks                      (-x) unlimited



其中 "open files (-n)"是Linux操作系统对一个进程打开的文件句柄数量的限制,默认是1024。   
(也包含打开的SOCKET数量,可影响数据库的并发连接数目)。

正确的做法,应该是修改/etc/security/limits.conf   
里面有很详细的注释,比如   
hadoop  soft   nofile   32768   
hadoop hard nofile 65536
hadoop soft   nproc   32768   
hadoop hard nproc 65536
   
就可以将文件句柄限制统一改成软32768,硬65536。配置文件最前面的是指domain,设置为星号代表全局,另外你也可以针对不同的用户做出不同的限制。

注意:这个当中的硬限制是实际的限制,而软限制,是warnning限制,只会做出warning;其实ulimit命令本身就有分软硬设置,加-H就是硬,加-S就是软
  
默认显示的是软限制,如果运行ulimit命令修改的时候没有加上的话,就是两个参数一起改变。
RHE6及以后 nproc的修改在/etc/security/limits.d/90-nproc.conf中

如何修改连接数限制:
临时修改(当前shell下更改用户可打开进程数):   

1
# ulimit -u xxx




永久修改, 保险的做法是同时修改/etc/security/limits.d/90-nproc.conf 和 /etc/security/limits.conf如下:

limits_conf = /etc/security/limits.conf:  
*   soft   nproc    s1   
*   hard   nproc    h1

nproc_conf = /etc/security/limits.d/90-nproc.conf:   
*   soft    nproc    s2   
*   hard    nproc    h2

s1,h1,s2,h2必须是具体有意义的数. 此时ulimit -u显示的值为=min(h1,h2)
因此通常就设置s1=s2=h1=h2, 例如在limits_conf和nproc_conf中同时加入:   
*   soft   nproc   65536   
*   hard   nproc   65536



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-151780-1-1.html 上篇帖子: mongodb 安装 下篇帖子: mongodb复杂命令行
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表