设为首页 收藏本站
查看: 817|回复: 0

[经验分享] 如何为一个高负荷站点配置tomcat连接器(connector)【译文】(第一篇)

[复制链接]
累计签到:6 天
连续签到:1 天
发表于 2015-8-6 12:33:31 | 显示全部楼层 |阅读模式
引言
  
    最近正好要用到这些内容,因此就找了一篇比较有分量的文章,思来想去,还是尝试写一下译文吧。其实LZ的英语是非常烂的(四级没过的LZ眼泪掉下来),因此这篇文章翻译的水平LZ自己也不敢恭维。各位猿友大致参考一下即可,其中【】符号是LZ的标注,()内的是原文。如果各位有哪里实在看不明白的话,可能是LZ翻译的问题,各位猿友可以去看原文的内容,地址:http://people.apache.org/~mturk/docs/article/ftwai.html。
  
摘要
  
    倘若你想实现最大的性能和稳定性的话,那么在web服务器后运行tomcat集群是必经之路,这篇文章就是用来描述完成这件事的最佳实践。
  
tomcat之前
  
    一些人可能会问“为什么要在tomcat前面放置一个web server?”由于最近的JVM技术以及tomcat核心本身的原因,单个tomcat的性能已经非常接近于本地的web服务器,甚至当发送静态文本时,tomcat也只比当前的Apache2web服务器慢10%。因此答案就是:扩展性
    tomcat通过给每个客户端连接分配独立的线程,可以服务许多用户的并发访问。尽管这样tomcat可以做的很好,但是当并发连接数上升的时候,将会出现一些问题。系统为了管理这些线程所花费的时间会降低整体的性能,JVM也将花费更多的时间管理和切换这些线程,然后才能真正的对客户的请求做一些具体的工作。
    此外,当应用直接运行在tomcat上的时候,连通性(connectivity)也有不少严重的问题。一个典型的应用可能会处理用户数据、访问数据库或者做一些计算再将结果返回给客户端。所有的这些都是一些耗时的工作,但是为了让用户感觉这是一个可以正常运行的应用程序,大多数时候必须在半秒内(500ms)就完成。如果应用的响应时间为10ms,那么在你的客户抱怨之前,你的应用最多只能同时服务50个并发用户【这句话有点别扭,0.0,但大致意思是理解的】。那么为了支持更多的用户你该怎么做呢?最简单的办法就是买一个更快的硬件,增加更多的CPU或者更多的箱子(boxes)【boxes?箱子?】。两个双路箱子一般比一个四路的便宜,因此添加更多的箱子一般比买一个服务器更加省钱【貌似这个箱子可以替代服务器,到底是什么东西,有英语好的给翻译一下】。
    降低tomcat负载的第一件事就是使用web server处理静态文本,就像下图一样。
   DSC0000.gif
    上图给出了最简单的可行的配置方案。web server用来传送静态文本,而tomcat只处理具体的工作,也就是应用服务。大多数情况下,这就可以满足你了。如果用一个四路的箱子【又是箱子,0.0】,并且应用的响应时间为10ms的话,那么你将能同时服务200个用户,也就是说,一天可以支持350万的访问量【不知道350万这个数字怎么算出来的,用200*60*60*24不是350万,0.0】,这已经是一个比较可观的数字了。
    在以上这种程度负载的情况下,你或许不太需要将web server放在tomcat之前。但是还有第二个原因让你这么做,那就是这样创建了一个控制区(demilitarized zone)。将web server放在一个主机上等于在公司的私有网络与互联网或者是其它的外部公共网络之间插入了一个隔离区(neutral zone),这可以让tomcat上的应用安全的访问其它的私有资源,也可以访问公司的私有数据。
   DSC0001.gif
    除了拥有控制区和可以安全的访问私有网络,还有一些其它的原因,比如可以满足自定义授权的需要。
    如果有更多的负载需要承载的话,那么你将不得不添加更多的tomcat应用服务器,这可能是因为客户端的负载已经无法被一个简单的箱子【靠,到现在还没猜出来箱子是什么】处理,也可能是因为当某一个节点宕机时,你需要一种故障恢复的机制。
   DSC0002.gif
    部署一个包含了多个tomcat应用服务器的架构,需要在web server和tomcat之间加入一个负载均衡器。在apache1.3、apache2.0和IIS中,你可以使用Jakarta Tomcat Connector,因为它提供负载均衡和黏性session机制。在将来的apache2.1/2.2中,可以使用advanced mod_proxy_balancer,它是一个新设计的模块并整合在apache httpd的核心当中。
    
计算负载
  
    当决定tomcat服务器数量时,你需要满足客户端负载,首要的任务就是决定应用的平均响应时间。正如之前所说,为了满足用户体验,应用不得不在半秒内响应用户。客户端浏览器收到的内容通常会触发多次对web server的请求,比如图片。web页面通常由html和图片数据构成,所以客户端会分发一系列的请求,而获得这些所花费的总的处理和传送时间就是平均响应时间。为了不超过tomcat的极限,你应该限制并发请求数不高于“200/CPU”。
    因此,我们可以从一个简单的公式计算出一个物理箱子【这个箱子到底是什么,0.0】能够处理的最大的并发连接数:
      并发请求数 = max(500/平均响应时间,200) * CPU个数
    另外一件你需要考虑的事,就是web server和tomcat实例之间的网络吞吐量。这里介绍一个新的概念,叫做平均响应大小,这是指一个web页面传送给用户的所有的字节大小。对于一个标准的“8位/字节”的100Mbps网卡,理论上最大的吞吐量为12.5Mbytes。
      并发连接数 = 12500/平均响应大小
    对于20KB的平均响应大小来说,最大可以支持625的并发请求数。如果你需要承载更大的负载,那么可以增加更多的卡或者使用更快的1Gbps的硬件。
    
    上面的公式教你对于一定数量的并发请求,如何大概估算tomcat、箱子和CPU的数量。如果你接触不到具体的硬件就要进行配置,你可以在一个测试平台上测试平均响应时间,然后比较测试平台与硬件提供商的SPECmarks,这样你可以获得一个比较接近的数值。
  
文章小结
  
    文章就先翻译到这里吧,剩下的有时间再来翻译,锻炼下自己的有道水平。总的来说,LZ是大致看懂了这篇文章,但是仍旧有些不明白的地方,比如那个box,也就是箱子,到底是指的什么。LZ觉得这个box绝对不应该简单的翻译成箱子,但是LZ实在想不到是什么玩意,所以就只能暂时这么写了。希望有高人路过的话,回答一下这个箱子到底是什么。
  
幽你一默
  
    LZ看到这两幅图的时候笑跪了,您呢,0.0。
   DSC0003.jpg
DSC0004.jpg

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-94821-1-1.html 上篇帖子: Tomcat在Mac平台安裝 下篇帖子: Struts+Tomcat搭建
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表