征服 Apache + Tomcat
Apache和 Tomcat
原本就是一家,更是一家亲!Apache与Tomcat整合,无非是将Apache作为前端根据请求路径、端口、代理分发给多个Tomcat,以到达转发
和负载均衡
的目的!同时,通过Apache和Tomcat相互作用,进行粘性会话
,会话拷贝
构建集群
!这一切的最终结果就是“云服务
”!不要说Session
不重要,当下火爆的团购
,如果离开Session
还能快活多久?如何保证Session同步
,仍然是不能回避的问题!
这里要说的是基于HTTP和AJP跳转方式的负载均衡实现,关于JK,由于效率问题一直成为诟病,并且mod_jk2模块已经不再被更新了,这里就不折腾它的复杂配置了!
至于说Apache+Tomcat+SSL,并不是难题!只要完成了Apache+SSL然后配置相应的负载均衡、反向代理等等就可以达到目的,相关Apache+SSL参考征服 Apache + SSL
Ubuntu Server 10.04版本,Apache选用2.2.14,Tomcat选用6.0.24。
相关内容:
征服 Apache + SSL
征服 Apache + SVN
征服 Apache + SVN + LDAP
征服 Apache + Tomcat
步骤:
[*]安装Apache基本模块
[*]后台监控
[*]负载均衡简单测试
[*]配置Tomcat相关模块(AJP)
[*]保持Session唯一,粘性会话
[*]Tomcat集群,Session复制
1.安装Apache相关模块
负载均衡需要的主要是代理模块!
经过几次Apache配置尝试,在Ubuntu下配置Apache实在是太容易了。加载什么模块、取消什么模块两个命令搞定。
Shell代码
[*]
#启用模块
[*]
sudoa2enmod<model>
[*]
#禁用模块
[*]
sudoa2dismod<model>
#启用模块
sudo a2enmod <model>
#禁用模块
sudo a2dismod <model>
这里,我们需要让Apache提供代理服务,其中又包含基于http、ftp、ajp等等协议的代理功能,同时还需要负载均衡模块。我们可以通过命令逐个加载:
Shell代码
[*]
#代理核心模块
[*]
sudoa2enmodproxy
[*]
#代理AJP模块
[*]
sudoa2enmodproxy_ajp
[*]
#代理负载均衡模块
[*]
sudoa2enmodproxy_balancer
[*]
#代理HTTP模块
[*]
sudoa2enmodproxy_http
[*]
#代理FTP模块
[*]
sudoa2enmodproxy_ftp
#代理核心模块
sudo a2enmod proxy
#代理AJP模块
sudo a2enmod proxy_ajp
#代理负载均衡模块
sudo a2enmod proxy_balancer
#代理HTTP模块
sudo a2enmod proxy_http
#代理FTP模块
sudo a2enmod proxy_ftp
完成上述操作后,系统会提示重启Apache!
先不着急重启,现学现卖,了解下Apache的目录结构。在Ubuntu下配置Apache主要是在/etc/apache2
目录下:
分述:
[*]
apache2.conf
核心配置文件,一般不需要修改!
[*]
conf.d
目录,里面包含了一些字符集设置,文档等设置!
[*]
dav_svn.authz
和dav_svn.passwd
是前面做SVN时,相关权限、密码文件。
[*]
envvars
定义了运行时的用户身份——www-data。
[*]
httpd.conf
是Apache留给我们自己折腾的配置文件,默认为空。apache2.conf
会加载这个文件。
[*]
ports.conf
端口默认配置。apache2.conf
会加载这个文件。
[*]
magic
为mod_mime_magic模块服务。
[*]
mods-enabled
和mods-available
mods-enabled
会被apache2.conf
加载,里面包含*.load和*.conf文件。*.load文件中是加载相应的模块(位于/usr/lib/apache2/modules/
中),而*.conf中是对应的基本配置。但这些文件其实都是链接到mods-available
中相应的文件上。当我们通过a2enmod
操作时,实际上正是操作了这些软链接。
[*]
sites-available
和sites-enabled
与 mods-enabled
和mods-available
的关系类似,只是其中包含的是站点内容。
罗嗦了一堆,下面配置负载均衡部分。
执行修改:
Shell代码
[*]
sudovi/etc/apache2/mods-available/proxy.conf
sudo vi /etc/apache2/mods-available/proxy.conf
上图红框中的内容是原始内容,白框中的内容是我新加的部分。
注意红框中的配置:
Conf代码
[*]
<Proxy*>
[*]
AddDefaultCharsetoff
[*]
Orderdeny,allow
[*]
#Denyfromall
[*]
Allowfromlocalhostip6-localhost
[*]
</Proxy>
<Proxy *>
AddDefaultCharset off
Order deny,allow
#Deny from all
Allow from localhost ip6-localhost
</Proxy>
在默认配置中,Deny from all
处于可用状态。当我们配置其他代理节点时,将导致杜绝访问!
使用Allow from localhost ip6-localhost
限制仅允许本机访问!
再说,白框中的内容:
Conf代码
[*]
<Proxybalancer://zlex>
[*]
BalancerMemberhttp://localhost:8080
/
[*]
BalancerMemberhttp://192.168
.
49.1
:
8080
/
[*]
</Proxy>
<Proxy balancer://zlex>
BalancerMember http://localhost:8080/
BalancerMember http://192.168.49.1:8080/
</Proxy>
这里,我配置了一个负载均衡节点balancer://zlex
,其中包含了两个服务http://localhost:8080/
和http://192.168.49.1:8080/
,一个是虚拟机上的Tomcat、一个是真机上的Tomcat。这里使用的Http的转发方式,当然,使用AJP未尝不可,稍后详述!
这里的节点次序会有一个先后关系,Apache会将请求按照FIFO的方式调度顺次分配到各个节点上!如果其中有一个节点挂掉,将跳过该节点顺次寻找可用节点。
再说代理和反向代理:
Conf代码
[*]
ProxyPass/zlexbalancer://zlex
[*]
ProxyPassReverse/zlexbalancer://zlex
ProxyPass /zlex balancer://zlex
ProxyPassReverse /zlex balancer://zlex
这里配置,如果要访问/zlex
路径时,将跳转到balancer://zlex
上,也就是享受负载均衡!
2.后台监控
我们如何知道某个节点负载多少,响应时间多久,服务是否正常呢?Apache提供了负载均衡监控平台:http://localhost/balancer-manager
。但是,这个服务默认是不存在。
除了用于负载均衡配置、监控的balancer-manager
还有http://localhost/server-status
和http://localhost/server-info
我们需要添加info模块:
Shell代码
[*]
#系统信息模块
[*]
sudoa2enmodinfo
#系统信息模块
sudo a2enmod info
同时,为了能够使用balancer-manager
,我们需要配置:
Conf代码
[*]
<Location/balancer-manager>
[*]
SetHandlerbalancer-manager
[*]
OrderDeny,Allow
[*]
#Denyfromall
[*]
Allowfromlocalhostip6-localhost
[*]
</Location>
<Location /balancer-manager>
SetHandler balancer-manager
Order Deny,Allow
#Deny from all
Allow from localhost ip6-localhost
</Location>
把这段代码放到哪?由于它同属系统信息配置,我把它放到了info.conf
中,说白了就是照猫画虎:
Shell代码
[*]
sudovi/etc/apache2/mods-available/info.conf
sudo vi /etc/apache2/mods-available/info.conf
注意,这段代码放到了<IfModule mod_info.c>
和</IfModule>
之间!
现在,我们重启Apache:
Shell代码
[*]
sudo/etc/init.d/apache2restart
sudo /etc/init.d/apache2 restart
来看看管理界面http://localhost/balancer-manager
:
我们再来看看服务器基本信息http://localhost/server-info
:
上述两个服务需要加载info模块,而服务器状态(server-status)不需要http://localhost/server-status
:
3.负载均衡简单测试
疯狂访问http://localhost/zlex
,直到手酸眼烦!
我这里故意使用不同了Tomcat界面,来验证自己的配置是否生效。更疯狂的是,我甚至把节点指向了百度、搜狐,来测试负载均衡的效果。如果你细致观察,Apache是将请求顺次分配到各个节点上的。
如果其中一个节点发生问题(例如,强行关闭一个Tomcat,或配置一个错误节点)Apache将会经过几次尝试后,绕过这个问题节点,寻找可以成功访问的节点。如果这个节点恢复正常使用,Apache将在该Tomcat恢复正常工作后大约1分钟内将该节点标识为可用!
现在,再看看现在的后台(http://localhost/balancer-manager
)啥样子:
如果我们控制一个节点的状态是否可用,该怎么做:
涉及到负载量,session同步等等,我们最后讨论!
4.配置Tomcat相关模块(AJP)
基于Http协议分发并不复杂,但AJP效果更好!一次诡异事件中,内网访问正常,外网访问多次失败,最后通过AJP方式完美解决了!
在Tomcat中配置AJP也很简单,修改server.xml
开启AJP模块:
Shell代码
[*]
sudovi/etc/tomcat6/server.xml
sudo vi /etc/tomcat6/server.xml
开启AJP配置:
Xml代码
[*]
<
Connector
port
=
"8009"
protocol
=
"AJP/1.3"
[*]
URIEncoding
=
"UTF-8"
[*]
redirectPort
=
"8443"
/>
<Connectorport="8009" protocol="AJP/1.3"
URIEncoding="UTF-8"
redirectPort="8443" />
注意使用的端口port="8009"
,字符集URIEncoding="UTF-8"
,这是输入框、请求字符集乱码的入口!
接下里就可以通过AJP方式进行节点分发了。修改/etc/apache2/mods-available/proxy.conf
:
Shell代码
[*]
sudovi/etc/apache2/mods-available/proxy.conf
sudo vi /etc/apache2/mods-available/proxy.conf
将http
改为ajp
,将8080
改为8009
:
Conf代码
[*]
<Proxybalancer://zlex>
[*]
BalancerMemberajp://localhost:8009
/
[*]
BalancerMemberajp://192.168
.
49.1
:
8009
/
[*]
</Proxy>
<Proxy balancer://zlex>
BalancerMember ajp://localhost:8009/
BalancerMember ajp://192.168.49.1:8009/
</Proxy>
重启Apache:
Shell代码
[*]
sudo/etc/init.d/apache2restart
sudo /etc/init.d/apache2 restart
再看看管理界面http://localhost/balancer-manager
至此,我们完成了基本负载均衡的基本配置!
/etc/apache2/mods-available/proxy.conf
还有一些属性:
noFailOver
是否打开失败转移,On
|Off
,默认为Off,添加在ProxyPass
后面,如:
Conf代码
[*]
ProxyPass/zlexbalancer://zlexstickySession=JSESSIONIDnoFailOver=On
ProxyPass /zlex balancer://zlexstickySession=JSESSIONID noFailOver=On
如果这样配置,当提供给你服务的服务器发生异常,那么你将一直看着它返回给你503,直到系统恢复正常!
loadfactor
表示后台服务器负载到由Apache发送请求的权值,默认值为1添加在BalancerMember
后面:
Conf代码
[*]
<Proxybalancer://zlex>
[*]
BalancerMemberajp://localhost:8009
/
[*]
BalancerMemberajp://192.168
.
49.1
:
8009
/
[*]
</Proxy>
<Proxy balancer://zlex>
BalancerMember ajp://localhost:8009/
BalancerMember ajp://192.168.49.1:8009/
</Proxy>
可以实现三种策略:
[*]轮询均衡策略的配置
[*]按权重分配均衡策略的配置
[*]权重请求响应负载均衡策略的配置
5.Session唯一,粘性会话
Apache已经可以轻松将内容处理的工作分配给各个Tomcat了!
当然,这还不够,Session还是个问题!
WHY?
我们来做一系列修改,来检测Session到底出现了什么问题!
先来改造Tomcat,修改server.xml
:
Shell代码
[*]
sudovi/etc/tomcat6/server.xml
sudo vi /etc/tomcat6/server.xml
修改<Engine />
节点,增加jvmRoute
属性:
Xml代码
[*]
<
Engine
[*]
name
=
"Catalina"
[*]
defaultHost
=
"localhost"
[*]
jvmRoute
=
"tomcat1"
>
<Engine
name="Catalina"
defaultHost="localhost"
jvmRoute="tomcat1">
另一个Tomcat设置改为
Xml代码
[*]
<
Engine
[*]
name
=
"Catalina"
[*]
defaultHost
=
"localhost"
[*]
jvmRoute
=
"tomcat2"
>
<Engine
name="Catalina"
defaultHost="localhost"
jvmRoute="tomcat2">
通过jvmRoute
,指定了Tomcat唯一标识!
然后修改/etc/apache2/mods-available/proxy.conf
Shell代码
[*]
sudovi/etc/apache2/mods-available/proxy.conf
sudo vi /etc/apache2/mods-available/proxy.conf
如下:
Java代码
[*]
<Proxybalancer:
//zlex>
[*]
BalancerMemberajp://localhost:8009/zlexroute=tomcat1
[*]
BalancerMemberajp://192.168.49.1:8009/zlexroute=tomcat2
[*]
</Proxy>
[*]
[*]
ProxyPass/zlexbalancer://zlex
[*]
ProxyPassReverse/zlexbalancer://zlex
<Proxy balancer://zlex>
BalancerMember ajp://localhost:8009/zlex route=tomcat1
BalancerMember ajp://192.168.49.1:8009/zlex route=tomcat2
</Proxy>
ProxyPass /zlex balancer://zlex
ProxyPassReverse /zlex balancer://zlex
这里需要通过修改route
属性,将Apache与Tomcat关联起来!
注意,Tomcat中定义的jvmRoute
需要与Apache定义的route
相对应!
我们来看一下http://localhost/balancer-manager
发生了什么变化:
我们注意到route字段有了新的标识,当然,我们也可以通过这个配置界面修改这些信息,但当前修改不会真的修改/etc/apache2/mods-available/proxy.conf文件,Apache重启后将丢失。
为了更细致的对比进过复杂均衡的结果,这里增加了zlex应用!主要是监控Session的变化!
只看核心代码:
Jsp代码
[*]
<b>当前SessionID:</b>
[*]
<br/>
[*]
<%
[*]
StringsessionID=session.getId();
[*]
out.println(sessionID);
[*]
System.err.println("sessionID="
+sessionID);
[*]
[*]
//如果有新的Session属性设置
[*]
StringdataName=request.getParameter("dataName"
);
[*]
if(dataName!=null&&!dataName.isEmpty()){
[*]
StringdataValue=request.getParameter("dataValue"
);
[*]
session.setAttribute(dataName,dataValue);
[*]
}
[*]
%>
[*]
<br/>
[*]
<br/>
[*]
<b>Session属性列表:</b>
[*]
[*]
<br/>
[*]
<%
[*]
Enumeration<String>e=(Enumeration<String>)session
[*]
.getAttributeNames();
[*]
while(e.hasMoreElements()){
[*]
Stringname=e.nextElement();
[*]
Stringvalue=(String)session.getAttribute(name);
[*]
out.println(name+"="
+value+
"<br>"
);
[*]
System.err.println(name+"="
+value);
[*]
}
[*]
%>
[*]
<formmethod="POST"
>
[*]
<ulstyle="list-style-type:none;"
>
[*]
<li><labelfor="dataName"
>键:</label><inputsize=
"20"
id=
"dataName"
[*]
name="dataName"
></li>
[*]
<li><labelfor="dataValue"
>值:</label><inputsize=
"20"
[*]
id="dataValue"
name=
"dataValue"
></li>
[*]
<li><inputtype="submit"
value=
"提交"
/></li>
[*]
</ul>
[*]
</form>
<b>当前SessionID:</b>
<br />
<%
String sessionID = session.getId();
out.println(sessionID);
System.err.println("sessionID = " + sessionID);
// 如果有新的 Session 属性设置
String dataName = request.getParameter("dataName");
if (dataName != null && !dataName.isEmpty()) {
String dataValue = request.getParameter("dataValue");
session.setAttribute(dataName, dataValue);
}
%>
<br />
<br />
<b>Session属性列表:</b>
<br />
<%
Enumeration<String> e = (Enumeration<String>) session
.getAttributeNames();
while (e.hasMoreElements()) {
String name = e.nextElement();
String value = (String) session.getAttribute(name);
out.println(name + " = " + value + "<br>");
System.err.println(name + " = " + value);
}
%>
<form method="POST">
<ul style="list-style-type: none;">
<li><label for="dataName">键:</label><input size="20" id="dataName"
name="dataName"></li>
<li><label for="dataValue">值:</label><input size="20"
id="dataValue" name="dataValue"></li>
<li><input type="submit" value="提交" /></li>
</ul>
</form>
将其做成一个名为zlex的web应用,分别部署到两个Tomcat上!
然后重启Apache:
Shell代码
[*]
sudo/etc/init.d/apache2restart
sudo /etc/init.d/apache2 restart
不断刷新http://localhost/zlex
,看看真正的恶魔:
第1次:
第2次:
第3次:
第4次:
仔细观察,每次请求都按照负载均衡配置的节点次序依次请求到不同的Tomcat上。尤其是当我们通过jvmRoute
和route
做了绑定之后,信息更加准确。但是,仔细观察,每次请求的SessionID都是不一样!
对于纯Web应用,尤其是依靠SessionID区分唯一用户的应用,这将是一场噩梦——解决了服务器压力均衡问题,却带来了SessionID不唯一问题!这就需要SessionID绑定,或者说叫做“会话复制”。
如果这时候你在页面上提交表单,将键值对保持在session中,在页面刷新后,将无法获得该信息,因为Seesion丢失了!
接着修改/etc/apache2/mods-available/proxy.conf
,让SeesionID保持唯一:
Shell代码
[*]
sudovi/etc/apache2/mods-available/proxy.conf
sudo vi /etc/apache2/mods-available/proxy.conf
增加stickySession
属性:
Conf代码
[*]
ProxyPass/zlexbalancer://zlexstickySession=JSESSIONID
ProxyPass /zlex balancer://zlexstickySession=JSESSIONID
stickySession
粘性会话,根据这一属性,浏览器将通过cookie绑定SeesionID。如果这个时候再次访问http://localhost/zlex
,你会发现,页面不会来回跳转了!
sticky是什么?
引用
sticky模式
利用负载均衡器的sticky模式的方式把所有同一session的请求都发送到相同的Tomcat节点。这样不同用户的请求就被平均分配到集群
中各个tomcat节点上,实现负载均衡的能力。这样做的缺点是没有灾难恢复的能力。一旦一个节点发生故障,这个节点上所有的session信息全部丢
失;
同一用户同一session只和一个webServer交互,一旦这个webserver发生故障,本次session将丢失,用户不能继续使用 !
提交一个Session设定看看http://localhost/zlex
:
观察后台日志:
再看看返回页面,这相当于一次页面刷新,如果正常粘性会话,我们将获得当前SessionID对应的一切信息:
这说明粘性会话生效了!
我们得到了形如
引用
50DAF14C6CDF8ACFBDC1095A5EE8E2CF.tomcat1
的SessionID。这样,我们就能知道当前访问的是哪台服务器了!
如果,换一个浏览器打开该页面http://localhost/zlex
,将会获得一个新的SessionID,并且,根据Apache中配置的负载均衡节点列表依次访问下一个节点!
如果这时候负载均衡节点列表中某一节点发生异常,那么Apache将按照惯例,跳转该节点,并在该节点恢复正常后约1分钟内重新将其纳入可用节点!
修改刚才的jsp页面,看看Http头中都有些什么:
Jsp代码
[*]
<b>Cookie信息:</b>
[*]
<br/>
[*]
${header["cookie"
]}
[*]
<br/>
[*]
<b>Host信息:</b>
[*]
<br/>
[*]
${header["host"
]}
[*]
<br/>
<b>Cookie信息:</b>
<br />
${header["cookie"]}
<br />
<b>Host信息:</b>
<br />
${header["host"]}
<br />
sticky模式
的根本在于浏览器支持cookie,如果浏览器不支持cookie,则需要修改server.xml文件中的<Context />节点,将cookie
置为false
,关闭cookie功能,让jsessionid显式传递!
6.Tomcat集群,Session复制
经过两天反复研究,两只互不相认的Tomcat终于在网络上“资源共享”了——Session复制成功!
关于Tomcat集群以及Session复制
,网上已经有很多很多,但是否真的能用?!为了确认这一问题,周末还跑到书店翻了翻《Apache Tomcat 高级编程》,参考Clustering/Session Replication HOW-TO
(有点小错误),经过两天苦战,克服种种小问题,终于拿下!
整理概念:
引用
群集,是包含多个服务器实例的指定集合,这些服务器实例共享相同的应用程序、资源以及配置信息。您可以将不同计算机上的服务器实例分组到一个逻辑群集中并将其作为一个单元来管理。您可以使用 DAS 轻松控制多机群集的生命周期。
群集可以实现水平可伸缩性、负载平衡和故障转移保护。根据定义,群集中的所有实例都具有相同的资源和应用程序配置。当群集中的服务器实例或计算机
出现故障时,负载平衡器检测到该故障,会将通信从出现故障的实例重定向至群集中的其他实例,并恢复用户会话状态。由于群集中所有实例上的应用程序和资源都
相同,因此一个实例可以故障转移至群集中的任何其他实例。
引用
Session复制,主要是指集群环境下,多台应用服务器之间同步Session,确保Session保持一致,且Session中的内容保持一致,对外透明——看起来就像是一台应用服务器!
如果其中一台服务器发生故障,根据负载均衡的原理,Apache会遍历寻找可用节点,分发请求。与此同时,当前用户Session不能发生数据丢失,其余各节点服务器应保证用户Session数据同步。
Session复制核心内容主要是:
[*]Session内容序列化(serialize),会消耗系统性能。
[*]Session内容通过广播同步给成员,会造成网络流量瓶颈,即便是内网瓶颈。
因此,Session复制的这两个潜在问题,致使复杂均衡节点最多不会超过4个。因为,当节点数大于4时,整个集群的吞吐量将不再上升!
为了搭建Tomcat集群,我将两个Tomcat分别部署到两台虚拟机上,确保网段一致。(这一步很关键,我最初将Tomcat1(192.168.49.132)
部署在虚拟机上,将Tomcat2(192.168.49.128)
部署在本机上,结果,网络总有问题,耽误了很多时间。
)
由于变换了IP,我需要修改Apache的/etc/apache2/mods-available/proxy.conf
文件:
Shell代码
[*]
sudovi/etc/apache2/mods-available/proxy.conf
sudo vi /etc/apache2/mods-available/proxy.conf
修改负载均衡节点如下:
Conf代码
[*]
<Proxybalancer://zlex>
[*]
BalancerMemberajp://192.168
.
49.128
:
8009
/zlexroute=tomcat1
[*]
BalancerMemberajp://192.168
.
49.132
:
8009
/zlexroute=tomcat2
[*]
</Proxy>
<Proxy balancer://zlex>
BalancerMember ajp://192.168.49.128:8009/zlex route=tomcat1
BalancerMember ajp://192.168.49.132:8009/zlex route=tomcat2
</Proxy>
对于windows系统,不需要考虑网络问题,广播地址(这里用到224.0.0.0
和240.0.0.0
)默认开放,对于linux则需要通过命令开放地址。
Ubuntu上开放广播地址(eth0网卡):
Shell代码
[*]
sudorouteadd-net
224.0
.
0.0
netmask
240.0
.
0.0
deveth0
sudo route add -net 224.0.0.0 netmask 240.0.0.0 dev eth0
然后通过-v
参数查看当前开放的广播地址:
Shell代码
[*]
route-v
route -v
注意,重启后,该路由设置将丢失!
在Ubuntu下,可以考虑修改/etc/networks
文件!
如果有必要,Windows上开放广播地址(192.168.49.128本机地址):
Cmd代码
[*]
routeadd
224.0
.
0.0
mask
240.0
.
0.0
192.168
.
49.128
route add 224.0.0.0 mask 240.0.0.0 192.168.49.128
然后通过print
参数查看当前开放的广播地址:
Shell代码
[*]
routeprint
route print
然后,修改tomcat的server.xml文件:
Shell代码
[*]
sudovi/etc/tomcat6/server.xml
sudo vi /etc/tomcat6/server.xml
在<Engine />
节点中加入如下内容:
Xml代码
[*]
<
Cluster
className
=
"org.apache.catalina.ha.tcp.SimpleTcpCluster"
[*]
channelSendOptions
=
"8"
>
[*]
[*]
<
Manager
className
=
"org.apache.catalina.ha.session.DeltaManager"
[*]
expireSessionsOnShutdown
=
"false"
[*]
notifyListenersOnReplication
=
"true"
/>
[*]
[*]
<
Channel
className
=
"org.apache.catalina.tribes.group.GroupChannel"
>
[*]
<
Membership
className
=
"org.apache.catalina.tribes.membership.McastService"
[*]
address
=
"224.0.0.0"
[*]
port
=
"45564"
[*]
frequency
=
"500"
[*]
dropTime
=
"3000"
/>
[*]
<
Receiver
className
=
"org.apache.catalina.tribes.transport.nio.NioReceiver"
[*]
address
=
"192.168.49.1"
[*]
port
=
"4000"
[*]
autoBind
=
"100"
[*]
selectorTimeout
=
"5000"
[*]
maxThreads
=
"6"
/>
[*]
[*]
<
Sender
className
=
"org.apache.catalina.tribes.transport.ReplicationTransmitter"
>
[*]
<
Transport
className
=
"org.apache.catalina.tribes.transport.nio.PooledParallelSender"
/>
[*]
</
Sender
>
[*]
<
Interceptor
className
=
"org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"
/>
[*]
<
Interceptor
className
=
"org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"
/>
[*]
</
Channel
>
[*]
[*]
<
Valve
className
=
"org.apache.catalina.ha.tcp.ReplicationValve"
[*]
filter
=
".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"
/>
[*]
<
Valve
className
=
"org.apache.catalina.ha.session.JvmRouteBinderValve"
/>
[*]
[*]
<
ClusterListener
className
=
"org.apache.catalina.ha.session.JvmRouteSessionIDBinderListener"
/>
[*]
<
ClusterListener
className
=
"org.apache.catalina.ha.session.ClusterSessionListener"
/>
[*]
</
Cluster
>
<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"
channelSendOptions="8">
<Manager className="org.apache.catalina.ha.session.DeltaManager"
expireSessionsOnShutdown="false"
notifyListenersOnReplication="true"/>
<Channel className="org.apache.catalina.tribes.group.GroupChannel">
<Membership className="org.apache.catalina.tribes.membership.McastService"
address="224.0.0.0"
port="45564"
frequency="500"
dropTime="3000"/>
<Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver"
address="192.168.49.1"
port="4000"
autoBind="100"
selectorTimeout="5000"
maxThreads="6"/>
<Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter">
<Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender"/>
</Sender>
<Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/>
<Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/>
</Channel>
<Valve className="org.apache.catalina.ha.tcp.ReplicationValve"
filter=".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"/>
<Valve className="org.apache.catalina.ha.session.JvmRouteBinderValve"/>
<ClusterListener className="org.apache.catalina.ha.session.JvmRouteSessionIDBinderListener"/>
<ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/>
</Cluster>
这里需要注意<Membership />
和Receiver
:<Membership />
节点的address
属性是广播地址;Receiver
节点的address
属性是本地绑定地址。当然,默认为auto
。由于我在启动Tomcat时,Tomcat频频将地址指向127.0.0.1
,无奈只好使用固定IP。
此外,为了降低Session复制的成本,Tomcat通过<Valve />
节点,以过滤器的方式控制哪些请求可以忽略Session复制:
Xml代码
[*]
<
Valve
className
=
"org.apache.catalina.ha.tcp.ReplicationValve"
[*]
filter
=
".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"
/>
<Valve className="org.apache.catalina.ha.tcp.ReplicationValve"
filter=".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"/>
同时,在<Host>节点中加入如下内容:
Xml代码
<
Deployer
className
=
"org.apache.catalina.ha.deploy.FarmWarDeployer"
tempDir
=
"/tmp/war-temp/"
deployDir
=
"/tmp/war-deploy/"
watchDir
=
"/tmp/
页:
[1]