|
CRM:cluster resource manager
haresource(heartbeatV1)
crm,haresource(heartbeatV2)
pacemaker(heartbeatV3)
rgmanager(RHCS)
为那些非ha-aware的应用程序提供调用的基础平台
crmd:crm守护进程,运行在各个节点.,给用户提供管理API
GUI:图形接口
CLI:命令接口
HA WEB的三个资源;
vip,httpd,filesystem
HA services:
ResourceType:
primitive(native)主资源
group 组资源
clone 运行在每一个节点上
stonith
cluster filesystem
dlm:分布式锁管理器 Distributed lock manager
master/slave
drdb:
资源约束:
location
collocation
order
heartbeat 配置(messagelayer)
authkeys
ha.cf
node
bcast、mcast、ucast
haresource
HA:
1、时间同步
2、SSH双机互信
3、主机名要与uname -n保持一致,并且通过/etc/hosts 解析
CIB:集群信息库 cluster informationbase XML格式
先改一下不要广播,组播好些
# vim /etc/ha.d/ha.cf
注释掉bcast,使用mcast。组播地址的要求,百度吧。

当然要注意的是,当我的ha.cf中启用了crm,添加crm respawn,那么haresources里边的所有配置都失效了,crm和haresources不能同时使用,crm不会读取haresources的
现在来启用CRM吧:
# vim /etc/ha.d/ha.cf
最后添加一行
crmrespawn
添加后先别启动,我们不是之前配置了haresource么,虽然启用crm之后,haresources不被读取,但是我们可以直接复制haresources的配置来使用。使用脚本:/usr/lib/heartbeat/haresources2cib.py。这里有个概念:
CIB:集群信息库 cluster information base 是XML格式
haresources2cib.py可以接收参数/etc/hs.d/resources,把haresources转化成XML格式的cib文件,然后保存在/var/lib/heartbeat/crm/里边,然后就能被crm读取了。虽然手动编辑crm麻烦,不会XML语法,但它提供了GUI界面管理工具。
这里还有个脚本/usr/lib/heartbeat/ha_propagate,我们在任意节点编辑crm之后,它会通过ssh同步到其他节点,这些node是在ha.cf中配置好了的。
我们先试着启动一下,这里还没有进行haresources到crm转换,但刚修改的组播方式是有效的,而且需要同步导node2.这里我们启动ha_propagate。注意,启动crm之后,haresources没用了,但是ha.cf还是通用的,它配置了message layer,crm和haresources只是资源管理器,需要借助message layer通信
#/usr/lib/heartbeat/ha_propagate

启动heartbeat:
node1:
#service heartbeat start
#ssh node2 'service heartbeat start'
#netstat -tnlp|grep mgmtd
显示crmd监听在5560上,同样node2也监听在5560,所以crmd是在每个节点都运行起来的
命令方式:crm+Tab 列出可使用的crm命令

接下来看看gui工具配置。注意要在DC上使用
登录GUI界面需要密码,需要haclustr的密码
#passwdhacluster 设定密码hacluster
打开界面:
#hb_gui
点左上角连接


这里不能添加节点,只能添加资源,节点是ha.cf中定义的
选中“资源”,点“+”

现在我们配置本地的web服务,需要三个资源,而且这三个资源要在同一个资源组,因为必须运行在同一节点上,如果不归为资源组,那么三个资源可能会运行在不同节点,就是说,可能down掉了VIP,但是httpd还可能运行,我们要让这三个资源同进退:
VIP
httpd
filesystem 这里先配置本地的
普通资源--确定

类型是 资源代理(脚本) 如 VIP 使用ipaddr配置,就选择ipaddr,参数就是我要使用的VIP (haresources里边:IPaddr::172.16.10.10/16/eth0)


lsb类型的资源代理(脚本)基本不接收参数,直接点添加就行了
然后把两个资源都运行起来

可以发现

两个资源运行在两个节点哦,资源平均分配了,不是我想要的结果啊
,这就是为什么我们要定义资源组,然后在资源组中添加资源。
点“+“,

选择资源组

然后在添加资源,所以,要先定义组,然后在添加资源。把之前定义的资源停掉,删除,然后再在组中添加webIP和Httpd,在运行就在一个节点了

让节点备用,OK,都没问题,方便多了.但是要记住,每次运行,如果出错,要记得清理资源,要不然会出现设置正确,但是就是运行失败.

在组中添加nfs:

添加后启动,但是挂载失败.在提供nfs主机上使用
#/etc/init.d/nfs restart 启动nfs和noslock

停掉node1,node2自动运行所有资源
这里三个资源没有定义在一个资源组,运行起来分别在两个节点:

接下来定义约束,来实现资源运行在同一节点,如图:

现在添加协同约束,定义那两个资源是依赖在一起运行的:

这个设置的意义是:httpd依赖于webstore,且永远运行在同一节点,但是如果webstore不能运行,httpd就不能运行.确定之后,资源会自动重启:

再修改IP和httpd的协同约束,注意有时候服务会监听在某个IP上,所以考虑好谁先启动谁后启动:

但是,现在httpd即跟着webstore又跟着webIP,要是IP跟store不在一起怎么办,简单,添加IP跟store在一起,但是是IP依赖于webstore还是webstore依赖于IP?还webstore依赖于IP吧


这样设置以后,只要webstore停止,所有资源就停止,webstore启动,所有资源就启动
顺序:定义谁先启动谁后启动
 
这个么 用的不太好,经常会导致资源不能启动,因为一个的启动依赖与另一个,还不如直接定义资源组,然后使用order,就可以了.
|
|
|