设为首页 收藏本站
查看: 1944|回复: 0

[经验分享] RHCS集群套件之用Luci/Ricci实现Web集群的详细配置

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2016-12-21 10:15:33 | 显示全部楼层 |阅读模式
在RHCS集群中每个集群都必须有一个唯一的集群名称,至少有一个fence设备(实在不行可以使用手动fence_manual),且至少要有三个节点,两个节点必须有仲裁磁盘

准备环境

node1:192.168.139.2

node2:192.168.139.4

node4:192.168.139.8

VIP:192.168.139.10

在node1装luci创建集群,并进行集群管理;在node2和node4安装ricci让其作为集群节点

1:ssh互信

2:修改主机名为node1,node2,node4

3: ntp时间同步



分享一个和好的红帽官方RHCS集群套件资料 https://access.redhat.com/site/d ... istration-zh-CN.pdf 这里有RHCS集群套件的详细官方介绍,包括luci/ricci的详细使用,且是中文版本

j_0058.gif

下面开始本次实验安装luci/ricci,并建一个Web集群


安装luci在node1,安装ricci在node2和nde4

[iyunv@node1 yum.repos.d]#  yum install luci

[iyunv@node2 yum.repos.d]#  yum install ricci -y

[iyunv@node4 yum.repos.d]#  yum install ricci -y

如果yum安装有以下警告

   Warning: RPMDB altered outside of yum.
   执行如下命令,清楚yum历史信息便可
        [iyunv@node1 yum.repos.d]# rm -rf /var/lib/yum/history/*.sqlite

启动luci

[iyunv@node1 yum.repos.d]# service luci start  ##https://node1.zxl.com:8084(web访问入口)   

Point your web browser to https://node1.zxl.com:8084 (or equivalent) to access luci


在两台节点上给ricci用户设置密码,可以与root的密码不同

[iyunv@node2 yum.repos.d]# echo 123456|passwd --stdin ricci

Changing password for user ricci.

passwd: all authentication tokens updated successfully.

[iyunv@node4 yum.repos.d]# echo 123456|passwd --stdin ricci

Changing password for user ricci.

passwd: all authentication tokens updated successfully.


启动ricci

[iyunv@node2 cluster]# service ricci start

[iyunv@node4 cluster]# service ricci start


然后用浏览器进行web登录luci端口为8084


wKiom1hX50-DeBOpAAAzG8XZnXc790.png-wh_500x0-wm_3-wmp_4-s_2991606195.png

弹出的警告窗口

wKiom1hYru-TGzy2AAAz4VKL_qc802.png

点击Manager Clusters ->Create创建集群,加入集群节点

wKioL1hYyb6yhA8tAABD0A8LsKc721.png

点击 创建集群。点击 创建集群 后会有以下动作:

a. 如果您选择「下载软件包」,则会在节点中下载集群软件包。

b. 在节点中安装集群软件(或者确认安装了正确的软件包)。

c. 在集群的每个节点中更新并传推广群配置文件。

d. 加入该集群的添加的节点显示的信息表示正在创建该集群。当集群准备好后,该显示会演示新创建集群的状态


然后会出现如下界面please wait为node2和node4自动安装集群的相应包(包括cman,rgmanager)


wKiom1hYyhiDUpBFAAAXBM-r0yA086.png
wKiom1hYydzTkD2eAAATPGk0dl0209.png

创建完成


wKiom1hYy3bQt7N1AAA-6IEde-I777.png
wKiom1hYyz_zbLucAABkP90t7Ug101.png

注:正常状态下,节点Nodes名称和Cluster Name均显示为绿色,如果出现异常,将显示为红色。


添加Fence设备,RHCS集群必须至少有一个Fence设备,点击Fence Devices -->add

wKioL1hYzGzS5ke5AABHsd8SsJo618.png
wKioL1hY0cqQiZhUAAAnKB01nu0634.png

wKiom1hY0feyVqNmAAB6n8Y8g7Q234.png

创建Failover Domain
Failover Domain是配置集群的失败转移域,通过失败转移域可以将服务和资源的切换限制在指定的节点间,下面的操作将创建1个失败转移域,
  点击Failover Domains-->Add

wKiom1hY1NyjePofAAC1pDF1aJc410.png
wKioL1hY123AOxbCAAA-Vyi5W2M366.png
Prioritized:是否在Failover domain 中启用域成员优先级设置,这里选择启用。
Restrict:表示是否在失败转移域成员中启用服务故障切换限制。这里选择启用。
Not failback :表示在这个域中使用故障切回功能,也就是说,主节点故障时,备用节点会自动接管主节点服务和资源,当主节点恢复正常时,集群的服务和资源会从备用节点自动切换到主节点。
然后,在Member复选框中,选择加入此域的节点,这里选择的是node2和node4节点在“priority”处将node1的优先级设置为1,node2的优先级设置为2。
需要说明的是“priority”设置为1的节点,优先级是最高的,随着数值的降低,节点优先级也依次降低。
所有设置完成,点击Submit按钮,开始创建Failover domain。

wKioL1hY16DTl5AaAAB3aDLD-4w923.png

这样集群节点和fence设备和故障转移域就创建完成了,下面开始加入Resources,以web服务为列

点击Resources-->Add 添加VIP(192.168.139.10)

wKioL1hY2_mSh7OuAAAx5lVA7Iw362.png
   添加httpd(在RHCS中都是script类型的脚本在/etc/rc.d/init.c/目录下)
   注:Monitor Link追踪连接
      Disable Updates to Static Routes 是否停止跟新静态路由
      Number ofSeconds to Sleep After Removing an IP Address 超时时间
wKioL1hY3HvQUhKoAAAeU5zg2Lk623.png

wKioL1hY3PbiQURbAAA5vfvnkNQ552.png
   OK,资源添加完毕,下面定义服务组(资源必须在组内才能运行)资源组内定义的资源为内部资源

wKiom1hY4aHyImwDAAA_PYTAVTQ581.png
  Automatically Start This Service 自动运行这个服务
  Run Exclusive 排查运行
  Failover Domain 故障转移域(这里要选择你提前设置的那个故障转移域)
  Recovery Policy 资源转移策略
wKioL1hY4fvRakPAAABOr7RRMgg576.png

wKioL1hY4cLDxh8CAABAr-uDvxQ053.png
   Maximum Number of Failures 最大错误次数
   Failues Expire Time   错误超时时间
   Maximum Number of Restars  最大重启时间
   Restart Expire Time(seconds) 重启时间间隔

点击Submit提交,创建集群服务
wKioL1hY4kGgQslkAABio4tEgMk000.png
点击Web-Service-->Start开启集群服务
wKiom1hY4lzBwWNGAADD9JE2ipg726.png
j_0059.gif
Web服务和Vip启动成功

用浏览器测试访问VIP
wKiom1hY4nbC3kvyAABY7Oj2p3s249.png
[iyunv@www init.d]# ip addr show ##可以看到VIP192.168.139.10已近自动配置
   inet 192.168.139.8/24 brd 192.168.139.255 scope global eth0
    inet 192.168.139.10/24 scope global secondary eth0

[iyunv@www init.d]# clustat ##用这个命令可以查看集群状态
Cluster Status for zxl @ Tue Dec 20 15:43:04 2016
Member Status: Quorate
Member Name                    ID   Status
------ ----                    ---- ------
node2.zxl.com                   1 Online, rgmanager
node4.zxl.com                   2 Online, Local, rgmanager
Service Name                    Owner (Last)            State          ------- ----                    ----- ------            -----          service:Web_Service               node4.zxl.com          started   

进行服务转移到node2
[iyunv@www init.d]# clusvcadm -r Web_Service -m node2
'node2' not in membership list
Closest match: 'node2.zxl.com'
Trying to relocate service:Web_Service to node2.zxl.com...Success
service:Web_Service is now running on node2.zxl.com
[iyunv@www init.d]# clustat ##转移成功
Cluster Status for zxl @ Tue Dec 20 16:21:53 2016
Member Status: Quorate

Member Name        ID   Status
------ ----        ---- ------
node2.zxl.com        1 Online, rgmanager
node4.zxl.com        2 Online, Local, rgmanager

Service Name         Owner (Last)       State         
------- ----        ---- ------        -----         
service:Web_Service    node2.zxl.com      started      

wKiom1hY6vbxrECNAAAnaIXN8Rk290.png
模拟node2故障,看服务是否自动转移
[iyunv@node2 init.d]# halt

wKiom1hY7U3AkWPAAABitJ6LLWc427.png
服务成功转移到node4
wKioL1hY7MGw6wkWAABaCg4VzlY368.png
重新启动node2,并启动ricci,可以看到node2已近恢复
wKiom1hY75vCCaf_AABjdr2IN2Q662.png


  并且由于在定义故障转移域时没有选择Not failback(即主节点一恢复正常,服务会自动转移回来),所以Web服务有转移到了node2上(因为node2的priority优先级为1最高,是主节点)
wKioL1hY8b3xnmX9AABUxcw-s0Q331.png
下面加入我找的一些关于luci配置的详细介绍

启动、停止、刷新和删除集群您可以通过在集群的每个节点中执行以下动作启动、停止、重启某个集群。在具体集群页面中点击集群显示顶部的「节点」,此时会显示组成该集群的节点。

如果要将集群服务移动到另一个集群成员中,则在集群节点或整个集群中执行启动和重启操作时会造成短暂的集群服务中断,因为它是在要停止或重启的节点中运行。


要停止集群,请执行以下步骤。这样会关闭节点中的集群软件,但不会从节点中删除集群配置信息,且该节点仍会出现在该集群节点显示中,只是状态为不是集群成员。

1. 点击每个节点旁的复选框选择集群中的所有节点。

2. 在该页面顶部的菜单中选择「离开集群」,此时会在页面顶部出现一条信息表示正在停止每个节点。

3. 刷新该页面查看节点更新的状态。


要启动集群,请执行以下步骤:

1. 点击每个节点旁的复选框选择集群中的所有节点。

2. 在该页面顶部的菜单中选择「加入集群」功能。

3. 刷新该页面查看节点更新的状态。 要重启运行中的集群,首先请停止集群中的所有节点,然后启动集群中的所有节点,如上所述。


要删除整个集群,请按照以下步骤执行。这导致所有集群服务停止,并从节点中删除该集群配置信息,同时在集群显示中删除它们。如果您之后尝试使用已删除的节点添加现有集群,luci 将显示该节点已不是任何集

1. 点击每个节点旁的复选框选择集群中的所有节点。

2. 在该页面顶部的菜单中选择「删除」功能。


如果您要从 luci 界面中删除某个集群而不停止任何集群服务或者更改集群成员属性,您可以使用「管理集群」页面中的「删除」选项,


您还可以使用 Conga 的 luci 服务器组件为高可用性服务执行以下管理功能:

启动服务

重启服务

禁用服务

删除服务

重新定位服务


在具体集群页面中,您可以点击集群显示顶部的「服务组」为集群管理服务。此时会显示为该集群配置的服务。

「启动服务」 — 要启动任何当前没有运行的服务,请点击该服务旁的复选框选择您要启动的所有服务,并点击「启动」。

「重启服务」 — 要重启任何当前运行的服务,请点击该服务旁的复选框选择您要启动的所有服务,并点击「重启」。

「禁用服务」 — 要禁用任何当前运行的服务,请点击该服务旁的复选框选择您要启动的所有服务并,点击「禁用」。

「删除服务」 — 要删除任何当前运行的服务,请点击该服务旁的复选框选择您要启动的所有服务并点击「删除」。

「重新定位服务」 — 要重新定位运行的服务,请在服务显示中点击该服务的名称。此时会显示该服务配置页面,并显示该服务目前在哪个节点中运行。


  在「在节点中启动......」下拉框中选择您想要将服务重新定位的节点,并点击「启动」图标。此时会在页面顶部显示一条信息说明正在重启该服务。您可以刷新该页面查看新显示,在该显示中说明该服务正在您选择的节点中运行。


注意如果您所选运行的服务是一个 vm 服务,下拉框中将会显示 migrate 选项而不是 relocate 选


   您还可以点击「服务」页面中的服务名称启动、重启、禁用或者删除独立服务。此时会显示服务配置页面。在服务配置页面右上角有一些图标:「启动」、「重启」、「禁用」和「删除」。


   备份和恢复 luci 配置从红帽企业版 Linux 6.2 开始,您可以使用以下步骤备份 luci 数据库,即保存在/var/lib/luci/data/luci.db 文件中。这不是给集群自身的配置,自身配置保存在 cluster.conf文件中。相反,它包含用户和集群以及 luci 维护的相关属性列表。

   默认情况下,备份生成的步骤将会写入同一目录的 luci.db 文件中。

   1. 执行 service luci stop。

   2. 执行 service luci backup-db。


   您可以选择是否指定一个文件名作为 backup-db 命令的参数,该命令可将 luci 数据库写入那个文件。例如:要将 luci 数据库写入文件 /root/luci.db.backup,您可以执行命令 serviceluci backup-db /root/luci.db.backup。注:但如果将备份文件写入/var/lib/luci/data/ 以外的位置(您使用 service luci backup-db 指定的备份文件名将不会在 list-backups 命令的输出结果中显示。


  3. 执行 service luci start。


   使用以下步骤恢复 luci 数据库。

   1. 执行 service luci stop。

   2. 执行 service luci list-backups,并注释要恢复的文件名。

   3. 执行 service luci restore-db /var/lib/luci/data/lucibackupfile,其中lucibackupfile 是要恢复的备份文件。


例如:以下命令恢复保存在备份文件 luci-backup20110923062526.db 中的 luci 配置信息:  [iyunv@luci1 ~]#service luci restore-db /var/lib/luci/data/luci-backup20110923062526.db


4. 执行 service luci start。


如果您需要恢复 luci 数据库,但在您因完全重新安装生成备份的机器中已丢失 host.pem 文件,例如:您需要将集群重新手动添加回 luci 方可重新认证集群节点。请使用以下步骤在生成备份之外的机器中恢复 luci 数据库。注:除恢复数据库本身外,您还需要复制 SSL证书文件,以保证在 ricci 节点中认证 luci。在这个示例中是在 luci1 机器中生成备份,在 luci2 机器中恢复备份。


  1. 执行以下一组命令在 luci1 中生成 luci 备份,并将 SSL 证书和 luci 备份复制到 luci2 中。

  [iyunv@luci1 ~]# service luci stop

  [iyunv@luci1 ~]# service luci backup-db

  [iyunv@luci1 ~]# service luci list-backups/var/lib/luci/data/luci-             backup20120504134051.db

  [iyunv@luci1 ~]# scp /var/lib/luci/certs/host.pem /var/lib/luci/data/lucibackup20120504134051.dbroot@luci2:

  2. 在 luci2 机器中,保证已安装 luci,且没有运行。如果还没有安装,则请安装该软件包。

    3. 执行以下一组命令保证认证到位,并在 luci2 中使用 luci1 恢复 luci 数据库。
     [iyunv@luci2 ~]# cp host.pem /var/lib/luci/certs/
     [iyunv@luci2 ~]# chown luci: /var/lib/luci/certs/host.pem
     [iyunv@luci2 ~]# /etc/init.d/luci restore-db ~/lucibackup20120504134051.db
     [iyunv@luci2 ~]# shred -u ~/host.pem ~/luci-backup20120504134051.db
     [iyunv@luci2 ~]# service luci start


wKioL1hY8b3xnmX9AABUxcw-s0Q331.jpg
wKiom1hY75vCCaf_AABjdr2IN2Q662.jpg
wKioL1hY7MGw6wkWAABaCg4VzlY368.jpg
wKiom1hY7U3AkWPAAABitJ6LLWc427.jpg
wKiom1hY6vbxrECNAAAnaIXN8Rk290.jpg
wKiom1hY4nbC3kvyAABY7Oj2p3s249.jpg
j_0059.jpg
wKiom1hY4lzBwWNGAADD9JE2ipg726.jpg
wKioL1hY4kGgQslkAABio4tEgMk000.jpg
wKioL1hY4cLDxh8CAABAr-uDvxQ053.jpg
wKioL1hY4fvRakPAAABOr7RRMgg576.jpg
wKiom1hY4aHyImwDAAA_PYTAVTQ581.jpg
wKioL1hY3PbiQURbAAA5vfvnkNQ552.jpg
wKioL1hY3HvQUhKoAAAeU5zg2Lk623.jpg
wKioL1hY2_mSh7OuAAAx5lVA7Iw362.jpg
wKioL1hY16DTl5AaAAB3aDLD-4w923.jpg
wKioL1hY123AOxbCAAA-Vyi5W2M366.jpg
wKiom1hY1NyjePofAAC1pDF1aJc410.jpg
wKiom1hY0feyVqNmAAB6n8Y8g7Q234.jpg
wKioL1hY0cqQiZhUAAAnKB01nu0634.jpg
wKioL1hYzGzS5ke5AABHsd8SsJo618.jpg
wKiom1hYyz_zbLucAABkP90t7Ug101.jpg
wKiom1hYy3bQt7N1AAA-6IEde-I777.jpg
wKiom1hYydzTkD2eAAATPGk0dl0209.jpg
wKiom1hYyhiDUpBFAAAXBM-r0yA086.jpg
wKioL1hYyb6yhA8tAABD0A8LsKc721.jpg
wKiom1hYru-TGzy2AAAz4VKL_qc802.jpg
wKiom1hX50-DeBOpAAAzG8XZnXc790.png-wh_500x0-wm_3-wmp_4-s_2991606195.jpg
j_0058.jpg

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-317286-1-1.html 上篇帖子: Eclipse for Linux程序使用时假死 下篇帖子: linux命令:ssh scp ssh-keygen -t rsa用法
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表