设为首页 收藏本站
查看: 570|回复: 0

[经验分享] RHCS之用css_tool命令创建HA集群及创建gfs2集群文件系统

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2016-12-22 08:59:00 | 显示全部楼层 |阅读模式

准备环境

node1:192.168.139.2

node2:192.168.139.4

node4:192.168.139.8

node5:192.168.139.9


node1 作为target端

node2 node4 node5 作为initiator端


并且将node2 node4 node5安装cman+rgmanager后配置成一个三节点的RHCS高可用集群,因为gfs2为一个集群文件系统,必须借助HA高可用集群将故障节点Fence掉,及借助Message Layer进行节点信息传递。

因为要将发现并登入的target做成集成文件系统,所以必须在node2 node4 node5上安装gfs2-utils


先将原来用luci/ricci创建的集群服务stop掉(我以前实验做的一个集群服务,与此实验无关)


[iyunv@node2 mnt]# clusvcadm -d Web_Service

Local machine disabling service:Web_Service...

[iyunv@node2 mnt]# clustat

Cluster Status for zxl @ Wed Dec 21 17:55:46 2016

Member Status: Quorate


Member Name                  ID   Status

------ ----                  ---- ------

node2.zxl.com                1 Online, Local, rgmanager

node4.zxl.com      

                          2 Online, rgmanager


Service Name        Owner (Last)      State         

------- ----        ----- ------      -----         

service:Web_Service   (node2.zxl.com)    disabled

[iyunv@node2 mnt]#  service rgmanager stop

[iyunv@node2 mnt]#  service cman stop

[iyunv@node4 mnt]#  service rgmanager stop

[iyunv@node4 mnt]#  service cman stop

[iyunv@node4 mnt]# rm -rf /etc/cluster/cluster.conf

[iyunv@node4 mnt]# rm -rf /etc/cluster/cluster.conf

每次配置文件改变都会有备份也删掉

[iyunv@node2 mnt]# ls /etc/cluster/

cluster.conf.bak  cman-notify.d

[iyunv@node2 mnt]# rm -f /etc/cluster/*



如果没有装cman,rgmanager,执行如下命令

[iyunv@node2 mnt]#yum  -y install cman rgmanager


  用css_tool命令创建一个集群,集群名称mycluster

[iyunv@node2 mnt]# ccs_tool create mycluster

[iyunv@node2 mnt]# cat /etc/cluster/cluster.conf

<?xml version="1.0"?>

<cluster name="mycluster" config_version="1">


  <clusternodes>

  </clusternodes>


  <fencedevices>

  </fencedevices>


  <rm>

    <failoverdomains/>

    <resources/>

  </rm>

</cluster>


添加Fence设备(RHCS集群必须有)

[iyunv@node2 mnt]# ccs_tool addfence meatware fence_manual

[iyunv@node2 mnt]# ccs_tool lsfence

Name             Agent

meatware         fence_manual


-v 指定节点拥有票数

-n 指定节点标识符

-f 指定Fence设备名称


添加三个节点,RHCS集群至少要有三个节点

[iyunv@node2 mnt]# ccs_tool addnode -v 1 -n 1 -f meatware node2.zxl.com

[iyunv@node2 mnt]# ccs_tool addnode -v 1 -n 2 -f meatware node4.zxl.com

[iyunv@node2 mnt]# ccs_tool addnode -v 1 -n 3 -f meatware node5.zxl.com

查看集群节点

[iyunv@node2 mnt]# ccs_tool lsnode


Cluster name: mycluster, config_version: 5


Nodename                        Votes Nodeid Fencetype

node2.zxl.com                      1    1    meatware

node4.zxl.com                      1    2    meatware

node5.zxl.com                      1    3    meatware

复制配置文件,RHCS集群会借助cssd进程自动同步

[iyunv@node2 mnt]# scp /etc/cluster/cluster.conf node4:/etc/cluster/

[iyunv@node2 mnt]# scp /etc/cluster/cluster.conf node5:/etc/cluster/

每个节点启动cman rgmanager

[iyunv@node2 mnt]# service cman start

[iyunv@node2 mnt]# service rgmanager start

[iyunv@node4 mnt]# service cman start

[iyunv@node4 mnt]# service rgmanager start

[iyunv@node5 mnt]# service cman start

[iyunv@node5 mnt]# service rgmanager start

[iyunv@node2 mnt]# clustat

Cluster Status for mycluster @ Wed Dec 21 18:40:26 2016

Member Status: Quorate


Member Name           ID   Status

------ ----           ---- ------

node2.zxl.com         1 Online, Local

node4.zxl.com         2 Online

node5.zxl.com         3 Online


[iyunv@node2 mnt]# rpm -ql gfs2-utils

/etc/rc.d/init.d/gfs2

/sbin/fsck.gfs2

/sbin/mkfs.gfs2 \\格式化创建gfs2文件系统的

/sbin/mount.gfs2 \\挂载gfs2文件系统的

/usr/sbin/gfs2_convert


mkfs.gfs2命令的使用

-j 指定日志区域个数,有几个就能被几个节点挂载,因为格式化为集群文件系统后,每个节点都要有日志记录

-J 指定日志大小,默认128M

-p {lock_dlm|lock_nolock} 分布式锁管理|不用锁

-t <name> 指定锁表的名称

注:一个集群可以有多个文件系统,如一个集群中共享了两个磁盘,两个磁盘可以是gfs2和ocfs2文件系统,不同的文件系统进行加锁时,要用不同的锁表进行唯一标示,所以每个锁都要有锁名称

锁表名称的格式

cluster_name:锁表名

如:mycluster:lock_sda

-D 显示详细的Debug信息


登入target,并格式化为gfs2文件系统

[iyunv@node2 mnt]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l

[iyunv@node2 mnt]# mkfs.gfs2 -j 2 -p lock_dlm -t mycluster:lock_sde1 /dev/sde1

Are you sure you want to proceed? [y/n] y


Device:                 /dev/sde1

Blocksize:               4096

Device Size              3.00 GB (787330 blocks)

Filesystem Size:           3.00 GB (787328 blocks)

Journals:                2

Resource Groups:           13

Locking Protocol:          "lock_dlm"

Lock Table:              "mycluster:lock_sde1"

UUID:                  9ebdc83b-9a61-9a4a-3ba7-9c80e59a0a2d

格式化完成,挂载测试

[iyunv@node2 mnt]# mount -t gfs2 /dev/sde1 /mnt

[iyunv@node2 mnt]# cd /mnt

[iyunv@node2 mnt]# ll

total 0

[iyunv@node2 mnt]# cp /etc/issue ./

[iyunv@node2 mnt]# ll

total 8

-rw-r--r--. 1 root root 47 Dec 21 19:06 issue


ok,换node4

[iyunv@node4 ~]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l

node4不用再次格式化,直接挂载

[iyunv@node4 ~]# mount -t gfs2 /dev/sdc1 /mnt

[iyunv@node4 ~]# cd /mnt

[iyunv@node4 mnt]# ll \\可以看到node1复制的文件

total 8

-rw-r--r--. 1 root root 47 Dec 21 19:06 issue

node4创建一个文件a.txt,会立马通知给其他节点,让其看到,这就是集群文件系统gfs2的好处

[iyunv@node4 mnt]# touch a.txt

[iyunv@node2 mnt]# ll

total 16

-rw-r--r--. 1 root root  0 Dec 21 19:10 a.txt

-rw-r--r--. 1 root root 47 Dec 21 19:06 issue


在加一个节点node5

[iyunv@node5 ~]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l

挂载不上去,因为只创建了两个集群日志文件,有几个日志几个节点就能挂载

[iyunv@node5 ~]# mount -t gfs2 /dev/sdc1 /mnt

Too many nodes mounting filesystem, no free journals

添加日志

[iyunv@node2 mnt]# gfs2_jadd -j 1 /dev/sde1 \\-j 1 增加一个日志

Filesystem:            /mnt

Old Journals           2

New Journals           3

[iyunv@node2 mnt]# gfs2_tool journals /dev/sde1 \\此命令可以查看有几个日志,每个默认大小128M

journal2 - 128MB

journal1 - 128MB

journal0 - 128MB

3 journal(s) found.

[iyunv@node5 ~]# mount -t gfs2 /dev/sdc1 /mnt \\node5挂载成功

[iyunv@node5 ~]# cd /mnt

[iyunv@node5 mnt]# touch b.txt

[iyunv@node4 mnt]# ll

total 24

-rw-r--r--. 1 root root  0 Dec 21 19:10 a.txt

-rw-r--r--. 1 root root  0 Dec 21 19:18 b.txt

-rw-r--r--. 1 root root 47 Dec 21 19:06 issue


gfs2集群文件系统一般支持的集群数量不能超过16个,超过后,性能直线下降



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-317675-1-1.html 上篇帖子: fedora24恢复终端Shortcuts 下篇帖子: Cetos6.5安装jdk1.8.0_111-1.8.0_111-fcs.i586
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表