设为首页 收藏本站
查看: 2299|回复: 0

[经验分享] RHCS +GFS2+iscsi+cLVM实现高可用web集群

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2015-5-7 08:26:10 | 显示全部楼层 |阅读模式
                      RHEL6.6-x86-64
软件源:
    epel源
    本地yum源


RHCS安装及配置
192.168.1.5   安装luci      两块硬盘, 其中/sdb提供共享存储。


集群节点
192.168.1.6  安装ricci     node1.mingxiao.info     node1
192.168.1.7  安装ricci     node2.mingxiao.info     node2
192.168.1.8 安装ricci      node3.mingxiao.info     node3


前提:
1> 192.168.1.5分别与node1,node2,node3互信
2> 时间同步
3> 节点主机名分别为node1.mingxiao.info、node2.mingxiao.info、node3.mingxiao.info

进主机192.168.1.5
1
2
3
4
5
6
vim /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.6 node1.mingxiao.info node1
192.168.1.7 node2.mingxiao.info node2
192.168.1.8 node3.mingxiao.info node3



# for I in {1..3}; do scp /etc/hosts node$I:/etc;done

时间同步
# for I in {1..3}; do ssh node$I 'ntpdate time.windows.com';done

节点间互信。
.....

# yum -y install luci
# for I in {1..3}; do ssh node$I 'yum -y install ricci'; done
# for I in {1..3}; do ssh node$I 'echo xiaoming | passwd --stdin ricci'; done
# for I in {1..3}; do ssh node$I 'service ricci start;chkconfig ricci on'; done
# for I in {1..3}; do ssh node$I 'yum -y install httpd'; done
# service luci start


浏览器输入https://192.168.1.5:8084访问web管理界面,输入root用户和root密码
wKiom1VKMnSht8amAAI31KguBow679.jpg

创建集群,Password输入各节点ricci用户密码,
wKiom1VKM4WjH-oSAAMuCgHxIuA545.jpg




添加资源,这里添加两个一个为VIP,一个为httpd,添好如下图界面

wKioL1VKNcrSZYmzAAJwi2tdaR0266.jpg
wKiom1VKNFjhZe0oAAIIEl_-9QU892.jpg



添加故障转移域,如下图:

wKioL1VKNr-z3XJoAAKdutg6NDw769.jpg

由于没有fences设备,所以不再添加。




接下来要配置iscsi,提供共享存储:
进192.168.1.5

# yum -y install scsi-target-utils
# for I in {1..3}; do ssh node$I 'yum -y install iscsi-initiator-utils'; done



1
2
3
4
5
6
7
8
9
vim /etc/tgt/targets.conf   添加如下内容
<target iqn.2015-05.ingo.mingxiao:ipsan.sdb>
  <backing-store /dev/sdb>
     vendor_id Xiaoming
     lun 1
  </backing-store>
  initiator-address 192.168.1.0/24
  incominguser iscsiuser xiaoming
</target>




# service tgtd start


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
# tgtadm --lld iscsi --mode target --op show  #可查看到如下信息
Target 1: iqn.2015-05.ingo.mingxiao:ipsan.sdb
    System information:
        Driver: iscsi
        State: ready
    LUN information:
        LUN: 0
            Type: controller
            SCSI ID: IET     00010000
            SCSI SN: beaf10
            Size: 0 MB, Block size: 1
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            Backing store type: null
            Backing store path: None
            Backing store flags:
        LUN: 1
            Type: disk
            SCSI ID: IET     00010001
            SCSI SN: beaf11
            Size: 21475 MB, Block size: 512
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            Backing store type: rdwr
            Backing store path: /dev/sdb
            Backing store flags:
    Account information:
        iscsiuser
    ACL information:
        192.168.1.0/24




1
# for I in {1..3}; do ssh node$I 'echo "InitiatorName=`iscsi-iname -p iqn.2015-05.info.mingxiao`" > /etc/iscsi/initiatorname.iscsi'; done






1
2
3
4
vim /etc/iscsi/iscsid.conf       #在node1、node2、node3启用下面三行
node.session.auth.authmethod = CHAP
node.session.auth.username = iscsiuser
node.session.auth.password = xiaoming






1
2
3
4
5
6
7
# ha ssh node$I 'iscsiadm -m discovery -t st -p 192.168.1.5';done
[  OK  ] iscsid: [  OK  ]
192.168.1.5:3260,1 iqn.2015-05.ingo.mingxiao:ipsan.sdb
[  OK  ] iscsid: [  OK  ]
192.168.1.5:3260,1 iqn.2015-05.ingo.mingxiao:ipsan.sdb
[  OK  ] iscsid: [  OK  ]
192.168.1.5:3260,1 iqn.2015-05.ingo.mingxiao:ipsan.sdb





1
2
3
4
5
6
7
# ha ssh node$I 'iscsiadm -m node -T iqn.2015-05.ingo.mingxiao:ipsan.sdb -p 192.168.1.5 -l ';done
Logging in to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] (multiple)
Login to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] successful.
Logging in to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] (multiple)
Login to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] successful.
Logging in to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] (multiple)
Login to [iface: default, target: iqn.2015-05.ingo.mingxiao:ipsan.sdb, portal: 192.168.1.5,3260] successful.




node1,node2,node3分别安装以下两个rpm包,rpmfind.net可找到
1
2
3
4
5
# rpm -ivh lvm2-cluster-2.02.111-2.el6.x86_64.rpm gfs2-utils-3.0.12.1-68.el6.x86_64.rpm
warning: lvm2-cluster-2.02.111-2.el6.x86_64.rpm: Header V3 RSA/SHA1 Signature, key ID c105b9de: NOKEY
Preparing...                ########################################### [100%]
   1:gfs2-utils             ########################################### [ 50%]
   2:lvm2-cluster           ########################################### [100%]





进node1
# pvcreate /dev/sdb
# vgcreate clustervg /dev/sdb
# lvcreate -L 5G -n clusterlv clustervg
# mkfs.gfs2 -j 2 -p lock_dlm -t mycluster:sdb  /dev/clustervg/clusterlv


添加一个服务,名为webservice
wKioL1VKPJfBoYmSAAK26GD0JZU239.jpg

将先前VIP资源加入
wKiom1VKO6LQNTF0AAGCAjB4ddE271.jpg



新建一个GFS2资源,并加入
wKioL1VKPRSx5zdIAAG74As2pz8473.jpg

将先前httpd资源加入
wKiom1VKO6KQWZNrAAEeIHFU8YY095.jpg


然后启动即可。
查看状态:
1
2
3
4
5
6
7
8
9
10
11
# clustat
Cluster Status for mycluster @ Thu May  7 00:07:21 2015
Member Status: Quorate
Member Name                                             ID   Status
------ ----                                             ---- ------
node1.mingxiao.info                                         1 Online, Local, rgmanager
node2.mingxiao.info                                         2 Online, rgmanager
node3.mingxiao.info                                         3 Online, rgmanager
Service Name                                   Owner (Last)                                   State         
------- ----                                   ----- ------                                   -----         
service:webservice                             node1.mingxiao.info                            started







   

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-64400-1-1.html 上篇帖子: 关于ha高可用性的安装,ClusterIP和tomcat的配置 下篇帖子: 高可用集群架构详解(基于corosync)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表