设为首页 收藏本站
查看: 1139|回复: 0

[经验分享] Clvm+iscsi&GFS整合lvs-dr+Heartbeat+ldirectory实现高可用性负载均衡集群(上)

[复制链接]

尚未签到

发表于 2015-11-21 11:52:58 | 显示全部楼层 |阅读模式
  http://roman.blog.iyunv.com/864028/222405
  
实现环境:Vmware workstation6.5+CentOS 5.3实验目标:用CLVM和IP-SAN的高性能与高扩展性集群存储整合LVS-DR+HEARTBEAT的负载均衡分配地址:
存储服务器:172.16.1.1 cha.vs.com
realserver1: 172.16.1.2 chb.vs.comrealserver2: 172.16.1.3  chc.vs.com主lvs负载均衡器:172.16.1.4  chd.vs.com备份负载均衡器: 172.16.1.5  che.vs.com (其中主备负载均衡器之间用心跳线相连接口均为eth1。地址为10.1.1.1/24 10.1.1.2/24首先在存储服务器和两个realserver上来配置Clvm+iscsi&GFS高可用集群环境  先来配置存储服务器,再装系统的时候,集群和集群存储全选(两个realserver也是一样)。再安装iscsi-initiator-utils 给存储服务器添加一块硬盘大小随意。(我加了一块4G的)新建一个分区 fdisk /dev/sdb 第一个分区/dev/sdb1 (最好不要格式化)启动scsi-target服务
/etc/init.d/tgtd start && chkconfig tgtd on 资源声明       使用什么设备              新建        模式         设备号                     设备名字 tgtadm --lld iscsi --op new --mode target -t1 -T iqn.2009-10.vs.disk1 建立磁盘映射tgtadm --lld iscsi --op new --mode logicalunit -t1 --lun 1 -b /dev/sdb1
访问控制    ALL 任意    可以规定网段 和IP tgtadm --lld iscsi --op bind --mode target -t1 -I ALL 查看
tgtadm --lld iscsi --op show --mode target 显示信息如下:Target 1: iqn.2009-10.vs.disk1
    System information:
        Driver: iscsi
        State: ready
    I_T nexus information:
    LUN information:
        LUN: 0
            Type: controller
            SCSI ID: deadbeaf1:0
            SCSI SN: beaf10
            Size: 0 MB
            Online: Yes
            Removable media: No
            Backing store: No backing store
        LUN: 1
            Type: disk
            SCSI ID: deadbeaf1:1
            SCSI SN: beaf11
            Size: 4294 MB
            Online: Yes
            Removable media: No
            Backing store: /dev/sdb1
    Account information:
    ACL information:
        ALL接下来 把上述命令全部写入 /etc/rc.local 使其能够开机启动 下面我们开始设置realserver 统一realserver的主机名
/etc/hosts
172.16.1.2   chb.vs.com
172.16.1.3   chc.vs.com 修改两个节点的sysctl.conf 文件 关闭arp响应net.ipv4.ip_forward = 1
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_announce = 2在/etc/init.d/下建立 lvs启动脚本 (为以后做准备)chmod 755 lvs.sh#!/bin/sh
ifconfig lo:0 172.16.1.9 broadcast 172.16.1.9 netmask 255.255.255.255 up
route add -host 172.16.1.9 dev lo:0上面的操作两台realserver是都要作的 启动iscsi服务/etc/init.d/iscsi restart查看存储信息iscsiadm -m discovery -t sendtargets -p 172.16.1.1:3260
显示信息172.16.1.1:3260,1 iqn.2009-10.vs.disk1 连接资源iscsiadm -m node -T iqn.2009-10.vs.disk1 -l 提示连接成功
Logging in to [iface: default, target: iqn.2009-10.vs.disk1, portal: 172.16.1.1,3260]
Login to [iface: default, target: iqn.2009-10.vs.disk1, portal: 172.16.1.1,3260]: successful 这时在你的 /dev/下应该多了一个硬盘 fdisk - /dev/sdbDisk /dev/sdb: 4293 MB, 4293563904 bytes
133 heads, 62 sectors/track, 1016 cylinders
Units = cylinders of 8246 * 512 = 4221952 bytes   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1         244     1005981   83  Linux 上述命令在另外一台realserver再执行一次 并写入rc.local接下来 在存储服务器上来配置集群环境 (用luci 或 system-config-cluster都可以)执行system-config-cluster 把两台realserver的hostname加进去就OK了 组播地址可设可不设。两边同时启动cman /etc/init.d/cman start 两边同时执行 lvmconf --enable-cluster 和 /etc/init.d/clvmd start   建立PV
pvcreate /dev/sdb1
vgcreate "vg0" /dev/sdb1
lvcreate -n lv0 -L 500M /dev/vg0
好了,到这里你可以在另外的realserver上执行一下 lvdisplay,查看是否也已经建立成功
下一步我们要把我们的分区变成GFS文件系统
装这两个包 gfs-utils  kmod-gfs 执行 gfs_mkfs -t mycluster:mygfs -p lock_dlm -j 2 /dev/vg0/lv0
这里的 mycluster是我刚才用system-config-cluster建立的cluster 名字
下面是提示信息This will destroy any data on /dev/vg0/lv0.

Are you sure you want to proceed? [y/n] y

Device:                    /dev/vg0/lv0
Blocksize:                 4096
Filesystem Size:           62420
Journals:                  2
Resource Groups:           8
Locking Protocol:          lock_dlm
Lock Table:                mycluster:mygfs

Syncing...
All Done
下面在两台realserver上面都试试看,是不是直接可以用了!呵呵
mount /dev/vg0/lv0 /var/www/html/
执行mount 命令查看
/dev/mapper/vg0-lv0 on /var/www/html type gfs (rw,hostdata=jid=0:id=65538:first=1)
在/var/www/html/ 下面建立 index.html 随便输入点东西测试用,还有test.html 内容是“ ceshi“ 用来给ldirectord作测试用 存储就算做完了 下面来做 lvs-dr+heartbeat负载均衡

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-141799-1-1.html 上篇帖子: Heartbeat做apache双机热备 下篇帖子: Clvm+iscsi&GFS整合lvs-dr+Heartbeat+ldirectory实现高可用性负载均衡集群(下)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表