设为首页 收藏本站
查看: 963|回复: 0

[经验分享] centos7 搭建GlusterFS

[复制链接]

尚未签到

发表于 2019-2-1 10:38:39 | 显示全部楼层 |阅读模式
  实验需求:
  ·4台机器安装GlusterFS组成一个集群
  ·客户端把docker registry存储到文件系统里
  ·4个节点的硬盘空间不整合成一个硬盘空间,要求每个节点都存储一份,保证数据安全
  环境规划
  server
  node1:192.168.0.165  主机名:glusterfs1
  node2:192.168.0.157  主机名:glusterfs2
  node3:192.168.0.166  主机名:glusterfs3
  node4:192.168.0.150  主机名:glusterfs4
  client
  192.168.0.164      主机名:master3
  实验前准备
  ·所有主机关闭防火墙,SElinux
  ·修改hosts文件,能够互相解析
192.168.0.165  glusterfs1
192.168.0.157  glusterfs2
192.168.0.166  glusterfs3
192.168.0.150  glusterfs4
192.168.0.164  master3  安装
  服务端
  1.在glusterfs {1-4}节点上安装GlusrerFS软件包
# wget -P /etc/yum.repos.d http://download.gluster.org/pub/gluster/glusterfs/LATEST/EPEL.repo/glusterfs-epel.repo
# yum install -y glusterfs glusterfs-server glusterfs-fuse
出现librcu的错误需要安装
userspace-rcu-0.7.9-1.el7.x86_64
# service  glusterd start
# chkconfig glusterd on  2.在glusterfs1节点上配置整个GlusterFS集群,把各个节点加入到集群
[root@glusterfs1 ~]# gluster peer probe glusterfs1
  1 peer probe: success: on localhost not needed
[root@glusterfs1 ~]# gluster peer probe glusterfs2
  1 peer probe: success
[root@glusterfs1 ~]# gluster peer probe glusterfs2
  1 peer probe: success
[root@glusterfs1 ~]# gluster peer probe glusterfs2
 1 peer probe: success  3.查看节点状态
[root@glusterfs1 ~]#gluster peer status  4.在glusterfs{1-4}上创建数据存储目录
# mkdir -p  /usr/local/share/models  5.查看卷
[root@glusterfs1 ~]# gluster volume info
Volume Name: models
Type: Distribute
Volume ID: b81587ff-5dd6-49b9-b46b-afe5df38d8c7
Status: Started
Number of Bricks: 4
Transport-type: tcp
Bricks:
Brick1: glusterfs1:/usr/local/share/models
Brick2: glusterfs2:/usr/local/share/models
Brick3: glusterfs3:/usr/local/share/models
Brick4: glusterfs4:/usr/local/share/models
Options Reconfigured:
performance.readdir-ahead: on  5.在glusterfs1上创建GlusterFS磁盘
  注意:
  加上replica 4就是4个节点中,每个节点都要把数据存储一次,就是一个数据存储4份,每个节点一份
  如果不加replica 4,就是4个节点的磁盘空间整合成一个硬盘,
[root@glusterfs1 ~]#gluster volume create models replica 4 glusterfs1:/usr/local/share/models glusterfs2:/usr/local/share/models glusterfs3:/usr/local/share/models glusterfs4:/usr/local/share/models force
1 volume create: models: success: please start the volume to access data  6.启动
[root@glusterfs1 ~]# gluster volume start models  客户端
  1.部署GlusterFS客户端并mount GlusterFS文件系统
[root@master3 ~]# wget -P /etc/yum.repos.d http://download.gluster.org/pub/gluster/glusterfs/LATEST/EPEL.repo/glusterfs-epel.repo
[root@master3 ~]# yum install -y glusterfs glusterfs-fuse
[root@master3 ~]# mkdir -p /mnt/models
[root@master3 ~]# mount -t glusterfs -o ro glusterfs1:models /mnt/models/
#加上 -o ro 的意思是 只读  2.查看效果
[root@master3 ~]#df -h
Filesystem         Size  Used Avail Use% Mounted on
/dev/vda3          289G  5.6G  284G   2% /
devtmpfs           3.9G     0  3.9G   0% /dev
tmpfs              3.9G   80K  3.9G   1% /dev/shm
tmpfs              3.9G  169M  3.7G   5% /run
tmpfs              3.9G     0  3.9G   0% /sys/fs/cgroup
/dev/vda1         1014M  128M  887M  13% /boot
glusterfs1:models  189G  3.5G  186G   2% /mnt/models  其他操作命令
  删除GlusterFS磁盘
# gluster volume stop   models   #先停止
# gluster volume delete models    #再删除  卸载GlusterFS磁盘
gluster peer detach glusterfs4  ACL访问控制
gluster volume set models auth.allow 10.60.1.*,10.70.1.*  添加GlusterFS节点
# gluster peer probe sc2-log5
# gluster peer probe sc2-log6
# gluster volume add-brick models sc2-log5:/data/gluster sc2-log6:/data/gluster  迁移GlusterFS数据
# gluster volume remove-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models start
# gluster volume remove-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models status
# gluster volume remove-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models commit  修复GlusterFS数据(在节点1宕机的情况下)
# gluster volume replace-brick models sc2-log1:/usr/local/share/models sc2-log5:/usr/local/share/models commit -force
# gluster volume heal models full  





运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-670359-1-1.html 上篇帖子: Glusterfs 扩容、缩减 下篇帖子: Glusterfs分布式存储的安装
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表