设为首页 收藏本站
查看: 1929|回复: 0

[经验分享] CentOS7 Ceph RBD CephFS 存储

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2017-2-13 14:28:49 | 显示全部楼层 |阅读模式

Ceph RBD  CephFS 存储

环境准备: (这里只做基础测试, ceph-manager , ceph-mon, ceph-osd 一共三台)

10.6.0.140 = ceph-manager

10.6.0.187 = ceph-mon-1

10.6.0.188 = ceph-osd-1

10.6.0.94 = node-94


注: ceph 对时间要求很严格, 一定要同步所有的服务器时间


一、在 manager 上面修改 /etc/hosts :

10.6.0.187 ceph-mon-1
10.6.0.188 ceph-osd-1
10.6.0.94 node-94


二、并修改各服务器上面的 hostname (说明:ceph-deploy工具都是通过主机名与其他节点通信)

hostnamectl --static set-hostname ceph-manager
hostnamectl --static set-hostname ceph-mon-1
hostnamectl --static set-hostname ceph-osd-1
hostnamectl --static set-hostname node-94


三、配置manager节点与其他节点ssh key 访问

[iyunv@ceph-manager ~]# ssh-keygen


将key 发送到各节点中

[iyunv@ceph-manager ~]#ssh-copy-id ceph-mon-1
[iyunv@ceph-manager ~]#ssh-copy-id ceph-osd-1


四、在manager节点安装 ceph-deploy

[iyunv@ceph-manager ~]#yum -y install centos-release-ceph
[iyunv@ceph-manager ~]#yum makecache
[iyunv@ceph-manager ~]#yum -y install ceph-deploy ntpdate

在其他各节点安装 ceph 的yum源

[iyunv@ceph-mon-1 ~]# yum -y install centos-release-ceph
[iyunv@ceph-mon-1 ~]# yum makecache


[iyunv@ceph-osd-1 ~]# yum -y install centos-release-ceph
[iyunv@ceph-osd-1 ~]# yum makecache

五、配置ceph集群

创建ceph 目录
[iyunv@ceph-manager ~]#mkdir -p /etc/ceph
[iyunv@ceph-manager ~]#cd /etc/ceph

创建监控节点:
[iyunv@ceph-manager /etc/ceph]#ceph-deploy new ceph-mon-1

执行完毕会生成 ceph.conf ceph.log ceph.mon.keyring 三个文件

编辑 ceph.conf 增加 osd 节点数量
在最后增加:
osd pool default size = 1


使用ceph-deploy在所有机器安装ceph

[iyunv@ceph-manager /etc/ceph]# ceph-deploy install ceph-manager ceph-mon-1 ceph-osd-1

如果出现错误,也可以到各节点中直接 yum -y install ceph ceph-radosgw 进行安装


初始化监控节点

[iyunv@ceph-manager /etc/ceph]# ceph-deploy mon create-initial


osd 节点创建存储空间

[iyunv@ceph-osd-1 ~]# mkdir -p /opt/osd1


在管理节点上启动 并 激活 osd 进程

[iyunv@ceph-manager ~]# ceph-deploy osd prepare ceph-osd-1:/opt/osd1
[iyunv@ceph-manager ~]# ceph-deploy osd activate ceph-osd-1:/opt/osd1


把管理节点的配置文件与keyring同步至其它节点

[iyunv@ceph-manager ~]# ceph-deploy admin ceph-mon-1 ceph-osd-1


查看集群健康状态 (HEALTH_OK 表示OK)

[iyunv@ceph-manager ~]# ceph health
HEALTH_OK



客户端 挂载: ceph 有多种挂载方式, rbd 块设备映射, cephfs 挂载 等

注:
在生产环境中,客户端应该对应pool的权限,而不是admin 权限


[iyunv@ceph-manager ~]# ssh-copy-id node-94

客户端安装ceph
[iyunv@ceph-manager ~]# ceph-deploy install node-94


或者 登陆 node-94 执行 yum -y install ceph ceph-radosgw

如果ssh 非22端口,会报错 可使用 scp 传

scp -P端口 ceph.conf node-94:/etc/ceph/
scp -P端口 ceph.client.admin.keyring node-94:/etc/ceph/


创建一个pool
[iyunv@ceph-manager ~]# ceph osd pool create press 100
pool 'press' created


设置pool 的pgp_num
[iyunv@ceph-manager ~]# ceph osd pool set press pgp_num 100


查看创建的pool
[iyunv@ceph-manager ~]# ceph osd lspools
0 rbd,1 press,


设置副本数为2 (osd 必须要大于或者等于副本数,否则报错, 千万注意)
[iyunv@ceph-manager ~]# ceph osd pool set press size 2


创建一个100G 名为 image 镜像
[iyunv@ceph-manager ~]# rbd create -p press --size 100000 image


查看一下镜像:
[iyunv@ceph-manager ~]# rbd -p press info image
rbd image 'image':
size 100000 MB in 25000 objects
order 22 (4096 kB objects)
block_name_prefix: rb.0.104b.74b0dc51
format: 1


客户端块存储挂载:
在node-94 上面 map 镜像
[iyunv@node-94 ~]# rbd -p press map image
/dev/rbd0


格式化 image
[iyunv@node-94 ~]# mkfs.xfs /dev/rbd0

创建挂载目录
[iyunv@node-94 ~]# mkdir /opt/rbd


挂载 rbd
[iyunv@node-94 ~]# mount /dev/rbd0 /opt/rbd

[iyunv@node-94 ~]# time dd if=/dev/zero of=haha bs=1M count=1000


取消 map 镜像
[iyunv@node-94 ~]# umount /opt/rbd
[iyunv@node-94 ~]# rbd unmap /dev/rbd0




客户端 cephFS 文件系统 (cephFS 必须要有2个osd 才能运行,请注意):

使用 cephFS 集群中必须有 mds 服务

创建 mds 服务 (由于机器有限就在 mon 的服务器上面 创建 mds 服务)
[iyunv@ceph-manager ~]# ceph-deploy mds create ceph-mon-1


创建2个pool 做为文件系统的data 与 metadata

[iyunv@ceph-manager ~]# ceph osd pool create cephfs_data 99
pool 'cephfs_data' created


[iyunv@ceph-manager ~]# ceph osd pool create cephfs_metadata 99
pool 'cephfs_metadata' created


创建 文件系统:
[iyunv@ceph-manager ~]# ceph fs new jicki cephfs_metadata cephfs_data
new fs with metadata pool 6 and data pool 5


查看所有文件系统:
[iyunv@ceph-manager ~]# ceph fs ls
name: jicki, metadata pool: cephfs_metadata, data pools: [cephfs_data ]


删除一个文件系统
[iyunv@ceph-manager ~]# ceph fs rm jicki --yes-i-really-mean-it


客户端挂载 cephFS

安装 ceph-fuse:
[iyunv@node-94 ~]# yum install ceph-fuse -y

创建挂载目录:
[iyunv@node-94 ~]# mkdir -p /opt/jicki
[iyunv@node-94 ~]# ceph-fuse /opt/jicki
[iyunv@node-94 ~]# df -h|grep ceph
ceph-fuse 1.6T 25G 1.6T 2% /opt/jicki



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-341659-1-1.html 上篇帖子: docker registry接入ceph Swift API 下篇帖子: Centos7-单台物理机搭建ceph集群
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表