设为首页 收藏本站
查看: 1031|回复: 0

[经验分享] ceph分布式存储实战(5)——ceph存储配置(RBD镜像日常管理)

[复制链接]

尚未签到

发表于 2019-2-1 14:22:39 | 显示全部楼层 |阅读模式
一、在线调整Ceph RBD的容量大小
1、支持调整ceph RBD的容量大小的底层文件系统
    自由的增加或者减少RBD的容量,需要底层文件系统的支持,支持的文件系统有
    1、XFS
    2、EXT
    3、Btrfs
    4、ZFS
2、将RBD镜像ceph-client1-rbd1原始容量是10G扩容为20G,(在ceph集群中任意一台节点上)执行的命令如下:
    rbd resize rbd/ceph-client1-rbd1 --size 20480
    [root@ceph-node1 ~]# rbd info ceph-client1-rbd1
    rbd image 'ceph-client1-rbd1':
    size 20480 MB in 5120 objects #已经扩容为20G
    order 22 (4096 kB objects)
    block_name_prefix: rbd_data.857a238e1f29
    format: 2
    features: layering
    flags:
3、在客户端上检查新的容量是否已经被内核所接受
    [root@ceph-client1 ceph-vol1]# xfs_growfs -d /mnt/ceph-vol1/
    meta-data=/dev/rbd0              isize=512    agcount=17, agsize=162816 blks
             =                       sectsz=512   attr=2, projid32bit=1
             =                       crc=1        finobt=0 spinodes=0
    data     =                       bsize=4096   blocks=2621440, imaxpct=25
             =                       sunit=1024   swidth=1024 blks
    naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
    log      =internal               bsize=4096   blocks=2560, version=2
             =                       sectsz=512   sunit=8 blks, lazy-count=1
    realtime =none                   extsz=4096   blocks=0, rtextents=0
    data blocks changed from 2621440 to 5242880
    [root@ceph-client1 ceph-vol1]# df -h
    Filesystem           Size  Used Avail Use% Mounted on
    devtmpfs             471M     0  471M   0% /dev
    tmpfs                483M     0  483M   0% /dev/shm
    tmpfs                483M  6.6M  477M   2% /run
    tmpfs                483M     0  483M   0% /sys/fs/cgroup
    /dev/mapper/cl-root  8.0G  1.5G  6.5G  19% /
    /dev/sda1           1014M  186M  829M  19% /boot
    tmpfs                 97M     0   97M   0% /run/user/0
    /dev/rbd0             20G  134M   20G   1% /mnt/ceph-vol1 #已经是20G
二、创建Ceph RBD快照
    1、在/mnt/ceph-vol1目录下创建一个文件,用于演示
    [root@ceph-client1 ceph-vol1]# cd /mnt/ceph-vol1
    [root@ceph-client1 ceph-vol1]# vi file_1
    #文件内容如下:
        hello world 1
    2、创建快照
    [root@ceph-client1 ceph-vol1]# rbd snap create rbd/ceph-client1-rbd1@snap1   #快照名字:snap1
    3、查看镜像的快照
    [root@ceph-client1 ceph-vol1]# rbd snap ls rbd/ceph-client1-rbd1
        SNAPID NAME      SIZE
             4 snap1 20480 MB
    4、演示恢复快照的效果,删除原来的文件,并再次创建一个文件
    [root@ceph-client1 ceph-vol1]# rm -rf file_1
    [root@ceph-client1 ceph-vol1]# ls -l
        total 8
        -rw-r--r-- 1 root root 13 Jan  7 22:32 file_2
    这时候有一个文件file_2,记住刚才做快照的时候,是file_1文件,但是目前被删除了,并且误创建了一个file_2文件
    也就是说恢复快照之后会恢复回原来的file_1文件
    5、恢复快照(在生产环境中,请谨慎操作,)
    [root@ceph-client1 ceph-vol1]# rbd snap rollback rbd/ceph-client1-rbd1@snap1
    Rolling back to snapshot: 100% complete...done.
    快照回滚操作完成后,重新挂载文件系统以刷新文件系统状态
    umount /mnt/ceph-vol1
    mount /dev/rbd0 /mnt/ceph-vol1
    6、快照的删除,删除指定的快照
    rbd snap rm rbd/ceph-client1-rbd1@snap1
    7、一次性删除所有快照
    [root@ceph-client1 ~]# rbd snap purge rbd/ceph-client1-rbd1
    8、如果需要删除RBD镜像,命令如下
     rbd rm ceph-client1-rbd1 -p rbd
三、复制Ceph RBD
    cow副本:
        ceph存储集群可以从rbd的快照中创建写时复制副本(cow副本),这就是ceph的快照分层。
        RBD父快照是只读的,再从这个RBD父快照创建cow副本,那么cow副本是可读可写的
    注意:
        rbd镜像分为两种类型,分别是format-1,还有format-2,这两种类型都支持快照的特性
        但是,只有format-2类型支持分层的特性(cow赋值特性),如果在创建rbd镜像时,没有明确指定属于哪种类型
        那么默认是format-1类型。因此,
    1、创建属于format-2类型的rbd镜像
    [root@ceph-node1 my-cluster]# rbd create ceph-client1-rbd2 --size 5024 --image-feature layering --image-format 2
    2、创建快照
    [root@ceph-node1 my-cluster]# rbd snap create rbd/ceph-client1-rbd2@snapshot_for_clone
    3、要创建cow副本之前,将快照设置为保护状态(预防被误删,导致cow分层快照无法使用)
    [root@ceph-node1 my-cluster]# rbd snap protect rbd/ceph-client1-rbd2@snapshot_for_clone
    4、开始创建cow副本
    注意:
        赋值快照需要父存储池,RBD镜像以及快照的名称,对于子实例来说,它需要池以及RBD镜像的名称
    [root@ceph-node1 my-cluster]# rbd clone rbd/ceph-client1-rbd2@snapshot_for_clone rbd/ceph-client1-cow-rbd3
   
    5、查看cown副本信息
    [root@ceph-node1 my-cluster]# rbd --pool rbd --image ceph-client1-cow-rbd3 info
    rbd image 'ceph-client1-cow-rbd3':
    size 5024 MB in 1256 objects
    order 22 (4096 kB objects)
    block_name_prefix: rbd_data.197553d1b58ba
    format: 2
    features: layering
    flags:
    parent: rbd/ceph-client1-rbd2@snapshot_for_clone   #父镜像是rbd/ceph-client1-rbd2@snapshot_for_clone
    overlap: 5024 MB
    到此,就已经克隆了一个RBD镜像
    6、扁平化该镜像(可选操作)
    说明:
        如果想让克隆出来的快照不依赖它的父镜像,那么就需要扁平化。
        这样的话,克隆出来的RBD镜像就和它的父镜像快照没有任何依赖了
        6.1 启动扁平化
        [root@ceph-node1 my-cluster]# rbd flatten ceph-client1-cow-rbd3
        Image flatten: 100% complete...done.
        6.2 查看cow快照
        [root@ceph-node1 my-cluster]# rbd --pool rbd --image ceph-client1-cow-rbd3 info
        rbd image 'ceph-client1-cow-rbd3':
        size 5024 MB in 1256 objects
        order 22 (4096 kB objects)
        block_name_prefix: rbd_data.197553d1b58ba
        format: 2
        features: layering
        flags:
        发现没有了parent:选项,已经变成了一个独立的镜像
    7、删除父镜像快照
        7.1 删除之前首先解除保护状态
        [root@ceph-node1 my-cluster]# rbd snap unprotect rbd/ceph-client1-rbd2@snapshot_for_clone
        7.2 开始删除
        [root@ceph-node1 my-cluster]# rbd snap rm rbd/ceph-client1-rbd2@snapshot_for_clone



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-670538-1-1.html 上篇帖子: Openstack ocata+Ceph12+centos7 下篇帖子: ceph离线安装与日常简单维护
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表