设为首页 收藏本站
查看: 1159|回复: 0

[经验分享] ceph 相关命令

[复制链接]

尚未签到

发表于 2019-2-1 14:43:56 | 显示全部楼层 |阅读模式



一、manager 篇

查看实时的运行状态信息:
[root@ceph-manager ~]# ceph -w


查看状态信息:
[root@ceph-manager ~]# ceph -s


查看存储空间:
[root@ceph-manager ~]# ceph df


删除某个节点的所有的ceph数据包:
[root@ceph-manager ~]# ceph-deploy purge ceph-mon-1
[root@ceph-manager ~]# ceph-deploy purgedata ceph-mon-1


为ceph创建一个admin用户并为admin用户创建一个密钥,把密钥保存到/etc/ceph目录下:
[root@ceph-manager ~]# ceph auth get-or-create client.admin mds 'allow' osd 'allow *' mon 'allow *' -o /etc/ceph/ceph.client.admin.keyring


为osd.ceph-osd-1创建一个用户并创建一个key
[root@ceph-manager ~]# ceph auth get-or-create osd.ceph-osd-1 mon 'allow rwx' osd 'allow *' -o /etc/ceph/keyring


为mds.ceph-mon-1创建一个用户并创建一个key
[root@ceph-manager ~]# ceph auth get-or-create mds.ceph-mon-1 mon 'allow rwx' osd 'allow *' mds 'allow *' -o /etc/ceph/keyring


查看ceph集群中的认证用户及相关的key
[root@ceph-manager ~]# ceph auth list


删除集群中的一个认证用户
[root@ceph-manager ~]# ceph auth del osd.0


查看集群健康状态详细信息
[root@ceph-manager ~]# ceph health detail


查看ceph log日志所在的目录
[root@ceph-manager ~]# ceph-conf --name mds.ceph-manager --show-config-value log_file


二、mon 篇
查看mon的状态信息
[root@ceph-manager ~]# ceph mon stat


查看mon的选举状态
[root@ceph-manager ~]# ceph quorum_status --format json-pretty


看mon的映射信息
[root@ceph-manager ~]# ceph mon dump


删除一个mon节点
[root@ceph-manager ~]# ceph mon remove ceph-mon-1


获得一个正在运行的mon map,并保存在mon-1-map.txt文件中
[root@ceph-manager ~]# ceph mon getmap -o mon-1-map.txt


查看mon-1-map.txt
[root@ceph-manager ~]# monmaptool --print mon-1-map.txt


把上面的mon map注入新加入的节点
[root@ceph-manager ~]# ceph-mon -i ceph-mon-3 --inject-monmap mon-1-map.txt


查看mon的socket
[root@ceph-manager ~]# ceph-conf --name mon.ceph-mon-1 --show-config-value admin_socket


查看mon的详细状态
[root@ceph-mon-1 ~]# ceph daemon mon.ceph-mon-1 mon_status


删除一个mon节点
[root@ceph-manager ~]# ceph mon remove ceph-mon-1


三、msd 篇

查看msd状态
[root@ceph-manager ~]# ceph mds dump


删除一个mds节点
[root@ceph-manager ~]# ceph mds rm 0 mds.ceph-mds-1



四、osd 篇
查看ceph osd运行状态
[root@ceph-manager ~]# ceph osd stat


查看osd映射信息
[root@ceph-manager ~]# ceph osd stat


查看osd的目录树
[root@ceph-manager ~]# ceph osd tree


down掉一个osd硬盘 (ceph osd tree 可查看osd 的硬盘信息,下面为down osd.0 节点)
[root@ceph-manager ~]# ceph osd down 0


在集群中删除一个osd硬盘
[root@ceph-manager ~]# ceph osd rm 0


在集群中删除一个osd 硬盘 并 crush map 清除map信息
[root@ceph-manager ~]# ceph osd crush rm osd.0


在集群中删除一个osd的host节点
[root@ceph-manager ~]# ceph osd crush rm ceph-osd-1


查看最大osd的个数
[root@ceph-manager ~]# ceph osd getmaxosd


设置最大的osd的个数(当扩大osd节点的时候必须扩大这个值)
[root@ceph-manager ~]# ceph osd setmaxosd 10


设置osd crush的权重 ceph osd crush set    ID WEIGHT NAME 使用 ceph osd tree 查看
[root@ceph-manager ~]# ceph osd crush set 1 3.0 host=ceph-osd-1


设置osd 的权重 ceph osd reweight  
[root@ceph-manager ~]# ceph osd reweight 1 0.5


把一个osd节点踢出集群
[root@ceph-manager ~]# ceph osd out osd.1


把踢出的osd重新加入集群
[root@ceph-manager ~]# ceph osd in osd.1


暂停osd (暂停后整个集群不再接收数据)
[root@ceph-manager ~]# ceph osd pause


再次开启osd (开启后再次接收数据)
[root@ceph-manager ~]# ceph osd unpause


五、 PG 篇
查看pg组的映射信息
[root@ceph-manager ~]# ceph pg dump |more


查看一个PG的map
[root@ceph-manager ~]# ceph pg map 0.3f


查看PG状态
[root@ceph-manager ~]# ceph pg stat


查询一个pg的详细信息
[root@ceph-manager ~]# ceph pg 0.39 query


查看pg中stuck的状态 (如有非正常pg会显示)
[root@ceph-manager ~]# ceph pg dump_stuck unclean
[root@ceph-manager ~]# ceph pg dump_stuck inactive
[root@ceph-manager ~]# ceph pg dump_stuck stale


显示一个集群中的所有的pg统计
[root@ceph-manager ~]# ceph pg dump --format plain|more


恢复一个丢失的pg (og-id 为丢失的pg, 使用ceph pg dump_stuck inactive|unclean|stale 查找)
[root@ceph-manager ~]# ceph pg {pg-id} mark_unfound_lost revert



六、pool 篇

查看ceph集群中的pool数量
[root@ceph-manager ~]# ceph osd lspools


查看 PG组 号码:
[root@ceph-manager ~]# ceph osd pool get rbd pg_num


在ceph集群中创建一个pool
[root@ceph-manager ~]# ceph osd pool create test 100 (名称为 test, 100为PG组号码)


为一个ceph pool配置配额
[root@ceph-manager ~]# ceph osd pool set-quota test max_objects 10000


显示所有的pool
[root@ceph-manager ~]# ceph osd pool ls


在集群中删除一个pool
[root@ceph-manager ~]# ceph osd pool delete test test --yes-i-really-really-mean-it


显示集群中pool的详细信息
[root@ceph-manager ~]# rados df


给一个pool创建一个快照
[root@ceph-manager ~]# ceph osd pool mksnap test test-snap


删除pool的快照
[root@ceph-manager ~]# ceph osd pool rmsnap test test-snap


查看data池的pg数量
[root@ceph-manager ~]# ceph osd pool get test pg_num


设置data池的最大存储空间(默认是1T, 1T = 1000000000000, 如下为100T)
[root@ceph-manager ~]# ceph osd pool set test target_max_bytes 100000000000000


设置data池的副本数
[root@ceph-manager ~]# ceph osd pool set test size 3


设置data池能接受写操作的最小副本为2
[root@ceph-manager ~]# ceph osd pool set test min_size 2


查看集群中所有pool的副本尺寸
[root@ceph-manager ~]# ceph osd dump | grep 'replicated size'


设置一个pool的pg数量
[root@ceph-manager ~]# ceph osd pool set test pg_num 100


设置一个pool的pgp数量
[root@ceph-manager ~]# ceph osd pool set test pgp_num 100


查看ceph pool中的ceph object (volumes 为pool名称)(这里的object是以块形式存储的)
[root@ceph-manager ~]# rados ls -p volumes | more


创建一个对象object
[root@ceph-manager ~]# rados create test-object -p test


查看object
[root@ceph-manager ~]# rados -p test ls


删除一个对象
[root@ceph-manager ~]# rados rm test-object -p test


查看ceph中一个pool里的所有镜像 (volumes 为pool名称)
[root@ceph-manager ~]# rbd ls volumes


在test池中创建一个命名为images的1000M的镜像
[root@ceph-manager ~]# rbd create -p test --size 1000 images
查看刚创建的镜像信息
[root@ceph-manager ~]# rbd -p test info images


删除一个镜像
[root@ceph-manager ~]# rbd rm -p test images


调整一个镜像的尺寸
[root@ceph-manager ~]# rbd resize -p test --size 2000 images


给镜像创建一个快照 (池/镜像名@快照名)
[root@ceph-manager ~]# rbd snap create test/images@images1


删除一个镜像文件的一个快照
[root@ceph-manager ~]# rbd snap rm 快照池/快照镜像文件@具体快照


如果删除快照提示保护,需要先删除保护
[root@ceph-manager ~]# rbd snap unprotect 快照池/快照镜像文件@具体快照


删除一个镜像文件的所有快照
[root@ceph-manager ~]# rbd snap purge -p 快照池/快照镜像文件


把ceph pool中的一个镜像导出
[root@ceph-manager ~]# rbd export -p images --image  /tmp/images.img

  





运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-670558-1-1.html 上篇帖子: CEPH RBD常用命令 下篇帖子: Jewel版本Ceph集群功能性能测试
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表