设为首页 收藏本站
查看: 1286|回复: 0

[经验分享] ceph 之 crush存储规则理解

[复制链接]

尚未签到

发表于 2019-2-1 13:44:10 | 显示全部楼层 |阅读模式

上面左边是我的个人微信,如需进一步沟通,请加微信。  右边是我的公众号“Openstack私有云”,如有兴趣,请关注。
  

  ceph是分布式存储,其中对于数据的存储规则是一个重点和难点。比如每个数据块的数据备份是3份,3份数据是怎么分布的?ceph的crush 就是解决数据分布规则的问题。
  应用端直接使用的是pool,pool是由存储的基本单位pg组成,pg分布在磁盘逻辑单元osd上,osd一般是对应一块物理硬盘,osd分布在物理主机host,host分布在机框chassis中,机框chassis分布在机架rack中,几家rack分布在机柜阵列raw中,后面可以继续归属,->pdupod->room->datacenter 。其中host/chasis/rack 等等在ceph属于中叫做bucket(桶),各个级别的bucket是默认的,当有特殊需求的时候,可以自定义新的级别bucket,比如新定义一个bucket级别host-SSD ,专门将SSD盘的OSD归入这个bucket中。
  OSD归类完成之后,数据的分布需要使用规则,比如回到上面的问题,每个数据块的数据备份是3份,3份数据是怎么分布的?首先,应用端使用pool,假定3个基本数据单元需要存放到3个pg中,这个时候就需要确定使用哪3个pg,需要遵从rule,这个rule 也是crush定义的。
  下面以新建一个容纳ssd磁盘的bucket,以及相对应的rule为例,简单罗列一下crush的相关命令:
  创建ssd root
  ceph osd crush add-bucket ssd root
  //创建一个新的桶叫ssd ,级别是root最高级
  创建hostgroup
  ceph osd crush add-bucket ssd-hosts chasis
  //创建一个新的桶叫ssd-hosts ,级别是机框chasis
  ceph osd crush move ssd-hosts root=ssd
  //将ssd-hosts归入ssd
  创建host
  ceph osd crush add-bucket ssd-m1 host

  //创建一个新的桶叫ssd-m1 ,级别是主机host
  ceph osd crush add-bucket ssd-compute host
  //创建一个新的桶叫ssd-compute ,级别是host
  ceph osd crush move ssd-m1 chasis=ssd-hosts
  //将ssd-m1归入ssd-hosts
  ceph osd crush move ssd-compute chasis=ssd-hosts
  //将ssd-compute归入ssd-hosts
  移动osd
  ceph osd crush set osd.0 1.0 host=ssd-m1
  //将osd.0 移动到主机host=ssd-m1 中
  ceph osd crush set osd.1 1.0 host=ssd-compute
  //将osd.1 移动到主机host=ssd-compute 中
  创建crush rule
  ceph osd crush rule create-simple ssd ssd host firstn
  //创建crush rule,rule名称是ssd,root=ssd,tpye=host,mode=firstn
  显示rule规则
  ceph osd crush rule dump
  [
  {
  "rule_id": 0,
  "rule_name": "replicated_ruleset",
  "ruleset": 0,
  "type": 1,
  "min_size": 1,
  "max_size": 10,
  "steps": [
  {
  "op": "take",
  "item": -1,
  "item_name": "default"
  },
  {
  "op": "chooseleaf_firstn",
  "num": 0,
  "type": "host"
  },
  {
  "op": "emit"
  }
  ]
  },
  {
  "rule_id": 1,
  "rule_name": "ssd",
  "ruleset": 1,
  "type": 1,
  "min_size": 1,
  "max_size": 10,
  "steps": [
  {
  "op": "take",
  "item": -9,
  "item_name": "ssd"
  },
  {
  "op": "chooseleaf_firstn",
  "num": 0,
  "type": "host"
  },
  {
  "op": "emit"
  }
  ]
  }
  ]
  可以看到有2个规则,1个是默认规则,1个是规则ssd 。

  创建pool以及使用rule
  规则有了之后,接下来就是使用了。在创建pool的时候,可以指定rule。

  ceph osd pool create ssd 128 128
  ceph osd pool set ssd crush_ruleset 1  //这个ruleid 1 就是上面新创建的规则
  





运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-670504-1-1.html 上篇帖子: centos7快速部署ceph 下篇帖子: Ceph:RBD在线扩容容量
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表