设为首页 收藏本站
查看: 1155|回复: 0

[经验分享] Ceph配置参数(一)

[复制链接]

尚未签到

发表于 2019-2-1 14:36:34 | 显示全部楼层 |阅读模式
  本篇博文转载于http://blog.csdn.net/uj_mosquito/article/details/41827373?utm_source=tuicool
  1、POOL, PG AND CRUSH CONFIG REFERENCE
  http://docs.ceph.com/docs/master/rados/configuration/pool-pg-config-ref/
  所属配置段:【global】
  格式:osd pool default pg num = 250

  •   每个存储池最大pg数:mon max pool pg num
  •   同一个OSD Daemon中创建PG所间隔的秒数:monpg create interval


  •   等待多少秒PG可被认为被卡主:mon pg stuckthreshold
  •   Ceph OSD Daemon对PG的标志位位数:osd pg bits
  •   Ceph OSD Daemon对PGP的标志位位数:osd pgp bits
  注:pg和pgp大部分情况是一样的,但是一个pg分裂成多个时就不一样了

  •   CRUSH规则用到chooseleaf时的bucket的类型:osd crush chooseleaf type
  •   创建复制存储池时用到的CRUSH规则:osd pool default crush replicated ruleset

  •   纠删码池中对象被分割成的条带大小:osd pool erasure code stripe>

  •   副本数:osd pool default>

  •   最小副本数:osd pool default min>
  注:如果这个数目没达到,ceph不会通知客户端写以完成

  •   pg数:osd pool default pg num
  •   pgp数:osd pool default pgp num
  •   新创建的存储池的flag:osd pool default flags
  •   列表中最大的PG数:osd max pgls
  •   修建PGLog是保留的最小PGLog数:osd min pg log entries
  •   OSD等待客户端相应一个请求的最大秒数:osd default data pool replay window
  2、JOURNAL CONFIG REFERENCE
  http://docs.ceph.com/docs/master/rados/configuration/journal-ref/
  Journal的作用:
  (1)速度:随机小块的写操作就直接写入journal,合并成顺序IO再下刷,建议用SSD存放
  (2)一致性:为保证操作的事务性,先将操作记录在journal中再应用到文件系统。每隔一段时间, Ceph OSD Daemon停止写操作,将journal和文件系统同步,删除一部分journal使得空间能够被再次利用。故障时, CephOSD Daemon从最近的一次同步后的journal的开头按照其内容重新做一次操作。

  •   开启直写Journal(大概是因为journal一般都是存储在块设备上,即在OSD的空间或SSD单独存储):journal dio
  •   开启异步写journal(“直写”设为true这个参数才能设):journal aio
  •   块对齐(这个参数设为true上面两个参数才能设):journal block align
  •   一次写journal的最大byte数:journal max write bytes
  •   最多一次能并行写多少个journal:journal max write entries
  •   任意时刻队列中存储的最大操作数:journal queue max ops
  •   任意时刻队列中存储的最大byte数(10

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-670550-1-1.html 上篇帖子: Openstack 之 ceph更换故障磁盘 下篇帖子: Openstack之CEPH简介
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表