soyizi 发表于 2019-2-2 08:02:21

Ceph 12.2.0 实践osd 智能分组功能

      以前我们需要对ssd和hdd进行分组的时候,需要大量的修改crush map,然后绑定不同的存储池到不同的 crush 树上面,现在这个逻辑简化了很多。以上是官方宣传听起来很不错等到12.2.0稳定版出来以后参考http://ceph.com/planet/ceph-luminous-%E6%96%B0%E5%8A%9F%E8%83%BD%E4%B9%8B%E7%A3%81%E7%9B%98%E6%99%BA%E8%83%BD%E5%88%86%E7%BB%84/进行尝试发现稳定版与此文有些不同,实践过程如下。
  测试环境(虚机)下安装完的ceph集群是这个样子(若使用真的ssd可能会出现ssd类的osd)
  
  # ceph osd tree
  ID CLASS WEIGHTTYPE NAME         STATUS REWEIGHT PRI-AFF
  -1       0.43886 root default
  -3       0.14629   host ceph-l01
  1   hdd 0.09760         osd.1         up1.00000 1.00000
  0   hdd 0.04869         osd.0         up1.00000 1.00000
  -5       0.14629   host ceph-l02
  3   hdd 0.09760         osd.3         up1.00000 1.00000
  2   hdd 0.04869         osd.2         up1.00000 1.00000
  -7       0.14629   host ceph-l03
  5   hdd 0.09760         osd.5         up1.00000 1.00000
  4   hdd 0.04869         osd.4         up1.00000 1.00000
  


  
  首先将osd 0 2 4 设置成ssd 类型
  
  先删除
  # ceph osd crush rm-device-class osd.0
  # ceph osd crush rm-device-class osd.2
  # ceph osd crush rm-device-class osd.4
  再设置
  #ceph osd crush set-device-classssd osd.0
  #ceph osd crush set-device-classssd osd.2
  #ceph   osd crush set-device-classssd osd.4
  

  然后根据osd 类型设置规则(规则名称为ssd)
  #ceph osdcrushrulecreate-replicatedssd default osdssd
  然后根据 规则创建pool(名称为ssdpool)
  #ceph osdpool create ssdpool 128 ssd
  然后验证一下
  #ceph pg dump

  https://s4.运维网.com/wyfs02/M01/07/1C/wKiom1nDdljTXUe-AAPQMvIlaZM546.png-wh_500x0-wm_3-wmp_4-s_389787844.png
  



页: [1]
查看完整版本: Ceph 12.2.0 实践osd 智能分组功能