设为首页 收藏本站
查看: 1947|回复: 0

[经验分享] 比較Swift与HDFS话Ceph本质(by quqi99)

[复制链接]

尚未签到

发表于 2015-9-10 07:47:07 | 显示全部楼层 |阅读模式
作者:张华  发表于:2014-06-21
版权声明:能够随意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本版权声明

(http://blog.iyunv.com/quqi99 )
  作者将又一次研究ceph, 先温习一下之前作者大半年前发表在openstack中国社区的一篇理论文章(http://www.openstack.cn/p276.html),复制例如以下:

  
  Ceph是一个支持大量小文件和随机读写的分布式文件系统,在维护 POSIX 兼容性的同一时候添加了复制和容错功能。眼下Ceph已经被加到了Linux内核之中,尽管可能还不适用于生产环境。它也想实现统一存储的目标,即:

  • 对象系统,相似Swift, 这里是RADOS, Reliable Autonomic Distributed Object Store, 可靠的自主分布式对象存储。在每台host上都要执行OSD(Object Storage Daemon)进程,当然,假设已经用RAID, LVM或btrf,xfs(最好别用ext4)将每台host上的硬盘都做成一个池了的话,执行一个OSD就能够了。OSD会默认创建三个池:data, metadaRBD 。同一时候,在每台host上还要执行MON (Monitor)进程。
  • 文件存储,相似Hadoop中的HDFS,但HDFS是流式存储,即一次写多次读。想使用Ceph文件存储的话,那还在每台host上还要执行MDS(Meta-Data Server)进程。MDS是在对象系统的基础之上为Cephclient又提供的一层POSIX文件系统抽象实现。
  • 块存储, 相似Cinder
      这样说来,至少有下列几种方式能够訪问Ceph中的对象:

  • RADOS方式,RADOS是Ceph的基础,即使对于Ceph文件存储,底层也是使用RADOS,RADOS本来提供一个librados库来訪问对象,这个库支持php, java, python, c/c++。还通过RADOS Gateway来提供和SwiftAmazon-S3兼容的REST接口
  • RBD(rados block device)QEMU-RBD,前面说了,Ceph已经加到内核了,所以能够使用内核的RBD驱动来訪问对象,它也和QEMU-RBD兼容。
  • CephFS, 上述MDS提供的POSIX兼容的文件系统。在生产系统中,建议用以上三种方式,不建议这样的。
     一个数据块详细存放在哪些host上须要有元数据来描写叙述,HDFS是在一台机器上集中存储元数据的(HA能够通过配置主备实现),Swift则全然是分布式的,一个数据块详细存放在哪些host(在Ceph中称OSD, OSD是在host上维护数据块的一个进程)上由一致性哈希算法决定,元数据使用rsync命令同步分布在每个host上,所以须要分级来减小元数据的大小,所以也就有了Accounts, Containers, Objects这三级RING。相应在RADOS中,有两级映射,先经过哈希把key映射到PG (Placement Group),再通过一致性哈希函数CRUSHPGID映射到实际存储数据的host (OSD)。Swift使用的一致性哈希算法使用flat的host列表,可是CRUSH这样的一致性哈希算法使用的host列表具有层次结构(shelves, racks, rows),而且能同意用户通过指定policies把复制存放在不同的机架。剩下的事和Swift相似,CRUSH会生成在RING上产生副本信息,第一个副本是主,其他是从,主负责接收来自client的写,及协调多个client的写,主再将数据写给从,待主返回结果后,主才告诉用户写成功,所以副本是强一致性的,这点和AWS dynamo这些终于一致性的做法有些差别。当新增机器或发生宕机时,和swift也相似,CRUSH一致性哈希算法也会保证数据的抖动性最小(即转移的数据块最少)。
           除了存储节点外,另一些监控节点组成的小集群,负责监控存储节点的执行状态,它们通过Paxos协议达到一致和保持数据冗余,PaxosZooKeeper中用到的领导者选择算法Zap协议相似,仅仅要保证这些host中的大多数host不出故障即可,而且我们一般选择奇数台host,举个样例,在5个host的监控集群中,不论什么两台机器故障的情况下服务都能继续执行。
           在一致性保证方面,在ZooKeeper中,领导者与尾随者非常聪明,尾随者通过更新号(唯一的全局标识叫zxid, ZooKeeper Transaction ID)来滞后领导者,这样大部分host确认更新之后,写操作就能被提交了。Ceph换汤不换药,这个全局标识改了个名叫epoch序号,所以Monitor节点记录的是epoch序号和一些全局状态(如存储节点是否在线,地址port等),非常轻量,每个监測到存储节点发生变更时,如存储节点上线或下线,将epoch序号添加以差别先前的状态。总之,Monitor节点维护了这些集群状态映射对象ClusterMap,包含:monitor map, OSD map, placement group (PG) map, CRUSH map, epoch map。比如当存储节点宕机时,监控节点发现后更新epoch和ClusterMap,然后通过gossip p2p方式推送给存储节点(这样的p2p通知和存储节点自主复制和HDFS中的master-slave模型是有差别的),存储节点再又一次计算CRUSH决定将宕机机器丢失副本补上,因为一致性哈希的特性,发生变更的PG不会非常多,也就是说抖动性不会非常大。
           通过将Ceph与现有的Swift, Hadoop等现有技术一坐标映射,到了这一步,笔者也就清楚Ceph是做什么的了。有机会再看看OpenStack是如何用它的,以及它是如何详细安装部署的。 
  
  參考文献:
  http://ceph.com/docs/next/architecture/
  http://blog.iyunv.com/quqi99/article/details/7438258
  http://codingstory.com/2013/01/06/rados/
  http://www.sebastien-han.fr/blog/2012/06/10/introducing-ceph-to-openstack/

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-111653-1-1.html 上篇帖子: centos6.4 ceph安装部署之cephFS 下篇帖子: ceph osd 批量删除
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表