设为首页 收藏本站
查看: 807|回复: 0

[经验分享] hadoop源码分析系列(七)——org.apache.hadoop.hdfs包完结篇—...

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-6-6 11:00:43 | 显示全部楼层 |阅读模式
摘要: hdfs分析的最后一篇首先进行一下dataNode(以下简称dn)的源码分析,然后总结下对hdfs包的设计模式的一点看法:DataNode既可以看做是一个类,也可以认为是一个进程,还可以认为是一台服务器,总之他的主要作用就是 ...

hdfs分析的最后一篇首先进行一下dataNode(以下简称dn)的源码分析,然后总结下对hdfs包的设计模式的一点看法:
DataNode既可以看做是一个类,也可以认为是一个进程,还可以认为是一台服务器,总之他的主要作用就是进行hdfs的数据块的存储服务。
DataNode既要负责和NN通信也要负责和其他的DN进行通信,与NN的通信的主要作用是回应NN的创建和查询块的请求,和其他DN通信主要是块的拷贝和删除。
DN主要维护了块到流的映射,当然流中要包含一些块的信息,这些信息被存储在本地硬盘,DN以一定频率把这些信息发送给NN
DN的启动一个server,它的整个生命周期就是响应NN的命令
主要的方法:
startDataNode:通过dfs.datanode.*的配置参数来初始化dataNode server
register():向nameNode发出注册请求,并申请全局的存储标示
processCommand(DatanodeCommand[] cmds) :执行命令集,主要的命名有以下几种:
DNA_TRANSFER:传输数据块命令
DNA_INVALIDATE:使数据块失效
DNA_SHUTDOWN:关闭节点
DNA_REGISTER:重新注册
DNA_FINALIZE:升级
DNA_RECOVERBLOCK:块恢复

syncBlock:同步块
剩下的一些方法基本就是上面提到的那几个命令的实现
下面是对客户端和dataNode通信读数据块的报文分析:
请求报文:
+----------------------------------------------+
     | Common Header   | 1 byte OP == OP_READ_BLOCK |
     +----------------------------------------------+
返回报文:
+-------------------------------------------------------------------------+
     | 8 byte Block ID | 8 byte genstamp | 8 byte start offset | 8 byte length |
     +-------------------------------------------------------------------------+
     |   vInt length   |  <DFSClient id> |
     +-----------------------------------+
在读数据块的时候DN发出的报文:
+---------------------------+
       | 2 byte OP_STATUS_ERROR    | 读取出错
       +---------------------------+

+---------------------------+
       | 2 byte OP_STATUS_SUCCESS  | 成功读取
       +---------------------------+

发送的数据:
+--------------------------------------------------+
      | 1 byte CHECKSUM_TYPE | 4 byte BYTES_PER_CHECKSUM |  checksum头
      +--------------------------------------------------+
      +------------------------------------+
      | Sequence of data PACKETs ....      |  真实数据
      +------------------------------------+
PACKET包括以下结构:
+-----------------------------------------------------+
      | 4 byte packet length (excluding packet header)      |
      +-----------------------------------------------------+
      | 8 byte offset in the block | 8 byte sequence number |
      +-----------------------------------------------------+
      | 1 byte isLastPacketInBlock                          |
      +-----------------------------------------------------+
      | 4 byte Length of actual data                        |
      +-----------------------------------------------------+
      | x byte checksum data. x is defined below            |
      +-----------------------------------------------------+
      | actual data ......                                  |
      +-----------------------------------------------------+

      x = (length of data + BYTE_PER_CHECKSUM - 1)/BYTES_PER_CHECKSUM *
          CHECKSUM_SIZE

客户端读取完所有数据后告诉DN:
+------------------------------+
      | 2 byte OP_STATUS_CHECKSUM_OK |  ok
      +------------------------------+

BlockReceiver类主要负责接收数据块,写到本地磁盘,同时负责把块复制到别的节点

BlockSender类把磁盘上的块读取出来发送给接收的节点
BlockTransferThrottler类负责限制dn的通信,这个类多多线程共享的,可以限制通信的带宽,线程数等等
DataBlockScanner类启动线程负责跟踪块的修改信息,但是不会改变元数据信息
DataStorage类是文件对象的抽象
DatanodeBlockInfo:dn上的块对象的抽象
DataXceiverServer:用ServerSocket方式问不是ipc方式接受从其他节点过来的块的信息
UpgradeManagerDatanode:处理upgrade命令
其他的就是包含些对namenode的度量信息,在这里就不详细介绍了。



最后总结下几篇文章下来对hdfs部分源码的分析的体会:
1、大量的抽象:这也可以说是面对对象的核心之一,如源码中的接口,抽象类定义,对协议,服务、数据块、节点的抽象。
2、合理的继承和实现:光是block,这个对象在nn和dn中就用不同的对象标示,进行通信的接口更是实现了很多协议,不同的通信,协议的实现都是不一样的
3、对java的设计模式理解更加深刻,这部分主要用了工厂方法,桥接模式,组合模式和命令模式,进行了层次明确,职责合理的设计,很有条理,多而不杂。
4、对java的io尤其是ipc的部分进行了深层次的运用,没用使用iiop或是rpc这样的重量级通信实现,而是简单了封装了基本的io操作,转而利用ipc,很大程度的提高了代码的可维护性和io的吞吐。
5、巧妙的数据结构设计,这个可以从协议的报文和节点维护的链表可以看出来,实现并不复杂,重要的是设计的很巧妙。
6、良好的接口扩展,很多方法并没有实现,开发人员可以很容易加入自己的实现,加入自己的思想,甚至可以很容易的修改源码来满足自己特有的需求。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-20268-1-1.html 上篇帖子: hadoop源码分析系列(六)——org.apache.hadoop.hdfs包之nameNode篇 下篇帖子: Hadoop源码分析之心跳机制
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表