设为首页 收藏本站
查看: 670|回复: 0

[经验分享] hadoop源码研读之路(八)----DataNode本地数据块管理

[复制链接]

尚未签到

发表于 2016-12-11 11:30:28 | 显示全部楼层 |阅读模式
  刚接触Hadoop的时候,老师问我咱们上传的数据存放到那里了,我说我不知道,当时很囧。呵呵。
  在hdfs-site.xml中
  <porperty>
  <name>dfs.data.dir</name>
  <value>/home/hadoop/data</value>
  </porperty>
  这行数据就代表了数据块存放地址,现在才明白过来。
  在Linux上有四个目录
  1.current存放的是当前有效的数据块,
  2.detach存的是快照
  3.tmp保存的hi一些操作需要的临时数据块
  4.storage存的是一些出错信息,版本不对..(二进制文件)
  进入current目录后,发现一系列的数据块文件和数据块元数据文件,
  同时还有一些子目录,它们的名字是subdir0到subdir63,子目录下也有数据块文件和数据块元数据,这是因为HDFS限定了每个目录存放数据块文件的数量,多了以后会创建子目录来保存。
  数据文件名和元数据文件名的例子:
  blk_3148782637964391313
  blk_3148782637964391313_242812.meta
  上面的例子,3148782637964391313是数据块的ID号,242812是数据块的版本号,用于一致性检查
  current/VERSION,保存了一些文件系统的元信息
  
dncp_block_verification.log.curr
dncp_block_verification.log.prev
,它记录了一些
DataNode
对文件系定时统做一致性检查需要的信息。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-312770-1-1.html 上篇帖子: windows下跑伪分布hadoop,问题小记 下篇帖子: 关于lucene和hadoop的整合研究(一)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表