设为首页 收藏本站
查看: 503|回复: 0

[经验分享] Hadoop回收站trash-恢复删除的文件

[复制链接]

尚未签到

发表于 2016-12-10 10:59:21 | 显示全部楼层 |阅读模式
刚刚测试Hadoop程序,一不小心把数据删掉了~~~好在是在测试机上,不然就蛋痛了,还是设置一下hadoop的回收站,以防万一
首先:
Hadoop回收站trash,默认是关闭的。
习惯了window的同学,建议最好还是把它提前开开,否则误操作的时候,就欲哭无泪了
1.修改conf/core-site.xml,增加
Xml代码  

<property>  
<name>fs.trash.interval</name>  
<value>1440</value>  
<description>Number of minutes between trash checkpoints.  
If zero, the trash feature is disabled.  
</description>  
</property>  


默认是0.单位分钟。这里我设置的是1天(60*24)
删除数据rm后,会将数据move到当前文件夹下的.Trash目录
2.测试
1)新建目录input

hadoop/bin/hadoop fs -mkdir input   


2)上传文件

root@master:/data/soft# hadoop/bin/hadoop fs -copyFromLocal /data/soft/file0* input  


3)删除目录input

[iyunv@master data]# hadoop fs -rmr input  
Moved to trash: hdfs://master:9000/user/root/input  


4)参看当前目录

[iyunv@master data]# hadoop fs -ls  
Found 2 items  
drwxr-xr-x   - root supergroup          0 2011-02-12 22:17 /user/root/.Trash  


发现input删除,多了一个目录.Trash
5)恢复刚刚删除的目录

[iyunv@master data]# hadoop fs -mv /user/root/.Trash/Current/user/root/input  /user/root/input  


6)检查恢复的数据
Java代码  

[iyunv@master data]# hadoop fs -ls input  
Found 2 items  
-rw-r--r--   3 root supergroup         22 2011-02-12 17:40 /user/root/input/file01  
-rw-r--r--   3 root supergroup         28 2011-02-12 17:40 /user/root/input/file02  


6)删除.Trash目录(清理垃圾)

[iyunv@master data]# hadoop fs -rmr .Trash  
Deleted hdfs://master:9000/user/root/.Trash

空间的回收
文件删除与恢复-用户或者应用删除某个文件,这个文件并没有立刻从HDFS中删除。相反,HDFS将这个文件重命名,并转移到/trash目录。当文件还在/trash目录时,该文件可以被迅速地恢复。文件在/trash中保存的时间是可配置的,当超过这个时间,Namenode就会将该文件从namespace中删除。文件的删除,也将释放关联该文件的数据块。注意到,在文件被用户删除和HDFS空闲空间的增加之间会有一个等待时间延迟。
当被删除的文件还保留在/trash目录中的时候,如果用户想恢复这个文件,可以检索浏览/trash目录并检索该文件。/trash目录仅仅保存被删除文件的最近一次拷贝。/trash目录与其他文件目录没有什么不同,除了一点:HDFS在该目录上应用了一个特殊的策略来自动删除文件,目前的默认策略是删除保留超过6小时的文件,这个策略以后会定义成可配置的接口。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-312317-1-1.html 上篇帖子: New Apache Project 'Drill' Aims to Speed Up Hadoop Queries 下篇帖子: hadoop 任务失败重复次数的处理方法
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表