设为首页 收藏本站
查看: 602|回复: 0

[经验分享] Hadoop 2.x的DistributedCache无法工作的问题

[复制链接]

尚未签到

发表于 2016-12-11 11:16:58 | 显示全部楼层 |阅读模式
现象:和这个帖子描述的一样,简单说来就是,在Hadoop 2.x上,用新的DistributedCache的API,在mapper中会获取不到这个cache文件。
下面就详细地描述一下新旧API的用法区别以及解决办法。

『1』旧API
将HDFS文件添加到distributed cache中:



1

2


Configuration conf = job.getConfiguration();

DistributedCache.addCacheFile(new URI(inputFileOnHDFS), conf);  // add file to distributed cache









其中,inputFileOnHDFS是一个HDFS文件的路径,也就是你要用作distribute cache的文件的路径,例如 /user/codelast/123.txt
在mapper的setup()方法中:



1

2

3


Configuration conf = context.getConfiguration();

Path[] localCacheFiles = DistributedCache.getLocalCacheFiles(conf);

readCacheFile(localCacheFiles[0]);









其中,readCacheFile()是我们自己的读取cache文件的方法,可能是这样做的(仅举个例子):


1

2

3

4

5

6

7

8


private static void readCacheFile(Path cacheFilePath) throws IOException {


  BufferedReader reader = new BufferedReader(new FileReader(cacheFilePath.toUri().getPath()));


  String line;


  while ((line = reader.readLine()) != null) {


    //TODO: your code here


  }


  reader.close();


}








文章来源:http://www.codelast.com/
『2』新API
上面的代码中,addCacheFile() 方法和 getLocalCacheFiles() 都已经被Hadoop 2.x标记为 @Deprecated 了。
因此,有一套新的API来实现同样的功能,这个链接里有示例,我在这里再详细地写一下。
将HDFS文件添加到distributed cache中:



1


job.addCacheFile(new Path(inputFileOnHDFS).toUri());









在mapper的setup()方法中:


1

2

3


Configuration conf = context.getConfiguration();

URI[] localCacheFiles = context.getCacheFiles();

readCacheFile(localCacheFiles[0]);









其中,readCacheFile()是我们自己的读取cache文件的方法,可能是这样做的(仅举个例子):


1

2

3

4

5

6

7

8


private static void readCacheFile(URI cacheFileURI) throws IOException {


  BufferedReader reader = new BufferedReader(new FileReader(cacheFileURI.getPath()));


  String line;


  while ((line = reader.readLine()) != null) {


    //TODO: your code here


  }


  reader.close();


}








但是就像文章开头的那个链接里所描述的问题一样,你可能会发现 context.getCacheFiles() 总是返回null,也就是你无法读到cache文件。
这个问题有可能是这个bug造成的,你可以对比一下你的Hadoop版本。
文章来源:http://www.codelast.com/
『3』解决办法
(1)打patch
(2)升级Hadoop版本
(3)使用旧的DistributedCache API,经测试OK

 
 
如果还是不行的话,请参考以下方式:

job.addCacheFile(new URI("/user/mart_coo/gis/mapreduce/input/addressindex.txt#local"));

@Override
protected void setup(
Mapper<LongWritable, Text, Text, Text>.Context context)
throws IOException, InterruptedException {
if (context.getCacheFiles() != null
&& context.getCacheFiles().length > 0) {
readCacheFile("./local");
        
}
super.setup(context);
}

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-312750-1-1.html 上篇帖子: hadoop中fsimage和edits的区别 下篇帖子: ClassNotFoundException: Class org.apache.hadoop.hive.contrib.serde2.RegexSerDe n
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表