设为首页 收藏本站
查看: 1109|回复: 0

Hadoop Error Log

[复制链接]

尚未签到

发表于 2015-11-11 15:03:21 | 显示全部楼层 |阅读模式
  1. 《Hadoop实战》书中错误,运行WordCount例程的代码应为:
  javac -classpath hadoop-core-1.2.1.jar:lib/commons-cli-1.2.jar -d FirstJar WordCount.java
  


  2.

bin/hadoop jar WordCount.jar WordCount input output
  
  Exception in thread "main" java.lang.ClassNotFoundException: WordCount
  WordCount类的包没有找到,在类前面加上包的名字即可。
  

bin/hadoop jar WordCount.jar org.apache.hadoop.examples.WordCount input output


  
  
  3. Error launching job , Output path already exists : Output directory hdfs://localhost:9000/user/dark_linux/output already exists
  output的文件夹已经存在。换一个output的位置或者删除原文件夹


  4. start-all 的时候,遇到权限问题。
  


  5. start-all 之后,所有的值都是0. 容量大小为0
  再注意一下配置文件,配置不正确。
  


  6. 重启后,start-all, namenode启动不了,需要再次格式化之后才能启动
  这是因为,默认hadoop的数据块是放在/tmp下的。而每次重启后,/tmp下的数据被清空。所以namenode就启动不起来了(应该是这样的)
  所以要继续修改配置,编辑conf/core-site.xml
  增加:
  

<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-1.2.1/tmp</value>
</property>
  7. hosts
  hosts文件包含了ip地址与主机名之间的映射,还包括主机的别名。在没有域名解析服务器的情况下,系统上的所有网络程序都通过查询该文件来解析对应于某个主机名的ip地址。


  优先级 : dns缓存 > hosts > dns服务


  ip地址   主机名/域名   (主机别名)


  http://soft.zdnet.com.cn/software_zone/2007/0831/481970.shtml
  


  8. nutch 在hadoop上进行抓取时,injector map 100%之后,reduce一直处于0%

网上的说法是,可能是reduce去找map的结果找不到,要check一下/etc/hosts的设置是否正确。
  然后我之前是集群环境,所以hosts里面都改掉了。这次运行是在伪分布式下运行,此时,hosts及hostname要改回来。
  


  9. safe mode is on
  hadoop 的安全模式主要是在启动hadoop会进入,主要是系统检查每个datanode,保证数据块的有效性,并根据预定的策略进行必要的操作,例如备份。此时系统中的数据我们无法进行操作。
  这种情况下,要不等一会,要不就输入如下指令直接离开安全模式
  

hadoop dfsadmin -safemode leave

10. 在&#26684;式化namenode时,报错,The directory is already locked.
  说明还有hadoop服务未关闭就进行format了,所以解决办法就是先stop-all.sh关闭所有hadoop服务先。(或者直接注销吧...)
  


  11. 配置master为namenode的同时,也成为datanode
  只要在hadoop的conf/slaves中,加入master的主机名即可。(记得同步到其他slave的机器中)
  


  !12. 启动hadoop之后,查看hdfs,发现datanode没有启动起来。
  查看datanode上的log,说是no route to host。
  网上的说法都是关防火墙,但是我们的机子们都没有装防火墙。
  后来发现是配置/etc/hosts的问题,其中127.0.1.1 master 这行应该删掉,就好了。
  (但是还是不知道为什么会造成这样的错误)
  


  


  


  



版权声明:本文为博主原创文章,未经博主允许不得转载。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-138003-1-1.html 上篇帖子: 通过Sahara部署Hadoop集群分类 下篇帖子: Hadoop配置:file could only be replicated to 0 nodes, instead of 1问题解决方法
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表