设为首页 收藏本站
查看: 1207|回复: 0

[经验分享] hadoop 常见错误

[复制链接]

尚未签到

发表于 2015-7-12 07:22:19 | 显示全部楼层 |阅读模式
  1:call to localhost/127.0.01:9000  failed on connection exception:java.net.exception:拒绝连接




解决方法:

使用jpshadoop进程查看工具发现NameNode进程没有正确运行。停止服务后,重新格式化namenode,

hadoop namenode -format

start-all.sh,NameNode进程已运行,问题解决



补充知识:

jps位于jdk的bin目录下,其作用是显示当前系统的java进程情况,及其id号。

jps相当于Solaris进程工具ps。不象"pgrep java"或"ps -ef grep java",jps并不使用应用程序名来查找JVM实例。因此,它查找所有的Java应用程序,包括即使没有使用java执行体的那种(例如,定制的启动 器)。另外,jps仅查找当前用户的Java进程,而不是当前系统中的所有进程

2:


13/03/18 15:57:05 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
13/03/18 15:57:05 INFO compress.CodecPool: Got brand-new compressor
  解决方法:
  




下面是从其他网站拷贝过来的,先放着,看是否会遇到同类错误

  1.datanode节点TaskTracker任务启动,但是DataNode任务未启动
  这一般是由于对hadoop进行升级后导致的,需要删除hadoop.tmp.dir所对应的文件夹,然后再对namenode进行重新格式化,删除之前先将数据导出,要不然数据就没了
  2./lib/ld-linux.so.2: bad ELF interpreter: 没有那个文件或目录
  缺少 glibc.i686组件
  命令:yum install glibc.i686
  3. hadoop-site.xml:1:1: 文件提前结束
  hadoop目录下面conf文件夹中多了一个hadoop-site配置文件,在0.20.2版本之前,conf里面有一个 hadoop-site.xml文件,在0.20.0之后的版本 conf下没有这个hadoop-site.xml文件,取而代之的是三个文件,core-site.xml,hdfs-site.xml,mapred.xml
  解决方法:删除conf文件夹下面的hadoop-site.xml就行
  4.用eclipse连接集群查看文件信息提示9001端口拒绝连接的错误
  Cannot connect to the Map/Reduce location: hadoop1.0.3
  Call to localhost/127.0.0.1:9001 failed on connection exception: java.net.ConnectException: 拒绝连接
  解决办法:配置都很正常,就是连接不了。后来重新配置hadoop location,把Map/Reduce Master 和 DFS Master中的Host由localhost改成了ip地址(192.168.33.164),然后问题就解决了。奇怪,localhost不就是本机嘛,而namenode主机(192.168.33.164)也是本机
  5:远程hadoop
  本地开发的程序,操作远程hadoop hdfs 文件系统,报错链接不上。



Retrying connect to server: /192.168.1.109:9000. Already tried 0 time(s)
  解决方法:是服务器上hadoop core-site.xml配置有问题,我的配置写的是localhost。应该改成服务器的IP地址。
  用netstat 能看到127.0.0.1:9000的端口,但在我本地telnet 192.168.1.109 9000链接不上。
  改成服务器IP就正确了。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85588-1-1.html 上篇帖子: 基于Hadoop开发网络云盘系统架构设计方案第一稿 下篇帖子: Hadoop系列之实验环境搭建
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表