设为首页 收藏本站
查看: 1045|回复: 0

Hadoop-------扫除运行障碍篇

[复制链接]

尚未签到

发表于 2015-11-11 13:17:52 | 显示全部楼层 |阅读模式
Hadoop-------扫除运行障碍篇

  (一)     一个较完整的命令行和SDK中执行Hadoop的两种方式的配置方法
  http://www.cnblogs.com/zbw911/archive/2011/9/30.html
  (二)     Cygwin运行Hadoop中处理 ssh的有效命令
  1 ssh-host-config
  错误: There are still ssh processes running. Please shut them down first.
  解决: ps -ef | grep -v grep | grep ssh     
  kill -9 上条指令显示的相应进程号(空格分开)
  2 ssh localhost
  错误:connection closed by 127.0.0.1
  解决:  (1) mkpasswd -l -c > /etc/passwd
  (2) mkgroup -l -d > /etc/group
  (3) 再重新进入Cygwin,mkpasswd和mkgroup提示消失,再次配置ssh,并执行ssh localhost
(三)     出现类似如下:

…..

/cygdrive/d/dis/hadoop-0.20.2/bin/../conf/hadoop-env.sh: line 20: $'\r': command not found

/cygdrive/d/dis/hadoop-0.20.2/bin/../conf/hadoop-env.sh: line 30: $'\r': command not found

/cygdrive/d/dis/hadoop-0.20.2/bin/../conf/hadoop-env.sh: line 33: $'\r': command not found

/cygdrive/d/dis/hadoop-0.20.2/bin/../conf/hadoop-env.sh: line 36: $'\r': command not found

……

进入hadoop根目录下的conf目录,然后对hadoop-env.sh文件执行dos2unix,即

Dos2unix hadoop-env.sh

(四)     无法连接服务期错误。该类错误产生的原因很多,但是主要都和conf下的配置文件相关,例如ip 配置错误、运行时候没有设置临时文件夹等等,不一而足。根据提示和端口号(mapred还是hdfs)进行相应处理。

出现类似如下:

……………

12/03/13 15:42:43 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 0 time(s).

12/03/13 15:42:45 INFO ipc.Client: Retrying connect to server:

12/03/13 15:42:49 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 3 time(s)

……………………………………

如果是由于格式化之后u没有重qi重新启动hadoop,再连接,即在hadoop主目录下执行:

Bin/stop-all.sh

Bin/start-all.sh

  (五)   Object  heap  和 Java virtual machine 相关处理
  1.  Could not create the java virtual machine
  /hadoop/conf/hadoop-env.sh中的
  # The maximum amount of heap to use, in MB. Default is 1000.
# export HADOOP_HEAPSIZE=2000

  2.        根本解决
  (引用出自http://javoft.net/2011/06/hadoop-unrecognized-option-jvm-could-not-create-the-java-virtual-machine/)
  hadoop/bin/hadoop中有如下一段shell:
?

1

2

3

4

5

6

CLASS='org.apache.hadoop.hdfs.server.datanode.DataNode'

if [[ $EUID -eq 0 ]]; then

HADOOP_OPTS="$HADOOP_OPTS -jvm server $HADOOP_DATANODE_OPTS"

else

HADOOP_OPTS="$HADOOP_OPTS -server $HADOOP_DATANODE_OPTS"

fi

其中的

?

1

2

if [[ $EUID -eq 0 ]]; then

HADOOP_OPTS="$HADOOP_OPTS -jvm server $HADOOP_DATANODE_OPTS"


如果 $EUID 为 0,什么意思呢?
有效用户标识号(EUID):该标识号负责标识以什么用户身份来给新创建的进程赋所有权、检查文件的存取权限和检查通过系统调用kill向进程发送软 中断信号的许可权限。
在root用户下echo $EUID,echo结果为 0
ok,在root下会有-jvm选项添加上去,上面说的Unrecognized option: -jvm难道就是这里产生的。

两个想法。一个想法是自己改了这shell代码,去掉里面的-jvm。另外一个想法是 既然这里要求 $EUID -eq 0,那别用$EUID不为0的(root用户)用户运行即可。果断试试,换上普通用户根据文档提示做。ok,成功。好奇的再试试第一个想法,其实暂时还是不太想动源码。但是这shell动动也没妨,果断去掉上面的-jvm,直接把上面的if else 结构直接去掉改为

?

1

HADOOP_OPTS="$HADOOP_OPTS -server $HADOOP_DATANODE_OPTS",

同样运行成功。

如上几个尝试最终证明问题就出现在与-jvm这个参数选项


(六)            javac could not find问题

用户变量和系统变量都要配置PATH中的java/bin和jdk。

(七)            关于版本的问题

不是最难的、却可以是最关键和最耗时的。采用了最笨的方法,下了数个hadoop和eclipse不同版本进行交叉匹配解决这个问题,呵呵,得出,eclipse 要3.6(注意后面没有3.6.*)或以下版本,hadoop-0.20.2或以下,  终于解决了这个问题…



  
         版权声明:本文为博主原创文章,未经博主允许不得转载。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-137922-1-1.html 上篇帖子: Hadoop2.6+HA+Zookeeper3.4.6+Hbase1.0.0安装 下篇帖子: Hadoop HDFS 升级到2.0 笔记
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表