|
hadoop配置遇到问题
1#name节点无法正常启动 tail -f /home/hadoop/hadoop/logs/hadoop-hadoop-secondarynamenode-master.log INFO org.apache.hadoop.ipc.RPC: Server at localhost/127.0.0.1:9000 not available yet, Zzzzz... 解决办法: 1.先清空tmp目录下的所有文件。因为每次namenode format会重新创建一个namenodeId,而tmp/dfs/data下包含了上 次format下的id,namenode format清空了namenode下的数据,但是没有清空datanode下的数据,导致启动时 namespaceIDs不一致 2.执行 bin/hadoop namenode -format3.执行 bin/start-all.sh cd /usr/tmp/mv yum-hadoop-TG5vaS /workspace//home/hadoop/hadoop/bin/hadoop namenode -format/home/hadoop/hadoop/bin/start-all.sh 2#如果SSH访问出现问题的话,修改文件"authorized_keys" 权限su - hadoopchmod 644 ~/.ssh/authorized_keys 3#Warning: $HADOOP_HOME is deprecated. 这个warning对系统不会产生影响,只是一个警告信息,因为hadoop默认会从$hadoop_home/conf下读取配置文件, 所以会提示你配置文件的目录是否正确 解决办法:cd vi .bash_profile 添加内容如下:echo 'export HADOOP_HOME_WARN_SUPPRESS=1'>> .bash_profile source .bash_profile
|
|
|