设为首页 收藏本站
查看: 2121|回复: 0

[经验分享] 在Ubuntu下配置运行Hadoop2.4.0单节点配置

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-7-8 13:03:24 | 显示全部楼层 |阅读模式
还没有修改hosts,请先按前文修改。
  还没安装java的,请按照前文配置。
  (1)增加用户并设立公钥:
  sudo addgroup hadoop
  sudo adduser --ingroup hadoop hduser
  su - hduser
  cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys
  ssh localhost
  exit
  
  (2)把编译完的hadoop复制到/usr/local目录,并修改目录权限
  cp –r /root/hadoop-2.4.0-src/hadoop-dist/target/hadoop-2.4.0 /usr/local
  cd /usr/local
  chown -R hduser:hadoop hadoop-2.4.0
  
  (3)关闭ipv6
  su
  vi /etc/sysctl.conf
  加入:
  net.ipv6.conf.all.disable_ipv6 = 1
  net.ipv6.conf.default.disable_ipv6 = 1
  net.ipv6.conf.lo.disable_ipv6 = 1
  重启:
  reboot
  测试:
  cat /proc/sys/net/ipv6/conf/all/disable_ipv6
  
  输出1表示ipv6已关闭。
  
  (4)修改启动配置文件~/.bashrc
    su hduser
  vi ~/.bashrc
  加入以下代码:
  JAVA_HOME=/usr/lib/jvm/jdk1.7.0_55
  JRE_HOME=${JAVA_HOME}/jre
  export ANDROID_JAVA_HOME=$JAVA_HOME
  export CLASSPATH=.:${JAVA_HOME}/lib:$JRE_HOME/lib:${JAVA_HOME}/lib/tools.jar:$CLASSPATH
  export JAVA_PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin
  export JAVA_HOME;
  export JRE_HOME;
  export CLASSPATH;
  HOME_BIN=~/bin/
  export PATH=${PATH}:${JAVA_PATH}:${HOME_BIN};
  export PATH=${JAVA_HOME}/bin:$PATH
  
  export HADOOP_HOME=/usr/local/hadoop-2.4.0
  unalias fs &> /dev/null
  alias fs="hadoop fs"
  unalias hls &> /dev/null
  alias hls="fs -ls"
  lzohead () {
  hadoop fs -cat $1 | lzop -dc | head -1000 | less
  }
  export PATH=$PATH:$HADOOP_HOME/bin
  export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
  #export HADOOP_OPTS=-Djava.net.preferIPv4Stack=true
  export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
  export HADOOP_MAPRED_HOME=$HADOOP_HOME
  export HADOOP_COMMON_HOME=$HADOOP_HOME
  export HADOOP_HDFS_HOME=$HADOOP_HOME
  export YARN_HOME=$HADOOP_HOME
  export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
  使修改生效:
  source ~/.bashrc
  
  (5)在hadoop目录中创建datanode和namenode目录
  mkdir -p $HADOOP_HOME/yarn/yarn_data/hdfs/namenode   
mkdir -p $HADOOP_HOME/yarn/yarn_data/hdfs/datanode
  
  (6)修改Hadoop配置参数
  为了方便可以 cd $HADOOP_CONF_DIR
  在$HADOOP_HOME下直接执行:
  vi etc/hadoop/hadoop-env.sh
  加入JAVA_HOME变量
  export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_55
  
  vi etc/hadoop/yarn-site.xml
  加入以下信息:
  <property>        <name>yarn.nodemanager.aux-services</name>        <value>mapreduce_shuffle</value></property><property>        <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>        <value>org.apache.hadoop.mapred.ShuffleHandler</value></property>
建立hadoop.tmp.dir
sudo mkdir -p /app/hadoop/tmp
(如果出错:hduser is not in the sudoers file. This incident will be reported.
su
vi /etc/sudoers
加入hduser ALL=(ALL) ALL

#sudo chown hduser:hadoop /app/hadoop/tmp
sudo chown -R hduser:hadoop /app
sudo chmod 750 /app/hadoop/tmp
cd $HADOOP_HOME
vi etc/hadoop/core-site.xml
<property>        <name>hadoop.tmp.dir</name>        <value>/app/hadoop/tmp</value>        <description>A base for other temporary directories.</description></property><property>        <name>fs.default.name</name>        <value>hdfs://localhost:9000</value></property>

vi etc/hadoop/hdfs-site.xml
<property>        <name>dfs.replication</name>        <value>1</value></property><property>        <name>dfs.namenode.name.dir</name>        <value>file:/usr/local/hadoop-2.4.0/yarn/yarn_data/hdfs/namenode</value></property><property>        <name>dfs.datanode.data.dir</name>        <value>file:/usr/local/hadoop-2.4.0/yarn/yarn_data/hdfs/datanode</value></property>
vi etc/hadoop/mapred-site.xml
<property>        <name>mapreduce.framework.name</name>        <value>yarn</value></property>好

(7)格式化namenode节点:
bin/hadoop namenode –format


(8)运行Hadoop 示例
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
sbin/hadoop-daemon.sh start secondarynamenode
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager
sbin/mr-jobhistory-daemon.sh start historyserver

(9)监测运行情况:
jps

netstat –ntlp

http://localhost:50070/ for NameNode
http://localhost:8088/cluster for ResourceManager
http://localhost:19888/jobhistory for Job History Server




(10)出错处理:
log文件存放目录:
cd $HADOOP_HOME/logs
或进入namenode网页查看log
http://192.168.85.136:50070/logs/hadoop-hduser-datanode-ubuntu.log

1.错误:
出现DataNode启动后jps进程消失,阅读以下网页查看log,
http://192.168.85.136:50070/logs/hadoop-hduser-datanode-ubuntu.log
错误信息如下:
2014-07-07 03:03:41,446 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000
发现问题:./bin/hadoop namenode –format重新创建一个namenodeId,而存放datanode数据的tmp/dfs/data目录下包含了上次format下的 id,namenode format清空了namenode下的数据,但是没有清除datanode下的数据,导致启动时失败,所要做的就是每次fotmat前,清空tmp一下 的所有目录.
参考:http://stackoverflow.com/questio ... ot-starts-correctly
解决办法:
rm -rf /usr/local/hadoop-2.4.0/yarn/yarn_data/hdfs/*
./bin/hadoop namenode –format

2.警告调试:
14/07/03 06:13:25 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
调试:
export HADOOP_ROOT_LOGGER=DEBUG,console
hadoop fs -text /test/data/origz/access.log.gz

解决办法:
cp /usr/local/hadoop-2.4.0/lib/native/* /usr/local/hadoop-2.4.0/lib/

(11)创建一个文本文件,把它放进Hdfs中:
mkdir in
vi in/file
Hadoop is fast
Hadoop is cool
bin/hadoop dfs -copyFromLocal in/ /in


(12)运行wordcount示例程序:
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.4.0.jar wordcount /in /out


(13)查看运行结果:
bin/hadoop fs -ls /out
bin/hadoop dfs -cat /out/part-r-00000
或者也可以去namenode网站查询
http://localhost:50070/dfshealth.jsp

(14)关闭demo:
sbin/hadoop-daemon.sh stop namenode
sbin/hadoop-daemon.sh stop datanode
sbin/hadoop-daemon.sh stop secondarynamenode
sbin/yarn-daemon.sh stop resourcemanager
sbin/yarn-daemon.sh stop nodemanager
sbin/mr-jobhistory-daemon.sh stop historyserver


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-21804-1-1.html 上篇帖子: RHadoop计算平台搭建 下篇帖子: Hadoop 安装记录
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表