设为首页 收藏本站
查看: 1501|回复: 0

Ubuntu下 Hadoop 1.2.1 配置安装

[复制链接]

尚未签到

发表于 2015-11-11 14:52:41 | 显示全部楼层 |阅读模式
本文从我的另外一个博客转过来,以后将大数据方面的都放在此博客。
本文一步步记录了 Ubuntu 环境安装Hadoop 1.2.1 ,搭建单机模式以及伪分布式模式,希望对各位和我一样的菜鸟有所帮助,共同学习进步,欢迎交流。尝试2.1安装未遂,由于文件结构不太一样缺乏相关资料,也非做运维的,遂放弃改用成熟的hadoop 1.2.1版本。
----------------------------------------单机模式-----------------------------------------
下载:hadoop-1.2.1.tar.gz
解压:
[plain] viewplaincopy

  • tar -xzvf hadoop-1.2.1.tar.gz   
转移:

[plain] viewplaincopy

  • mv hadoop-1.2.1/ /opt  
进入conf文件配置环境变量
DSC0000.jpg

让环境变量配置生效source,是source,不是sh,补充下sh和.的区别,参考


[plain] viewplaincopy

  • source hadoop-env.sh   

检测是否安装成功
DSC0001.jpg
[html] viewplaincopy

  •   

单机版hadoop安装成功,测试一下

[html] viewplaincopy

  • mkdir input  
[html] viewplaincopy

  • cp -R conf input/  

运行wordcount程序并将结果保存到output
hadoop hadoop-examples-1.2.1.jar

错误: 找不到或无法加载主类 hadoop-examples-1.2.1.jar

hadoop jar hadoop-examples-1.2.1.jarwordcount input output   发现错误,粗心害死猫....修改后运行,OK!
DSC0002.jpg

单机模式成功, 接下来搭建伪分布式
-------------------------------------------华丽的分割线 伪分布式-----------------------------------------
hadoop目录下创建以下目录:


[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1$ mkdir tmp  
  • dat@dat-HP:/opt/hadoop-1.2.1$ mkdir hdfs  
  • dat@dat-HP:/opt/hadoop-1.2.1$ mkdir hdfs/name  
  • dat@dat-HP:/opt/hadoop-1.2.1$ mkdir hafs/data  

编辑core-site.xml

[plain] viewplaincopy

  • <configuration>  
  •    <property>  
  •         <name>fs.default.name</name>  
  •         <value>hdfs://localhost:9000</value>  
  •     </property>  
  •     <property>  
  •         <name>hadoop.tmp.dir</name>  
  •         <value>/opt/hadoop-1.2.1/tmp</value>  
  •     </property>  
  • </configuration>  

hdfs-site.xml:


[plain] viewplaincopy

  • <configuration>  
  •   <property>  
  •         <name>dfs.replication</name>  
  •         <value>1</value>  
  •     </property>  
  •     <property>  
  •         <name>dfs.name.dir</name>  
  •         <value>/opt/hadoop-1.2.1/hdfs/name</value>  
  •     </property>  
  •     <property>  
  •         <name>dfs.data.dir</name>  
  •         <value>/opt/hadoop-1.2.1/hdfs/data</value>  
  •     </property>  
  • </configuration>  

mapred-site.xml:


[plain] viewplaincopy

  • <configuration>  
  •   <property>  
  •         <name>mapred.job.tracker</name>  
  •         <value>localhost:9001</value>  
  •     </property>  
  • </configuration>  

&#26684;式化HDFS(建议只&#26684;式化一次,多次&#26684;式化据传后边会引起问题,本人没有尝试...):

[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1/conf$ source hadoop-env.sh   
  • dat@dat-HP:/opt/hadoop-1.2.1/conf$ hadoop namenode -format  

DSC0003.jpg

启动Hadoop:
执行执行bin/start-all.sh来启动所有服务,包括namenode,datanode,start-all.sh脚本用来装载守护进程

[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1/bin$ start-all.sh   

DSC0004.jpg

用java的jps命令验证是否安装成功:

[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1$ jps  

DSC0005.jpg

少一个DataNode进程没有启动,通过查看上边现实的路径下的日志发现:
DSC0006.jpg

很明显,data文件夹的权限不对,修改权限:

[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1/hdfs$ chmod 755 data  

关闭hadoop,重新启动:

[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1/bin$ stop-all.sh  
[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1/bin$ start-all.sh   
[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1/bin$ jps  
DSC0007.jpg

6个进程全部启动了,此时安装正常,可以进行Hadoop的相关操作了。


检查运行状态:可以通过下面的操作来查看服务是否正常,在Hadoop中用于监控集群健康状态的Web界面
http://localhost:50030/     - Hadoop 管理介面
http://localhost:50060/     - Hadoop Task Tracker 状态
http://localhost:50070/     - Hadoop DFS 状态




hadoop的伪分布模式已经安装成功,再次在伪分布模式下运行一下WordCount来感受MapReduce过程:
这时注意程序是在文件系统dfs运行的,创建的文件也都基于文件系统:


首先在dfs中创建input目录

[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1/conf$ hadoop dfs -mkdir input  
  • Warning: $HADOOP_HOME is deprecated.  

将conf中的文件拷贝到dfs中的input


[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1$ hadoop dfs -copyFromLocal conf/* input  

在伪分布式模式下运行WordCount


[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1$ hadoop jar hadoop-examples-1.2.1.jar wordcount input output  

DSC0008.jpg

INFO mapred.JobClient:  map 100% reduce0% 到这里卡死不动了。
解决办法:查询鸟文论坛帖子(http://stackoverflow.com/questions/10165549/hadoop-wordcount-example-stuck-at-map-100-reduce-0)发现,修改/etc/hosts文件,加入主机名和IP地址的映射。
检查主机名:

[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1/conf$ hostname  

DSC0009.jpg

修改/etc/hosts文件:

DSC00010.jpg

重新来过:

[plain] viewplaincopy

  • hadoop dfs -rmr output/  
  • hadoop jar hadoop-examples-1.2.1.jar wordcount input output  
依旧不起作用...........重启,再重新来过.................ok!!!
DSC00011.jpg
oK!!看见没有,你成功了!!!!!!
检测一下输出信息:
[plain] viewplaincopy

  • dat@dat-HP:/opt/hadoop-1.2.1$ hadoop dfs -cat output/*  
DSC00012.jpg

ok!!此时伪分布式系统环境已可以正常使用~~~!
YOU GET YOUR FOOT IN THE DOOR!
         版权声明:本文为博主原创文章,未经博主允许不得转载。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-137993-1-1.html 上篇帖子: Hadoop 从零开始学习系列-hive与hbase外部关联表建立及数据导入 下篇帖子: 通过Hive执行任务,异常——Hive:Connection refused;Hadoop:too many open files
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表