设为首页 收藏本站
查看: 1103|回复: 0

[经验分享] Hadoop实战之三~ Hello World

[复制链接]

尚未签到

发表于 2015-7-11 07:44:28 | 显示全部楼层 |阅读模式
  本文介绍的是在Ubuntu下安装用三台PC安装完成Hadoop集群并运行好第一个Hello World的过程,软硬件信息如下:
  Ubuntu:12.04 LTS
  Master: 1.5G RAM,奔腾处理器。
  Slave1、Slave2:4G RAM,I3处理器。

开始
  1 安装Ubuntu : http://cdimage.ubuntu.com/releases/12.04/release/,Ubuntu的安装过程网上有很多,这里不再赘述了,安装之前一定要对Linux的目录树和Mount有所了解。另外i,安装Ubutu过程中,三个用户名必须是一样的,当然你后面建用户也行,但是不方便。另外OpenSSH一定要先装好。
  2 安装好后,开启root:



sudo passwd root
sudo passwd -u root
  3 开始安装jdk 1.6 ,下载地址 http://www.oracle.com/technetwork/java/javase/downloads/java-se-6u24-download-338091.html:
使用终端进入存放jdk-6u24-linux-i586.bin,我的位置是:/usr/lib。我推荐的终端软件为:XShell和XFTP。存放后后:
  第一步:更改权限;默认文件没有可执行权限



chmod g+x jdk-6u24-linux-i586.bin
  第二步: 安装



sudo -s ./jdk-6u24-linux-i586.bin
  安装完毕,下面配置环境变量
  我安装好后java的路径是:/usr/lib/jdk1.6.0_24
配置classpath,修改所有用户的环境变量:



sudo vi  /etc/profile  
  在文件最后添加



#set java environment
export JAVA_HOME=/usr/lib/jdk1.6.0_24
export JRE_HOME=/usr/lib/jdk1.6.0_24/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
  如果使用sudo提示不在用户组中 则敲命令 su -  ,切换到root,继续敲 visudo ,然后
在root ALL=(ALL:ALL) ALL下
添加
hadoop ALL=(ALL:ALL) ALL (ps:hadoop是我建的用户名。)
  重新启动计算机,用命令测试jdk的版本
java -version
显示如下信息:成功安装



java version "1.6.0_12"
Java(TM) SE Runtime Environment (build 1.6.0_12-b04)
Java HotSpot(TM) Server VM (build 11.2-b01, mixed mode)
  5 hadoop安装和运行
下载地址:http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-1.2.1/
存放目录:/home/hadoop(hadoop是用户名)
解压: tar -zxvf hadoop-1.2.1.tar.gz   
  6 Hadoop集群配置:
  1 修改三台主机的hosts文件 :



vi /etc/hosts
  加入如下四行,分别修改为你的master机器和slave机器的ip地址即可
  127.0.0.1 localhost
192.168.1.1 master
192.168.1.2 slave1
192.168.1.3 slave2
2 修改主机名 vi /etc/hostname
各自改为master,slave1,slave2.
  3 配置master免SSH登录slave
  在master上生成密钥:



ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa  
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
  然后用xftp将~/.ssh文件下的所有文件拷贝到两台slave机器即可。然后输入命令。



   cd ~/.ssh
scp authorized_keys slave1:~/.ssh/
scp authorized_keys slave2:~/.ssh/
  4 修改三台主机的配置文件



vi /home/hadoop/hadoop-1.2.1/conf/hadoop-env.sh
  加入:export JAVA_HOME=/usr/lib/jdk1.6.0_24 (更改为你们自己的目录)



vi /home/hadoop/hadoop-1.2.1/conf/core-site.xml
  加入:





fs.default.name
hdfs://master:9000


  继续:



vi /home/hadoop/hadoop-1.2.1/conf/hdfs-site.xml




dfs.replication
2


  继续:



vi /home/hadoop/hadoop-1.2.1/conf/mapred-site.xml




mapred.job.tracker
master:9001


  在master机器上修改:



vi /home/hadoop/hadoop-1.2.1/conf/masters
  加入master



vi /home/hadoop/hadoop-1.2.1/conf/slaves
  加入
  slave1
  slave2
  5 启动hadoop:



cd /home/hadoop/hadoop-1.2.1
bin/hadoop namenode  -format  --这里是格式化 一次即可
bin/start-all.sh
DSC0000.png
  6 Hello World-经典的wordcount程序



cd ~
mkdir file
cd file
echo "Hello World" > file1.txt
echo "Hello Hadoop" > file2.txt
cd /home/hadoop/hadoop-1.2.1
bin/hadoop fs -mkdir input
bin/hadoop fs -ls
bin/hadoop fs -put ~/file/file*.txt input
bin/hadoop fs -ls input
bin/hadoop jar ./hadoop-examples-1.2.1.jar wordcount input output
DSC0001.png
  查看输出结果:



bin/hadoop fs -ls output
DSC0002.png
  查看最终结果:
DSC0003.png
  可见,wordCount程序运行完成了。详细执行步骤如下:
  1)将文件拆分成splits,由于测试用的文件较小,所以每个文件为一个split,并将文件按行分割形成对,如图4-1所示。这一步由MapReduce框架自动完成,其中偏移量(即key值)包括了回车所占的字符数(Windows和Linux环境会不同)。
  
DSC0004.png
  图4-1 分割过程
  
  2)将分割好的对交给用户定义的map方法进行处理,生成新的对,如图4-2所示。
  
DSC0005.png
  图4-2 执行map方法
  
  3)得到map方法输出的对后,Mapper会将它们按照key值进行排序,并执行Combine过程,将key至相同value值累加,得到Mapper的最终输出结果。如图4-3所示。
  
DSC0006.png
  图4-3 Map端排序及Combine过程
  
  4)Reducer先对从Mapper接收的数据进行排序,再交由用户自定义的reduce方法进行处理,得到新的对,并作为WordCount的输出结果,如图4-4所示。
  
DSC0007.png
  图4-4 Reduce端排序及输出结果
  这一块:更详细的介绍可以参考:http://www.iyunv.com/xia520pi/archive/2012/05/16/2504205.html
  该文是对《Hadoop实战》最佳阐述。

后记
  搭建Hadoop集群网上的文章有很多,遇到问题不断的查找,最终总是可以解决问题的。感觉最繁碎的问题是权限,我后面一概就用root了。改起来烦。然,搭建完一个hadoop根本不算什么。搞懂hadoop适合的业务情形,搞懂Hadoop的设计思想,在写自己程序时,可以灵活运用,达到它山之石可以攻玉的效果,那才是学习Hadoop的最终目的。
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85310-1-1.html 上篇帖子: hadoop实战--搭建开发环境及编写Hello World 下篇帖子: hadoop安装部署
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表