设为首页 收藏本站
查看: 3185|回复: 0

[经验分享] Hadoop入门实验

[复制链接]

尚未签到

发表于 2015-7-12 10:22:30 | 显示全部楼层 |阅读模式
Hadoop实验总结

一、实验目的
了解Hadoop的MapeReduce工作原理

二、实验内容
实现基于单机的伪分布式运行模拟

三、实验需要准备的软件和源
1、Jdk1.6以上 下载地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html
2、Cygwin       下载地址:http://www.cygwin.com/
3、稳定版hadoop  下载地址:http://hadoop.apache.org/common/releases.html#Download

四、实验步骤
1、了解Hadoop工作机制
a、Hadoop整体框架运行机制介绍
请参见http://hi.baidu.com/wongxuelei/blog/item/c1642050cfb56d481138c2fd.html
b、Hadoop中MapReduce部分执行流程
请参见http://www.blogjava.net/shenh062326/archive/2011/01/14/342959.html
c、Hadoop在线中文技术文档
请参见http://hadoop.apache.org/common/docs/r0.18.2/cn/

个人意见:
    a和b说的非常详细,刚入门可以大体了解Hadoop的HDFS和MapeReduce工作框架,等做完实验后再回过头来看这个会更清楚;c上有实例的说明和代码。

2、安装JDK到本地机器
安装目录最好不要有空格(如果有在配置Hadoop的JAVA_HOME时有点麻烦,下面会具体介绍)

3、安装Cygwin
请参见《Hadoop开发者入门》第11页 ——>在Windows上安装Hadoop教程

个人意见:
    a、注意选择上面说的需在Cygwin中安装的包;
    b、上面说到的http://www.cygwin.cn好像链接不上了,目前内陆最快的是源有
http://mirrors.163.com/cygwin/  http://mirrors.sohu.com/cygwin/ 会到30 k/s左右,其他的速度一般只有3~5 k/s;
c、如果没装成功,最好运行regedit.exe进入注册表,删除Cygwin文件,目录所在位置如图1;
d、环境变量配置仅需把平时我们陪JDK的方法配好,Cygwin仅需把bin所在目录加入,usr下的不用配;
e、安装好sshd后,该服务可以在装好的Cygwin中输入net start sshd命令启动。


图1 、Cygwin所在注册表位置

http://onexin.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/Scidets/LOCALS~1/Temp/ksohtml/wps_clip_image-6364.png
4、安装Hadoop
a、下载Hadoop的稳定版本,我选择的是hadoop-0.18.3.tar.gz(最新版本不太好用),然后解压到任意盘下;
b、配置Hadoop用于在单机环境上运行的配置文件在最后,来源http://hi.baidu.com/shirdrn/blog/item/33c762fecf9811375c600892.html

注意事项:
    a、在配置完JAVA_HOME后,如果路径有空格,运行$ bin/hadoop namenode -format命令也可能会出错,最好的办法是将Windows下的JDK映射到Cygwin中,命令如下:
LN  -s  /cygdrive/c/Program\ Files/Java/  /usr/local/
其中
/cygdrive/c/Program\ Files/Java/表示在Windows中的JDK路径,
/usr/local/表示你想映射到的Cygwin路径。
然后在把JAVA_HOME配置成 export  JAVA_HOME="/usr/local/"

        b、运行“ $ bin/hadoop dfs -put ./input input”命令时可能会出现让你把hadoop-site.xml中的“localhost:9000”改成“ hdfs:\\localhost:9000”的问题。未解决,据网上了解说是因为单机运行的问题。



来源http://hi.baidu.com/shirdrn/blog/item/33c762fecf9811375c600892.html
首先进行Hadoop配置:
1、conf/hadoop-env.sh文件中最基本需要指定JAVA_HOME,例如我的如下:
export JAVA_HOME="D:\Program Files\Java\jdk1.6.0_07"

如果路径中存在空格,需要使用双引号。
2、只需要修改conf/hadoop-site.xml文件即可,默认情况下,hadoop-site.xml并没有被配置,如果是基于单机运行,就会按照hadoop-default.xml中的基本配置选项执行任务。
将hadoop-site.xml文件修改为如下所示:





    fs.default.name
    localhost:9000


    mapred.job.tracker
    localhost:9001


    dfs.replication
    1



实现过程
1、认证配置
启动cygwin,同时使用下面的命令启动ssh:
$ net start sshd

如图所示:

http://onexin.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/Scidets/LOCALS~1/Temp/ksohtml/wps_clip_image-4784.png
接着,需要对身份加密认证这一部分进行配置,这也是非常关键的,因为基于分布式的多个Datanode结点需要向Namenode提供任务执行报告信息,如果每次访问Namenode结点都需要密码验证的话就麻烦了,当然我要说的就是基于无密码认证的方式的配置,可以参考我的其他文章。
生成RSA公钥的命令如下:
$ ssh-keygen

生成过程如图所示:

http://onexin.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/Scidets/LOCALS~1/Temp/ksohtml/wps_clip_image-4813.png
上面执行到如下步骤时需要进行设置:
Enter file in which to save the key (/home/SHIYANJUN/.ssh/id_rsa):

直接按回车键即可,按照默认的选项将生成的RSA公钥保存在/home/SHIYANJUN/.ssh/id_rsa文件中,以便结点之间进行通讯认证。
继续执行,又会提示进行输入选择密码短语passphrase,在如下这里:
Enter passphrase (empty for no passphrase):

直接按回车键,而且一定要这么做,因为空密码短语就会在后面执行过程中免去结点之间通讯进行的认证,直接通过RSA公钥(事实上,我们使用的是DSA认证,当然RSA也可以进行认证,继续看后面)认证。
RSA公钥主要是对结点之间的通讯信息加密的。如果RSA公钥生成过程如上图,说明正确生成了RSA公钥。
接着生成DSA公钥,使用如下命令:
$ ssh-keygen -t dsa

生成过程与前面的RSA类似,如图所示:

http://onexin.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/Scidets/LOCALS~1/Temp/ksohtml/wps_clip_image-4885.png
然后,需要将DSA公钥加入到公钥授权文件authorized_keys中,使用如下命令:
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

如图所示,没有任何信息输出:

http://onexin.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/Scidets/LOCALS~1/Temp/ksohtml/wps_clip_image-4918.png
到此,就可以进行Hadoop的运行工作了。
2、Hadoop处理的数据文件准备
我使用的是hadoop-0.16.4版本,直接拷贝到G:\根目录下面,同时,我的cygwin直接安装在G:\Cygwin里面。
在目录G:\hadoop-0.16.4中创建一个input目录,里面准备几个TXT文件,我准备了7个,文件中内容就是使用空格分隔的多个英文单词,因为是运行WordCount这个例子,后面可以看到我存入了多少内容。
3、运行过程
下面,切换到G:\hadoop-0.16.4目录下面
$ cd http://www.iyunv.com/cygdrive/g/hadoop-0.16.4

其中通过cygdrive(位于Cygwin根目录中)可以直接映射到Windows下的各个逻辑磁盘分区中。
在执行任务中,使用HDFS,即Hadoop的分布式文件系统,因此这时要做的就是格式化这个文件系统,使用下面命令可以完成:
$ bin/hadoop namenode -format

格式化过程如图所示:

http://onexin.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/Scidets/LOCALS~1/Temp/ksohtml/wps_clip_image-4643.png
此时,应该启动Namenode、Datanode、SecondaryNamenode、JobTracer,使用这个命令启动:
$ bin/start-all.sh

启动过程如图所示:

http://onexin.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/Scidets/LOCALS~1/Temp/ksohtml/wps_clip_image-4611.png
如果你没有配置前面ssh的无密码认证,或者配置了但是输入了密码短语,那么到这里就会每启动一个进程就提示输入密码,试想,如果有N多进程的话,那岂不是要命了。
然后,需要把上面我们在本地的input目录中准备的文件复制到HDFS中的input目录中,以便在分布式文件系统管理这些待处理的数据文件,使用下面命令:
$ bin/hadoop dfs -put ./input input

执行上述命令如果没有信息输出就复制成功。
现在,才可以执行Hadoop自带的WordCount列子了,使用下面命令开始提交任务,进入运行:
$ bin/hadoop jar hadoop-0.16.4-examples.jar wordcount input output

最后面两个参数分别为数据输入目录和数据处理完成后的输出目录,这里,不能在你的G:\hadoop-0.16.4目录中存在output这个目录,否则会报错的。
运行过程如图所示:

http://onexin.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/Scidets/LOCALS~1/Temp/ksohtml/wps_clip_image-4539.png
通过上图,可以看出在运行一个Job的过程中,WordCount工具执行任务的进度情况,非常详细。
最后查看执行任务后,处理数据的结果,使用的命令行如下所示:
$ bin/hadoop dfs -cat output/part-00000

输出结果如图所示:

http://onexin.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/Scidets/LOCALS~1/Temp/ksohtml/wps_clip_image-4493.png
最后,停止Hadoop进程,使用如下命令:
$ bin/stop-all.sh

如图所示:

http://onexin.iyunv.com/source/plugin/onexin_bigdata/file:///C:/DOCUME~1/Scidets/LOCALS~1/Temp/ksohtml/wps_clip_image-4421.png
以上就是全部的过程了。


5、hadoop自带example的代码和分析
请参见Hadoop MapReduce教程

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85718-1-1.html 上篇帖子: hadoop配置文件加载顺序 下篇帖子: hadoop hive安装手记(转)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表