设为首页 收藏本站
查看: 3249|回复: 0

[经验分享] hadoop入门之单机版环境搭建(多图)

[复制链接]

尚未签到

发表于 2015-7-12 09:05:17 | 显示全部楼层 |阅读模式
  系统环境




  • Linux 10-2-5-234 2.6.9-67.ELsmp #1 SMP Wed Nov 7 13:56:44 EST 2007 x86_64 x86_64 x86_64 GNU/Linux
  • Red Hat Enterprise Linux AS release 4 (Nahant Update 6)
  • jdk-6uxx-linux-i586
  • Apache Ant version 1.7.0 compiled on December 13 2006
  • Hadoop-0.20.1
  1)     Java环境的安装与配置
  从java.sun.com下载jdk-6uxx-linux-i586.bin。
  解压java

  设置环境变量

  在profile 文件中加入:
  $export PATH=/root/jdk1.6.0_14/bin:$PATH
$export JAVA_HOME=/root/jdk1.6.0_14
  执行下面命令,让环境变量生效

  测试java是否安装成功

  看到以上信息证明你的java >已经安装成功
  2) 安装Hadoop
  从hadoop官网下载hadoop-0.20.1.tar.gz

  在hadoop-env.sh 中添加export JAVA_HOME=/root/jdk1.6.0_14
  测试hadoop是否安装成功

  3) 配置单机环境下的hadoop
  a) 编辑配置文件



  b) 设置ssh为不需要手动输入密码的方式登陆
  $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
  c)格式化一个新的分布式文件系统
  $ cd hadoop-0.20.1
$ bin/hadoop namenode –format
  d)启动 hadoop 进程。控制台上的输出信息应该显示启动了 namenode, datanode, secondary namenode, jobtracker, tasktracker。启动完成之后,通过 ps –ef 应该可以看到启动了5个新的 java 进程

  
  $ bin/start-all.sh
$ ps –ef
  
  

e)运行 wordcount 应用
  
  $ cd hadoop-0.20.1
$ mkdir test-txt
$ cd test-txt
  
  

#在 test-txt 目录下创建两个文本文件, WordCount 程序将统计其中各个单词出现次数
  $ echo "hello world, bye , world." >file1.txt  
$ echo "hello hadoop, goodbye , hadoop" >file2.txt
$ cd ..
$ bin/hadoop dfs -put ./test-txt input

#将本地文件系统上的./test-txt目录拷到 HDFS 的根目录上,目录名改为 input
#执行 bin/hadoop dfs –help 可以学习各种 HDFS 命令的使用。
  
  $ bin/hadoop jar hadoop-0.20.1-examples.jar wordcount input output
  
  

#查看执行结果:
#将文件从 HDFS 拷到本地文件系统中再查看:
  
  $ bin/hadoop dfs -get output output
$ cat output/*
  
  

#也可以直接查看
  
  $ bin/hadoop dfs -cat output/*
$ bin/stop-all.sh #停止hadoop进程
  
  

f)运行效果

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85664-1-1.html 上篇帖子: Nutch 2.x + Hadoop 2.5.2 + Hbase 0.94.26 下篇帖子: Hadoop的datanode无法启动
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表