设为首页 收藏本站
查看: 816|回复: 0

[经验分享] Ubuntu下Hadoop的安装与配置

[复制链接]

尚未签到

发表于 2015-7-14 10:35:00 | 显示全部楼层 |阅读模式
一、安装
1.1 安装ssh

apt-get install ssh
1.2 安装rsync
apt-get install rsync
1.3 安装jdk1.6
方法1:
  sudo apt-get install sun-java6-jdk
方法2:
jdk地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk7u7-downloads-1836413.html
下载:jdk-7u7-linux-i586.tar.gz
下载安装文件名为jdk-6u30-linux-i586.bin,放到/home/Hadoop目录下;
  cd /home/Hadoop
运行jdk-6u30-linux-i586.bin
  ./jdk-6u30-linux-i586.bin
1.4 安装Hadoop

从http://Hadoop.apache.org/core/releases.html 下载最近发布的版本
最好为Hadoop创建一个用户:
比如创建一个group为hadoop user为hadoop的用户以及组
   sudo addgroup hadoop
   sudo adduser --ingroup hadoop hadoop
解压下载的Hadoop文件,放到/home/hadoop目录下 名字为Hadoop
 
 tar zxf hadoop-1.0.4-bin.tar.gz
二、配置
2.1 配置JDK环境变量
vi /etc/profile
增加下面语句到最后
  export JAVA_HOME=/home/app/jdk1.6.0_30
  export PATH=$JAVA_HOME/bin:$PATH
  export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
一般更改/etc/profile文件后,需要重启机器才能生效。这里介绍一种不用重启使其生效的方法:source /etc/profile
查看java环境变量是否配置成功:java -version
2.2 配置Hadoop
进入Hadoop目录
  cd /home/hadoop/Hadoop
修改配置文件,指定JDk安装路径
  vi conf/hadoop-env.sh
  export JAVA_HOME=/home/app/jdk1.6.0_30
修改Hadoop核心配置文件core-site.xml,这里配置的是HDFS的地址和端口号.Hadoop.tmp.dir配置为你想要的路径,指定了所有上传到Hadoop的文件的存放目录,所以要确保足够大
  vi conf/core-site.xml
  
    
      Hadoop.tmp.dir   
      /home/hadoop/Tmp         
         
    
          fs.default.name
          hdfs://localhost:9000  
     
  
修改Hadoop中HDFS的配置,配置的备份方式默认为3,因为安装的是单机版,所以需要改为1
  vi conf/hdfs-site.xml
  
     
          dfs.replication
          1
      
  
修改Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口
  vi conf/mapred-site.xml
  
     
          mapred.job.tracker
          localhost:9001
     
  
接下来,启动Hadoop,在启动之前,需要格式化Hadoop的文件系统HDFS,进入Hadoop文件夹,输入下面命令
  bin/hadoop namenode -format
然后启动Hadoop,输入命令
  bin/start-all.sh
这个命令为所有服务全部启动。
最后,验证Hadoop是否安装成功。打开浏览器,分别输入一下网址:
  http://localhost:50030    (MapReduce的Web页面)
  http://lcoalhost:50070    (HDfS的web页面)
如果都能查看,说明安装成功。





Hadoop分别从三个角度将主机划分为两种角色:
第一,划分为master和slave,即主人与奴隶



第二,从HDFS的角度,将主机划分为namenode和datanode(在分布式文件系统中,目录的管理很重要,管理目录的就相当于主人,而namenode就是目录管理者)。
第三,从MapReduce的角度,将主机划分为JobTracker和TaskTracker(一个job经常被划分为多个task,从这个角度不难理解它们之间的关系)。
2.3 Hadoop集群配置
三台实体机子做实验,一台做NameNode,JobTracker,另外两台做DataNode,TaskTracker。
本教程里就用的三台机子做演示。
station1         192.168.128.11       NameNode
station2         192.168.128.22       DataNode
station3         192.168.128.33       DataNode
1)按照上述方法在NameNode上进行配置
2)将NameNode上拷贝完整的hadoop到DataNode上
3)配置NameNode上的conf/masters和conf/slaves
masters:
192.168.128.11
slaves:
192.168.128.22
192.168.128.33
运行hadoop
1)格式化文件系统
[cuijj@station1 hadoop-0.20.2]$ hadoop namenode -format
2)启动Hadoop
[cuijj@station1 hadoop-0.20.2]$ bin/start-all.sh
3)用jps命令查看进程,NameNode上的结果如下:



4)查看集群状态
[cuijj@station1 hadoop-0.20.2]$ hadoop dfsadmin -report
5)用hadoop的web方式查看
[cuijj@station1 hadoop-0.20.2]$ links http://192.168.128.11:50070



8、运行wordcount.java程序
1)先在本地磁盘建立两个文件file01和file02
[cuijj@station1 ~]$ echo "Hello cuijj bye cuijj" > file01
[cuijj@station1 ~]$ echo "Hello Hadoop Goodbye Hadoop" > file02

2)在hdfs中建立一个input目录
[cuijj@station1 ~]$ hadoop dfs -mkdir input
3)将file01和file02拷贝到hdfs的input目录下
[cuijj@station1 ~]$ hadoop dfs -copyFromLocal /home/cuijj/file0* input
4)查看hdfs中有没有input目录
[cuijj@station1 ~]$ hadoop dfs -ls



5)查看input目录下有没有复制成功file01和file02



6)执行wordcount(确保hdfs上没有output目录)
[cuijj@station1 hadoop-0.20.2]$ hadoop jar hadoop-0.20.2-examples.jar wordcount input output
7)运行完成,查看结果
hadoop dfs -cat output/part-r-00000



  本教程到此结束,对教程如有疑问,可E-mail联系我,也可到我博客留言。
  
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-86601-1-1.html 上篇帖子: Hadoop如何恢复被删除的文件 下篇帖子: Hadoop in Action 第二章
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表