设为首页 收藏本站
查看: 1550|回复: 0

[经验分享] hadoop2.2完全分布式高可靠安装文档

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-8-15 09:16:17 | 显示全部楼层 |阅读模式
  • 集群环境
3台机器,一主两从:

192.168.41.100  master
192.168.41.101  slave1
192.168.41.102  slave2
系统为CentOS 6.4

2.安装步骤:
① 安装前准备
(1)3台机器全部修改hosts文件和hostname后重启
1
vim /etc/hosts



wKiom1Ps0ObzuDfTAADU4T8eCFw652.jpg
(2)配置节点之间SSH免密码登陆(可参考博文hadoop1集群安装,这里不在详述)
(3)安装jdk(可参考博文hadoop1集群安装,这里不在详述)

②解压hadoop
1
2
3
tar zvxf /usr/local/hadoop-2.2.0.tar.gz -C /usr
cd /usr
mv hadoop-2.2.0 hadoop



效果如下:

wKioL1Ps08HjcxO0AABQPc2yQxM754.jpg

③hadoop配置过程
(1)在master本地创建如下文件夹:

wKiom1Ps03CCevFlAAC2j7bfceI212.jpg
(2)修改hadoop默认模板保证以下文件存在
hadoop-env.sh
yarn-env.sh
slaves
core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml
命令如下:
1
2
cd /usr/hadoop/etc/hadoop
mv mapred-site.xml.template mapred-site.xml



(3)修改配置文件
配置文件1:hadoop-env.sh
修改JAVA_HOME值
wKioL1Ps1qmjbx0XAADeeoa2RIY422.jpg
配置文件2:yarn-env.sh
修改JAVA_HOME值
wKioL1Ps1tqDNnWNAAEtZdNVxEo683.jpg
配置文件3:slaves (这个文件里面保存所有slave节点)
wKiom1Ps1diR0niWAAAUta_G3MA326.jpg
配置文件4:core-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23

   
        fs.defaultFS
        hdfs://master:8020
   
     
                io.file.buffer.size
                131072
         
         
           hadoop.tmp.dir
           file:/root/tmp
            Abase for other temporary   directories.
         
         
           hadoop.proxyuser.root.hosts
        *
         
         
           hadoop.proxyuser.root.groups
           *
         




配置文件5:hdfs-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22

      
                dfs.namenode.secondary.http-address
               master:9001
      
     
             dfs.namenode.name.dir
             file:/root/dfs/name
      
      
              dfs.datanode.data.dir
              file:/root/dfs/data
      
      
               dfs.replication
               3
        
        
                 dfs.webhdfs.enabled
                  true
         




配置文件6:mapred-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14

         
                mapreduce.framework.name
                yarn
           
         
                  mapreduce.jobhistory.address
                  master:10020
         
         
                mapreduce.jobhistory.webapp.address
                master:19888
      




配置文件7:yarn-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

        
               yarn.nodemanager.aux-services
               mapreduce_shuffle
        
                                                                        
         yarn.nodemanager.aux-services.mapreduce.shuffle.class
               org.apache.hadoop.mapred.ShuffleHandler
        
        
               yarn.resourcemanager.address
               master:8032
      
      
               yarn.resourcemanager.scheduler.address
               master:8030
      
      
            yarn.resourcemanager.resource-tracker.address
             master:8031
      
      
              yarn.resourcemanager.admin.address
               master:8033
      
      
               yarn.resourcemanager.webapp.address
               master:8088
      





④复制到其他节点
1
scp -r /usr/hadoop root@slave1:~/usr



⑤配置环境变量
wKioL1Ps2FqA4G-oAAJD833shAY370.jpg

⑥启动验证
(1)启动hadoop

1
hdfs namenode -format



或者
1
hadoop namenode format



(2)启动hdfs
1
start-dfs.sh



此时master上有namenode和secondname,slave上有datanode:
wKiom1Ps2K_B5eHXAABJvDYsf-Y381.jpg
wKioL1Ps2ciDE9OhAABZWjJAJss064.jpg
wKioL1Ps2cnBtyTyAABYwIZhYGw469.jpg
(3)启动yarn
1
start-yarn.sh



启动后master和slave进程如下:

wKioL1Ps2kDwY57vAABbJj4olVM323.jpg
wKiom1Ps2SjQf9F0AABmoogctBg966.jpg
wKioL1Ps2kGT3SFqAAGODSmFMaQ647.jpg
此时全部集群配置完毕

windows可以修改本机hosts来查看,http://master:8088
wKiom1Ps2aPB38ZrAAMMUGmKLTc458.jpg

3.需要注意的问题:
hadoop2.2的配置还是比较简单的,但是可能会遇到各种各样的问题。最常讲的就是看不到进程。
看不到进程大致有两个原因:
(1)你的配置文件有问题。
对于配置文件,主机名,空格之类的这些都不要带上。仔细检查
(2)Linux的权限不正确。
最常出问题的是core-site.xml,与hdfs-site.xml
core-site.xml:
1
2
3
4
5

       hadoop.tmp.dir
       file:/root/tmp
       Abase forother temporary directories.




上面参数的含义,这里是hadoop的临时文件目录,file的含义是使用本地目录。也就是使用的是Linux的目录,一定确保下面目录/root/tmp的权限所属为你创建的用户辅导。如果你创建了zhangsan或则lisi,那么这个目录就会变为/home/zhangsan/tmp,hdfs-site.xml也是同理。


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-23889-1-1.html 上篇帖子: Hadoop从0开始 (安装配置) (一) 下篇帖子: HADOOP启动时报错总结
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表