设为首页 收藏本站
查看: 1046|回复: 0

[经验分享] Hadoop 2.6.0 完全分布式部署安装

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2015-5-12 08:37:27 | 显示全部楼层 |阅读模式
一、准备软件环境:
    hadoop-2.6.0.tar.gz
    CentOS-5.11-i386
    jdk-6u24-linux-i586
    Master:hadoop02     192.168.20.129

    Slave01:hadoop03    192.168.20.130

    Slave02:hadoop04    192.168.20.131
二、安装JDK、SSH环境和hadoop【先在hadoop02下】
    对于JDK
1
2
3
chmod u+x jdk-6u24-linux-i586.bin
./jdk-6u24-linux-i586.bin
mv jdk-1.6.0_24  /home/jdk



注:证明JDK安装成功命令:
    #java  -version
   对于SSH
1
2
ssh-keygen -t rsa
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys



注:证明SSH无密码登录成功命令:
    #ssh localhost
    对于Hadoop
1
2
tar -zxvf hadoop-2.6.0.tar.gz
mv hadoop-2.6.0 /home/hadoop



   #vim /etc/profile
1
2
3
export JAVA_HOME=/home/jdk
export HADOOP_HOME=/home/hadoop
export PATH=.:$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH



    #source /etc/profile
    #vim /etc/hosts
1
2
3
192.168.20.129  hadoop02
192.168.20.130  hadoop03
192.168.20.131  hadoop04



三、配置Hadoop环境【先在hadoop02下】
    1)配置文件1:hadoop-env.sh

1
export JAVA_HOME=/home/jdk



   2)配置文件2:yarn-env.sh

1
export JAVA_HOME=/home/jdk



   3)配置文件3:slaves
1
2
hadoop03
hadoop04



    4)配置文件4:core-site.xml
1
2
3
4
5
6
7
8
9
10
<configuration>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/data/hadoop-${user.name}</value>
        </property>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://hadoop02:9000</value>
        </property>
</configuration>



    5)配置文件5:hdfs-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
<configuration>
        <property>
                <name>dfs.http.address</name>
                <value>hadoop02:50070</value>
        </property>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>hadoop02:50090</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
</configuration>



    6)配置文件6:mapred-site.xml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
<configuration>
        <property>
                <name>mapred.job.tracker</name>
                <value>hadoop02:9001</value>
         </property>
        <property>
                <name>mapred.map.tasks</name>
                <value>20</value>
        </property>
        <property>
                <name>mapred.reduce.tasks</name>
                <value>4</value>
        </property>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.address</name>
                <value>hadoop02:10020</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>hadoop02:19888</value>
        </property>
</configuration>



    7)配置文件7:yarn-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
<configuration>
        <property>
                <name>yarn.resourcemanager.address</name>
                <value>hadoop02:8032</value>
        </property>
        <property>
                <name>yarn.resourcemanager.scheduler.address</name>
                <value>hadoop02:8030</value>
        </property>
        <property>
                <name>yarn.resourcemanager.webapp.address</name>
                <value>hadoop02:8088</value>
        </property>
        <property>
                <name>yarn.resourcemanager.resource-tracker.address</name>
                <value>hadoop02:8031</value>
        </property>
        <property>
                <name>yarn.resourcemanager.admin.address</name>
                <value>hadoop02:8033</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
                <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
</configuration>



四、配置hadoop03和hadoop04
    他们的配置同hadoop02一样,同理:
1
2
3
4
5
6
7
8
     scp -r /root/.ssh/ root@hadoop03:/root/.ssh/
     scp -r /root/.ssh/ root@hadoop04:/root/.ssh/
     scp /etc/profile root@hadoop03:/etc/
     scp /etc/profile root@hadoop04:/etc/
     scp /etc/hosts root@hadoop03:/etc/
     scp /etc/hosts root@hadoop04:/etc/
     scp -r /home/  root@hadoop03:/home/
     scp -r /home/  root@hadoop04:/home/



五、启动hadoop集群
    1)格式化namenode:
1
     /home/hadoop/bin/hdfs namenode -format



    2)启动hdfs:
1
     /home/hadoop/sbin/start-dfs.sh



          此时在Master上面运行的进程有:namenode secondarynamenode
          Slave1和Slave2上面运行的进程有:datanode

      3)启动yarn:

1
     /home/hadoop/sbin/start-yarn.sh



          此时在Master上面运行的进程有:namenode secondarynamenode resourcemanager

          Slave1和Slave2上面运行的进程有:datanode nodemanaget

    4)检查启动结果
           查看集群状态:
1
      hdfs dfsadmin –report



           查看HDFS:
1
      http://192.168.20.129:50070





六、总结实验--错误:
1
    15/05/11 13:41:55 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable



     这个错误是/home/hadoop/lib/native/libhadoop.so.1.0.0是64位系统,而我所用是32位系统,
但不影响系统
1
     #file libhadoop.so.1.0.0



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-66092-1-1.html 上篇帖子: Hadoop子项目介绍 下篇帖子: hadoop新特性通过NFSv3挂载HDFS到本地目录
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表