设为首页 收藏本站
查看: 522|回复: 0

[经验分享] CentOS6.4安装Hadoop2.1beta

[复制链接]

尚未签到

发表于 2016-12-13 11:17:49 | 显示全部楼层 |阅读模式
1.安装JDK7 rpm到/usr/java/jdk1.7.0_40
[iyunv@server-308 ~]# rpm -ivh jdk-7u40-linux-x64.rpm
Preparing...                ########################################### [100%]
1:jdk                    ########################################### [100%]
Unpacking JAR files...
rt.jar...
jsse.jar...
charsets.jar...
tools.jar...
localedata.jar...
jfxrt.jar...
[iyunv@server-308 ~]# java -version
java version "1.7.0_40"
Java(TM) SE Runtime Environment (build 1.7.0_40-b43)
Java HotSpot(TM) 64-Bit Server VM (build 24.0-b56, mixed mode)

2.下载hadoop2.1beta并解压至/opt/hadoop-2.1.0-beta,并建立软链/opt/hadoop接到/opt/hadoop-2.1.0-beta
[iyunv@server-308 ~]# cd /opt
[iyunv@server-308 opt]# tar -zxvf /root/hadoop-2.1.0-beta.tar.gz
[iyunv@server-308 opt]# ln -s hadoop-2.1.0-beta hadoop
[iyunv@server-308 opt]# ls
cedar hadoop hadoop-2.1.0-beta rh
3. 设置环境变量、
[iyunv@server-308 opt]# vim /etc/profile
在文件末尾添加如下内容:
export JAVA_HOME=/usr/java/default
export PATH=${JAVA_HOME}/bin:${PATH}
export HADOOP_PREFIX=/opt/hadoop
export PATH=$PATH:$HADOOP_PREFIX/bin
export PATH=$PATH:$HADOOP_PREFIX/sbin
export HADOOP_MAPRED_HOME=${HADOOP_PREFIX}
export HADOOP_COMMON_HOME=${HADOOP_PREFIX}
export HADOOP_HDFS_HOME=${HADOOP_PREFIX}
export YARN_HOME=${HADOOP_PREFIX}
使上述修改生效:[iyunv@server-308 opt]# source /etc/profile
4.建立用户和组

[iyunv@server-308 opt]# groupadd hadoop
[iyunv@server-308 opt]# useradd -g hadoop yarn
[iyunv@server-308 opt]# useradd -g hadoop hdfs
[iyunv@server-308 opt]# useradd -g hadoop mapred
5.创建相关路径和文件
[iyunv@server-306 opt]# mkdir -p /var/data/hadoop/hdfs/nn
[iyunv@server-306 opt]# mkdir -p /var/data/hadoop/hdfs/snn
[iyunv@server-306 opt]# mkdir -p /var/data/hadoop/hdfs/dn
[iyunv@server-306 opt]# mkdir -p /opt/hadoop/logs
[iyunv@server-306 opt]# mkdir -p /var/log/hadoop/yarn
[iyunv@server-306 opt]# cd /opt/hadoop/logs
[iyunv@server-306 logs]# chown hdfs:hadoop /var/data/hadoop/hdfs -R
[iyunv@server-306 logs]# chown yarn:hadoop /var/log/hadoop/yarn -R
[iyunv@server-306 logs]# chmod g+w /opt/hadoop/logs
[iyunv@server-306 logs]# chown yarn:hadoop . -R
6.修改hadoop配置文件
vim /opt/hadoop/etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.32.31:8020</value>
</property>
<property>
<name>hadoop.http.staticuser.user</name>
<value>hdfs</value>
</property>
</configuration>
7.修改hdfs-site.xml
vim /opt/hadoop/etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/var/data/hadoop/hdfs/nn</value>
</property>
<property>
<name>fs.checkpoint.dir</name>
<value>file:/var/data/hadoop/hdfs/snn</value>
</property>
<property>
<name>fs.checkpoint.edits.dir</name>
<value>file:/var/data/hadoop/hdfs/snn</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/var/data/hadoop/hdfs/dn</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
8.修改mapred-site.xml
#cp mapred-site.xml.template mapred-site.xml
#vi mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
9.修改yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce.shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
格式化集群
su - hdfs
cd /opt/hadoop
./hdfs namenode -format
启动hdfs
cd ../sbin
./hadoop-daemon.sh start namenode
./hadoop-daemon.sh start secondarynamenode
./hadoop-daemon.sh start datanode
启动yarn
su - yarn
cd /opt/hadoop/sbin
./yarn-daemon.sh start resourcemanager
./yarn-daemon.sh start nodemanager

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-313724-1-1.html 上篇帖子: 求助hadoop2.X分布式搭建两个NameNode均无法正常启动 下篇帖子: hadoop2.2.0遇到64位操作系统平台报错
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表