设为首页 收藏本站
查看: 1640|回复: 0

[经验分享] 附录A 编译安装Hadoop

[复制链接]

尚未签到

发表于 2017-12-16 22:38:24 | 显示全部楼层 |阅读模式
A.1  编译Hadoop
A.1.1  搭建环境
第一步安装并设置maven
1.  下载maven安装包
建议安装3.0以上版本(由于Spark2.0编译要求Maven3.3.9及以上版本),本次安装选择的是maven3.3.9的二进制包,下载地址如下:
http://mirror.bit.edu.cn/apache/maven/maven-3/

2.  上传git并解压缩
把下载的maven安装包上传到/home/spark/work目录,使用如下命令解压缩并把文件夹移动到/app/soft目录下:
$cd /home/spark/work

$tar -zxf apache-maven-3.3.9-bin.tar.gz

$mv maven-3.3.9 /app/soft

$ll /app/soft

3.  编译安装
在/etc/profile配置文件中加入如下设置:
export PATH=/app/soft/maven-3.3.9/bin:$PATH

修改/etc/profile配置文件并验证配置是否成功:
$source /etc/profile

$mvn -version

DSC0000.jpg

图 附录A‑1查看Maven是否安装成功

第二步使用yum安装必要软件
以root用户使用yum安装svn、gcc等编译所需要的软件:
#yum install svn

#yum install autoconf automake libtool cmake

#yum install ncurses-devel

#yum install openssl-devel

#yum install gcc*

第三步安装并设置protobuf
注:该程序包需要在gcc安装完毕后才能安装,否则提示无法找到gcc编译器。
1.  下载protobuf安装包
下载链接为https://code.google.com/p/protobuf/downloads/list
DSC0001.jpg

图 附录A‑2 Protobuf下载页面

2.  解压安装包并移动目录
把protobuf-2.5.0.tar.gz安装包上传到/home/spark/work目录,通过如下命令把该安装包解压并移动到/app/soft目录中
$tar -zxf protobuf-2.5.0.tar.gz

$mv protobuf-2.5.0 /app/soft

$ll /app/soft

3.  编译安装
进入目录以root用户运行如下命令对protobuf进行编译安装,该过程比较慢,需要花费十几分钟时间:
#cd /app/soft/protobuf-2.5.0

#./configure

#make

#make check

#make install

4.  验证是否安装成功
编译安装成功之后,通过如下方式来验证是否安装成功:
#protoc

DSC0002.jpg
图 附录A‑3 确认Protobuf是否安装成功

A.1.2  编译Hadoop
第一步下载Hadoop源代码并解压
可以在apache官网或者镜像站点下载hadoop源代码包,比如在下面地址中选择下载hadoop-2.7.2-src.tar.gz源代码包:
http://apache.fayea.com/hadoop/common/hadoop-2.7.2/

下载后把源代码包上传到/home/spark/work目录中解压,然后移动到/app/compile目录:
$cd /home/spark/work

$tar -zxf hadoop-2.7.2-src.tar.gz

$mv hadoop-2.7.2-src /app/compile

$ll /app/complie

第二步编译Hadoop源代码
在Hadoop源代码的根目录执行如下命令:
$cd /app/compile/hadoop-2.7.2-src

$mvn package -Pdist,native -DskipTests –Dtar

该过程需要64任务进行编译,耗费的时间较长,在编译过程需要联网,从网络中下载所需要依赖包。由于依赖包速度较慢,可以打开新的命令终端使用$du -sh查看整个目录或$du -sh *子目录大小变化,该过程井场卡死或出现异常,这种情况下可以中断编译过程,重新执行命令进行编译,编译完成后截图如下:
DSC0003.jpg
DSC0004.jpg
DSC0005.jpg
图 附录A‑4 Hadoop编译结果

第三步验证编译是否成功
到 hadoop-dist/target/hadoop-2.7.2/lib/native 目录中,使用$file ./libhadoop.so.1.0.0命令查看libhadoop.so.1.0.0属性,该文件为ELF 64-bit LSB则表示文件成功编译为64位,如下图所示。其中打包好的hadoop-2.7.2.tar.gz文件存在hadoop-dist/target目录中,作为后续部署的安装包。
DSC0006.jpg
图 附录A‑5 验证Hadoop编译是否成功

A.2  安装Hadoop
由于在实战过程中,需要使用HDFS文件系统,以及在介绍运行架构使用需要使用YARN调度框架需要安装Hadoop,这里使用的是Hadoop2.7.2版本。
A.2.1  修改配置文件
第一步上传并解压Hadoop安装包
使用前面编译好的hadoop-2.7.2安装包,或者从apache网站上下载,上传到master节点的/home/spark/work目录下,解压缩并移动到/app/spark目录下:
$cd /home/spark/work

$tar -zxf hadoop-2.7.2.tar.gz

$mv hadoop-2.7.2 /app/spark

$ll /app/spark

第二步在Hadoop目录下创建子目录
以hadoop用户登录在/app/spark/hadoop-2.7.2目录下创建tmp、name和data目录
$cd /app/spark/hadoop-2.7.2

$mkdir tmp

$mkdir name

$mkdir data

$ll

第三步配置hadoop-env.sh
使用如下命令打开配置文件hadoop-env.sh:
$cd /app/spark/hadoop-2.7.2/etc/hadoop

$sudo vi hadoop-env.sh

加入如下配置内容,设置JAVA_HOME和PATH路径:
export JAVA_HOME=/app/soft/jdk1.7.0_55

export PATH=$PATH:/app/spark/hadoop-2.7.2/bin

export HADOOP_CONF_DIR=/app/spark/hadoop-2.7.2/etc/hadoop

编译配置文件hadoop-env.sh,并确认生效
$source hadoop-env.sh

$hadoop version

DSC0007.jpg
图 附录A‑6 验证Hadoop部署是否正确

第四步配置yarn-env.sh
在/app/spark/hadoop-2.7.2/etc/hadoop打开配置文件yarn-env.sh
$cd /app/spark/hadoop-2.7.2/etc/hadoop

$sudo vi yarn-env.sh

加入配置内容,设置JAVA_HOME路径
export JAVA_HOME=/app/soft/jdk1.7.0_55

使用如下命令编译配置文件yarn-env.sh,使其生效:
$source yarn-env.sh

第五步配置core-site.xml
使用如下命令打开core-site.xml配置文件
$cd /app/spark/hadoop-2.7.2/etc/hadoop

$sudo vi core-site.xml

在配置文件中,按照如下内容进行配置
<configuration>

  <property>

    <name>fs.default.name</name>

    <value>hdfs://master:9000</value>

  </property>

  <property>

    <name>fs.defaultFS</name>

    <value>hdfs://master:9000</value>

  </property>

  <property>

    <name>io.file.buffer.size</name>

    <value>131072</value>

  </property>

  <property>

    <name>hadoop.tmp.dir</name>

    <value>file:/app/spark/hadoop-2.7.2/tmp</value>

    <description>Abase for other temporary directories.</description>

  </property>

  <property>

    <name>hadoop.proxyuser.hduser.hosts</name>

    <value>*</value>

  </property>

  <property>

    <name>hadoop.proxyuser.hduser.groups</name>

    <value>*</value>

  </property>

</configuration>

第六步配置hdfs-site.xml
使用如下命令打开hdfs-site.xml配置文件:
$cd /app/spark/hadoop-2.7.2/etc/hadoop

$sudo vi hdfs-site.xml

在配置文件中,按照如下内容进行配置
<configuration>

  <property>

   <name>dfs.namenode.secondary.http-address</name>

   <value>master:9001</value>

  </property>

  <property>

   <name>dfs.namenode.name.dir</name>

   <value>file:/app/spark/hadoop-2.7.2/name</value>

  </property>

  <property>

   <name>dfs.datanode.data.dir</name>

   <value>file:/app/spark/hadoop-2.7.2/data</value>

  </property>

  <property>

   <name>dfs.replication</name>

   <value>2</value>

  </property>

  <property>

   <name>dfs.webhdfs.enabled</name>

   <value>true</value>

  </property>

</configuration>

第七步配置mapred-site.xml
默认情况下不存在mapred-site.xml文件,可以从模板拷贝一份,并打开该配置文件:
$cd /app/spark/hadoop-2.7.2/etc/hadoop

$cp mapred-site.xml.template mapred-site.xml

$sudo vi mapred-site.xml

在配置文件中,按照如下内容进行配置
<configuration>

  <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

  </property>

  <property>

    <name>mapreduce.jobhistory.address</name>

    <value>master:10020</value>

  </property>

  <property>

    <name>mapreduce.jobhistory.webapp.address</name>

    <value>master:19888</value>

  </property>

</configuration>

第八步配置yarn-site.xml
使用如下命令打开yarn-site.xml配置文件
$cd /app/spark/hadoop-2.7.2/etc/hadoop

$sudo vi yarn-site.xml

在配置文件中,按照如下内容进行配置
<configuration>

  <property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

  </property>

  <property>

    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

    <value>org.apache.hadoop.mapred.ShuffleHandler</value>

  </property>

  <property>

    <name>yarn.resourcemanager.address</name>

    <value>master:8032</value>

  </property>

  <property>

    <name>yarn.resourcemanager.scheduler.address</name>

    <value>master:8030</value>

  </property>

  <property>

    <name>yarn.resourcemanager.resource-tracker.address</name>

    <value>master:8031</value>

  </property>

  <property>

    <name>yarn.resourcemanager.admin.address</name>

    <value>master:8033</value>

  </property>

  <property>

    <name>yarn.resourcemanager.webapp.address</name>

    <value>master:8088</value>

  </property>

</configuration>

第九步配置Slaves文件
使用$sudo vi slaves打开从节点配置文件,在文件中加入master、slave1和slave2节点作为数据节点(DataNode):
master

slave1

slave2

第十步向各节点分发Hadoop程序
确认slave1和slave2节点/app/spark所属组和用户均为spark,然后进入mater节点/app/spark目录,使用如下命令把hadoop-2.7.2文件夹复制到slave1和slave2节点:
$cd /app/spark

$scp -r hadoop-2.7.2 spark@slave1:/app/spark/

$scp -r hadoop-2.7.2 spark@slave2:/app/spark/


A.2.2  启动并验证部署
第一步格式化NameNode
$cd /app/spark/hadoop-2.7.2/

$./bin/hdfs namenode -format

DSC0008.gif
图 附录A‑7 格式化NameNode

第二步启动并验证HDFS
使用如下命令启动HDFS:
$cd /app/spark/hadoop-2.7.2/sbin

$./start-dfs.sh

此时在master上面运行的进程有:NameNode、SecondaryNameNode和DataNode,而slave1和slave2上面运行的进程有:NameNode和DataNode
第三步启动并验证YARN
使用如下命令启动YARN:
$cd /app/spark/hadoop-2.7.2/sbin

$./start-yarn.sh

  此时在master上运行的进程有:NameNode、SecondaryNameNode、DataNode、NodeManager和ResourceManager,而slave1和slave2上面运行的进程有:NameNode、DataNode和NodeManager。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-424862-1-1.html 上篇帖子: hadoop系列一:hadoop集群安装 下篇帖子: 心若不动,风又奈何;你若不伤,岁月无恙。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表