设为首页 收藏本站
查看: 973|回复: 0

[经验分享] Hadoop集群安装部署与配置

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-11-20 10:56:34 | 显示全部楼层 |阅读模式
1、集群环境说明主机列表
主机名
iprole系统版本
node110.0.0.101masterrhel6.5
node210.0.0.102slaverhel6.5
node310.0.0.103slaverhel6.5

  • JDK version: java 1.8 (download)
  • hadoop version: hadoop-2.5.1 (download)

2、集群环境配置之旅2.1、JDK与hadoop安装a) 下载JDK和hadoop安装包并安装(默认下载的安装包都放在/opt下)
# wget http://download.oracle.com/otn-p ... 25-linux-x64.tar.gz
# wget http://mirrors.hust.edu.cn/apach ... hadoop-2.5.1.tar.gz
# rpm -qa | grep java  (如果存在其他版本,使用“rpm -e 包名”进行删除)  
# mkdir /usr/java
# tar -zxf jdk-8u25-linux-x64.tar.gz -C /usr/java
# tar -zxf hadoop-2.5.1.tar.gz -C /data
# vim /etc/profile (添加下面的内容)
exportHADOOP_HOME_WARN_SUPPRESS=1
exportHADOOP_HOME=/data/hadoop-2.5.1
exportJAVA_HOME=/usr/java/jdk1.8.0_25
exportCLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
exportPATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH:$HOMR/bin
HADOOP_CONF_DIR=/data/hadoop-2.5.1/etc/hadoop
exportHADOOP_CONF_DIR
HADOOP_LOG_DIR=/data/hadoop-2.5.1/logs
exportHADOOP_LOG_DIR
exportPATH=$PATH:/data/hadoop-2.5.1/bin
# source /etc/profile
# echo $JAVA_HOME; java -version (测试)

特别提示:配置java环境需要在每个node上执行一次
2.2、修改hosts文件# vim /etc/hosts (添加如下内容)
         10.0.0.101node1
         10.0.0.102node2
         10.0.0.103node3

特别提示:上面的操作需要在每一个node上执行一次
2.3、配置ssh免密码连入a) 在10.0.0.101上执行下面的命令
# ssh-keygen -t rsa
# cat /root/.ssh/id_rsa.pub >>/root/.ssh/authorized_keys
# ssh-copy-id -i /root/.ssh/id_rsa.pub root@10.0.0.102
# ssh-copy-id -i /root/.ssh/id_rsa.pub root@10.0.0.103
# ssh 10.0.0.102 (测试)
# ssh 10.0.0.103 (测试)

b) 在10.0.0.102上执行下面的命令
# ssh-keygen -t rsa
# cat /root/.ssh/id_rsa.pub >>/root/.ssh/authorized_keys
# ssh-copy-id -i /root/.ssh/id_rsa.pub root@10.0.0.101
# ssh-copy-id -i /root/.ssh/id_rsa.pub root@10.0.0.103
# ssh 10.0.0.101 (测试)
# ssh 10.0.0.103 (测试)

C)     在10.0.0.103上执行下面的命令
# ssh-keygen -t rsa
# cat /root/.ssh/id_rsa.pub >>/root/.ssh/authorized_keys
# ssh-copy-id -i /root/.ssh/id_rsa.pub root@10.0.0.101
# ssh-copy-id -i /root/.ssh/id_rsa.pub root@10.0.0.102
# ssh 10.0.0.101 (测试)
# ssh 10.0.0.102 (测试)
2.4、hadoop集群配置a) Hadoop主要配置文件
文件名格式描述
core-site.xmlHadoop配置 XMLHadoopCore的配置项, 例如HDFS和MapReduce常用的IO设置等. 配置分布式文件系统的 URL.
hdfs-site.xmlHadoop配置 XMLHadoop守护进程的配置项,包括namenode,辅助namenode和datanode等. 配置 nameNode,dataNode 的本地目录信息
mapred-site.xmlHadoop配置 XMLMapReduce守护进程配置项,包括jobtracker和tasktracker. 配置其使用 Yarn 框架执行 map-reduce 处理程序
Yarn-site.xmlHadoop配置 XML配置 ResourceManager,NodeManager 的通信端口,web 监控端口等.
hadoop-env.shBash脚本加载运行hadoop所需的变量。
yarn-env.shBash脚本加载运行yarn框架所需的变量。
hadoop-metrics.propertiesJava属性控制metrics 在Hadoop上如何发布的属性。
log4j.propertiesJava属性系统日志文件,namenode审计日志,tasktracker子进程的任务日志的属性。
slaves纯文本运行datanode和tasktracker的机器列表(每行一个)。

b) 进入/data/hadoop-2.5.1/etc/hadoop,并进行下面的配置
====== 配置开始 ======
# mkdir /data/hadoop-2.5.1/{logs,temp}
# vim core-site.xml
<configuration>
   <property>
       <name>hadoop.tmp.dir</name>
       <value>/home/hadoop/tmp</value>
       <description>Abase for other temporarydirectories.</description>
   </property>
   <property>
       <name>fs.defaultFS</name>
       <value>hdfs://node1:9000</value>
   </property>
   <property>
       <name>io.file.buffer.size</name>
       <value>4096</value>
   </property>
</configuration>

# vim hdfs-site.xml
<configuration>
   <property>
       <name>dfs.nameservices</name>
       <value>hadoop-cluster1</value>
   </property>
   <property>
       <name>dfs.namenode.secondary.http-address</name>
       <value>node1:50090</value>
   </property>
   <property>
       <name>dfs.namenode.name.dir</name>
       <value>/data/hadoop-2.5.1/dfs/name</value>
   </property>
   <property>
       <name>dfs.datanode.data.dir</name>
       <value>/data/hadoop-2.5.1/dfs/data</value>
   </property>
    <property>
       <name>dfs.replication</name>
       <value>2</value>
   </property>
   <property>
       <name>dfs.webhdfs.enabled</name>
       <value>true</value>
   </property>
</configuration>

# mv mapred-site.xml.template mapred-site.xml
# vim mapred-site.xml
<configuration>
   <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
   </property>
   <property>
       <name>mapreduce.jobtracker.http.address</name>
       <value>node1:50030</value>
   </property>
   <property>
       <name>mapreduce.jobhistory.address</name>
       <value>node1:10020</value>
   </property>
   <property>
       <name>mapreduce.jobhistory.webapp.address</name>
       <value>node1:19888</value>
    </property>
</configuration>

# vim Yarn-site.xml
<configuration>  
<!-- Site specific YARN configurationproperties -->
   <property>
       <name>yarn.nodemanager.aux-services</name>
       <value>mapreduce_shuffle</value>
   </property>
   <property>
       <name>yarn.resourcemanager.address</name>
       <value>node1:8032</value>
   </property>
   <property>
       <name>yarn.resourcemanager.scheduler.address</name>
       <value>node1:8030</value>
   </property>
   <property>
       <name>yarn.resourcemanager.resource-tracker.address</name>
       <value>node1:8031</value>
   </property>
   <property>
       <name>yarn.resourcemanager.admin.address</name>
       <value>node1:8033</value>
   </property>
   <property>
       <name>yarn.resourcemanager.webapp.address</name>
       <value>node1:8088</value>
   </property>
</configuration>

# hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_25

# yarn-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_25

# vim slaves
node2
node3
====== 配置结束 =====
2.5、分发hadoop到slave# rsync -avz /data/hadoop-2.5.1 root@node2:/data/
#rsync -avz /data/hadoop-2.5.1 root@node3:/data/
2.6、格式化文件系统# cd /data/hadoop-2.5.1
# bin/hdfs namenode -format
3、hadoop服务启动与停止3.1、启动服务# cd /data/hadoop-2.5.1
# sbin/start-dfs.sh
# sbin/start-yarn.sh
3.2、停止服务# cd /data/hadoop-2.5.1
# sbin/stop-dfs.sh
# sbin/stop-yarn.sh
4、验证4.1、查看启动的进程# jps
4.2、通过浏览器访问Cluster HDFS:http://10.0.0.101:50070/   #在hadoop-common和hadoop-hdfs中定义的
Yarn resourceManager:http://10.0.0.101:8088/ #在yarn-site.xml中定义的


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-31664-1-1.html 上篇帖子: 浅谈hadoop中mapreduce的文件分发 下篇帖子: hadoop常用服务管理命令
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表