设为首页 收藏本站
查看: 940|回复: 0

[经验分享] Hadoop集群的安装

[复制链接]

尚未签到

发表于 2017-12-17 07:34:06 | 显示全部楼层 |阅读模式
4.1 HADOOP集群搭建
4.1.1集群简介
  HADOOP集群具体来说包含两个集群:HDFS集群和YARN集群,两者逻辑上分离,但物理上常在一起
  HDFS集群:
  负责海量数据的存储,集群中的角色主要有 NameNode / DataNode
  YARN集群:
  负责海量数据运算时的资源调度,集群中的角色主要有 ResourceManager /NodeManager
  (那mapreduce是什么呢?它其实是一个应用程序开发包)
  
  本集群搭建案例,以5节点为例进行搭建,角色分配如下:
  hdp-node-01    NameNode  SecondaryNameNode
  hdp-node-02    ResourceManager
  hdp-node-03              DataNode    NodeManager
  hdp-node-04              DataNode    NodeManager
  hdp-node-05              DataNode    NodeManager
  部署图如下:
4.1.2服务器准备
  本案例使用虚拟机服务器来搭建HADOOP集群,所用软件及版本:

  •   Vmware 11.0
  •   Centos  6.5  64bit
4.1.3网络环境准备

  •   采用NAT方式联网
  •   网关地址:192.168.33.1
  •   3个服务器节点IP地址:192.168.33.101、192.168.33.102、192.168.33.103
  •   子网掩码:255.255.255.0
4.1.4服务器系统设置

  •   添加HADOOP用户
  •   为HADOOP用户分配sudoer权限
  •   同步时间
  •   设置主机名

  •   hdp-node-01
  •   hdp-node-02
  •   hdp-node-03


  •   配置内网域名映射:

  •   192.168.33.101          hdp-node-01
  •   192.168.33.102          hdp-node-02
  •   192.168.33.103          hdp-node-03


  •   配置ssh免密登陆
  •   配置防火墙
4.1.5 Jdk环境安装

  •   上传jdk安装包
  •   规划安装目录  /home/hadoop/apps/jdk_1.7.65
  •   解压安装包
  •   配置环境变量 /etc/profile
4.1.6 HADOOP安装部署
  补充: HADOOP的版本选择
  1、APACHE官方版本
  大版本:  0.20.2
  1.x
  2.x       2.6.4   2.7.3
  2、商业发行版(商业版提供完善的管理系统、修bug可能领先于官方):
  Cloudera公司的CDH:5.7.x

  •   上传HADOOP安装包
  •   规划安装目录  /root/apps/hadoop-2.6.1
  •   解压安装包
  •   修改配置文件  $HADOOP_HOME/etc/hadoop/
  最简化配置如下:
  vi  hadoop-env.sh
  # The java implementation to use.
  export JAVA_HOME=/home/hadoop/apps/jdk1.7.0_51
  vi  core-site.xml
  <configuration>
  <property>
  <name>fs.defaultFS</name>
  <value>hdfs://hdp-node-01:9000</value>
  </property>
  <property>
  <name>hadoop.tmp.dir</name>
  <value>/home/HADOOP/apps/hadoop-2.6.1/tmp</value>
  </property>
  </configuration>
  vi  hdfs-site.xml
  <configuration>
  <property>
  <name>dfs.namenode.name.dir</name>
  <value>/home/hadoop/data/name,/path2/,/path3/,nfs://</value>
  </property>
  <!---namenode配置多个目录和datanode配置多个目录,有什么区别?---->
  <property>
  <name>dfs.datanode.data.dir</name>
  <value>/home/hadoop/data/data,/path2/</value>
  </property>
  <property>
  <name>dfs.replication</name>
  <value>3</value>
  </property>
  <property>
  <name>dfs.secondary.http.address</name>
  <value>hdp-node-01:50090</value>
  </property>
  </configuration>
  vi  mapred-site.xml
  <configuration>
  <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
  </property>
  </configuration>
  vi  yarn-site.xml
  <configuration>
  <property>
  <name>yarn.resourcemanager.hostname</name>
  <value>hadoop01</value>
  </property>
  <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
  </property>
  </configuration>
  vi  salves
  hdp-node-01
  hdp-node-02
  hdp-node-03
4.1.7 启动集群
  初始化HDFS
  bin/hadoop  namenode  -format
  启动HDFS
  sbin/start-dfs.sh
  启动YARN
  sbin/start-yarn.sh
4.1.8 测试
1、上传文件到HDFS
  从本地上传一个文本文件到hdfs的/wordcount/input目录下
[HADOOP@hdp-node-01 ~]$ HADOOP fs -mkdir -p /wordcount/input

[HADOOP@hdp-node-01 ~]$ HADOOP fs -put /home/HADOOP/somewords.txt  /wordcount/input

2、运行一个mapreduce程序
  在HADOOP安装目录下,运行一个示例mr程序
  cd $HADOOP_HOME/share/hadoop/mapreduce/
  hadoop jar mapredcue-example-2.6.1.jar wordcount /wordcount/input  /wordcount/output

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-424915-1-1.html 上篇帖子: 二、hadoop文件操作 下篇帖子: hadoop的安装
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表