设为首页 收藏本站
查看: 929|回复: 0

[经验分享] hadoop 2.5.0 完全分布式搭建

[复制链接]

尚未签到

发表于 2017-12-17 17:35:59 | 显示全部楼层 |阅读模式
  完全分布式安装:
  1.集群规划
  a.服务分配
  组件             Linux.one             Linux.two                   Linux.three
  HDFS           NameNode           Sencondarynamenode            
  DataNode            DataNode                  DataNode
  --------------------------------------------------------------------------
  YARN                                                             ResourceManager
  NodeManager          NodeManager               NodeManager
  --------------------------------------------------------------------------
  MapReduce     JobHistoryServer
  2.基本环境准备
  A.三台装有CenterOs的PC
  B.将修改成静态IP (如果是克隆的虚拟机需要修改Mac地址 否则三台虚拟机无法ping通)
  #vi /etc/sysconfig/network-script/ifcfg-eth0
  C.修改Hostname
  #vi /etc/sysconfig/network
  D.设置主机映射
  # vi /etc/hosts
  E.关闭防火墙
  # service iptables stop
  # chkconfig iptables off
  F.关闭安全子系统
  # vi /etc/sysconfig/selinux
  G.卸载Linux自带的Jdk (minimal安装是没有安装的 所以不用卸载)
  查看系统自带的jdk  rpm -qa | grep java
  # rpm -e --nodeps tzdata-java-2012j-1.el6.noarch
  # rpm -e --nodeps java-1.6.0-openjdk-1.6.0.0-1.50.1.11.5.el6_3.x86_64
  # rpm -e --nodeps java-1.7.0-openjdk-1.7.0.9-2.3.4.1.el6_3.x86_64
  H.安装Jdk
  a.编辑 /etc/profile 文件 添加
  export JAVA_HOME=/opt/modules/jdk1.7.0_67
  export $PATH:$JAVA_HOME/bin
  b.重新加载配置
  source /etc/profile
  3.配置NTP服务
  *将Linux.one 作为整个集群的时间同步服务器
  A.检查NTP服务是否安装 (minimal安装是没有安装的)
  rpm -qa | grep ntp
  B.安装ntp服务
  yum -y install ntp
  C.修改NTP的配置文件  (修改Linux.one)
  # vi /etc/ntp.conf
  a.去掉下面这行下面的#,并把网段修改成自己的网段
  restrict 192.168.7.0 mask 255.255.255.0 nomodify notrap
  b.注释掉一下几行  (修改Linux.one)
  #server 0.centos.pool.ntp.org iburst
  #server 1.centos.pool.ntp.org iburst
  #server 2.centos.pool.ntp.org iburst
  #server 3.centos.pool.ntp.org iburst
  c.把下面前面两行的#号去掉,如果没有,需要手动去添加  (修改Linux.one)
  server 127.127.1.0      #local clock
  fudge 127.127.1.0  stratum 10
  d.启动ntp服务(默认是开启)Linux01  (修改Linux.one)
  # service ntpd start   
  # chkconfig ntpd on
  e.同步服务器的时间(Linux01)  (修改Linux.one)
  # ntpdate cn.pool.ntp.org     -->操作这一步时关闭ntp服务
  16 Feb 17:14:40 ntpdate[26564]: step time server 188.39.37.91 offset -12.669996 sec
  f.如果另外两台的ntp的进程开启,那么需要关闭
  # service ntpd stop
  # chkconfig ntpd off
  g.第2、3台向第一台同步时间
  # ntpdate hadoop.senior01
  16 Feb 17:43:27 ntpdate[2554]: adjust time server 192.168.7.9 offset -0.001412 sec
  h.制定周期性时间同步计划任务(第2、3台-Linux02 、Linux03)
  ## 每10分钟同步一次服务器时间
  */10 * * * * /usr/sbin/ntpdate hadoop.senior01
  d.若以上失败则三台全部执行以下命令(时间以当前时间为准)
  # date -s "19:05:56 2017/2/16"
  4.配置SSH免秘钥登陆
  A.检查Linux上是否安装openssh  (minimal安装是没有自带的openssh服务的)
  rpm -qa | grep openssh
  B.安装openssh
  #yum -y install openssh-clients
  C.生成秘钥 (注意生成秘钥的用户)
  ssh-keygen
  D.将秘钥发送给其他服务器 (每台服务器都要执行此操作已确保三台服务器能够随意切换)
  ssh-copy-id hadoop.two
  E.测试免秘钥登陆是否成功 (互相登陆是否成功)
  ssh hadoop.one
  F.分发完成会在用户主目录下的.ssh目录生成以下文件:

  authorized_keys >  如果配置错误可以先删除.ssh目录,重新做一遍
  5.安装Hadoop
  A.从hadoop.apache.org 官网下载 hadoop 使用FileZilla上传到服务器进行解压
  $tar -zxf hadoop.tar.gz
  B.配置hadoop的java环境支持, ${HADOOP_HOME}/etc/hadoop目录下
  hadoop-env.sh
  mapred-env.sh
  yarn-env.sh
  在这3个文件中都配置
  export JAVA_HOME=/opt/modules/jdk1.7.0_67
  C. 修改配置文件
  ====core-site.xml====
  <!--指定第一台做namenode-->
  <property>
  <name>fs.defaultFS</name>
  <value>hdfs://hadoop.one:8020</value>
  </property>
  <property>
  <name>hadoop.tmp.dir</name>
  <value>/opt/modules/hadoop-2.5.0/data</value>
  </property>
  =========hdfs-site.xml=====
  <!-- 分布式副本数设置为3 -->
  <property>
  <name>dfs.replication</name>
  <value>3</value>
  </property>
  <!-- secondarynamenode主机名 -->
  <property>
  <name>dfs.namenode.secondary.http-address</name>
  <value>hadoop.two:50090</value>
  </property>
  <!-- namenode的web访问主机名:端口号 -->
  <property>
  <name>dfs.namenode.http-address</name>
  <value>hadoop.one:50070</value>
  </property>
  <!-- 关闭权限检查用户或用户组 -->
  <property>
  <name>dfs.permissions.enabled</name>
  <value>false</value>
  </property>
  ============yarn-site.xml=======
  <property>
  <name>yarn.resourcemanager.hostname</name>
  <value>hadoop.three</value>
  </property>
  <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
  </property>
  <property>
  <name>yarn.log-aggregation-enable</name>
  <value>true</value>
  </property>
  <property>
  <name>yarn.log-aggregation.retain-seconds</name>
  <value>86400</value>
  </property>
  =========================mapred-site.xml============
  $ cp mapred-site.xml.template mapred-site.xml
  <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
  </property>
  <property>
  <name>mapreduce.jobhistory.address</name>
  <value>hadoop.senior01:10020</value>
  </property>
  <property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>hadoop.senior01:19888</value>
  </property>
  D.将配置好的文件夹发送给其他服务器
  scp /opt/modules/app/hadoop-2.5.0  hadoop.two:/opt/modules/app/   
  E.格式化namenode
  /opt/modules/app/hadoop/bin/hdfs namenode -format
  F.启动服务
  在配置了namenode的服务器上启动namenode服务
  /opt/modules/app/hadoop-2.5.0/sbin/start-dfs.sh
  在配置了ResourceManager的服务器上启动ResourceManager
  /opt/modules/app/hadoop-2.5.0/sbin/start-yarn.sh

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-425074-1-1.html 上篇帖子: Hadoop(十四)MapReduce原理分析 下篇帖子: (hadoop学习)Win10下安装Cygwin
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表