设为首页 收藏本站
查看: 857|回复: 0

[经验分享] 手动安装hadoop集群

[复制链接]

尚未签到

发表于 2018-10-29 10:52:46 | 显示全部楼层 |阅读模式
  官网手册:
  http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_design.html
  主机信息
  主机名                                 ip
  hadoop1                              10.0.70.242
  hadoop2                              10.0.70.243
  hadoop3                              10.0.70.230
  hadoop4                              10.0.70.231
一.设置主机名映射
  # vim /etc/hosts
  127.0.0.1  localhost localhost.localdomain localhost4 localhost4.localdomain4
  ::1        localhost localhost.localdomain localhost6 localhost6.localdomain6
  10.0.70.242     hadoop1
  10.0.70.243     hadoop2
  10.0.70.230     hadoop3
  10.0.70.231     hadoop4
  并拷贝到其他3台机器。
二.配置免密码登录
  # cd /root/.ssh/
  # ssh-keygen -t rsa

  # cat>  将其他3台机器的id_rsa.pub内容追加到authorized_keys文件中,并拷贝给其他3台机器。
  #ssh hadoop1(hadoop2、hadoop3、hadoop4)进行验证。
三.安装jdk
  # tar zxvf jdk-8u51-linux-x64.tar.gz -C/app/zpy/
  配置环境变量
  # vim /etc/profile
  JAVA_HOME=/app/zpy/jdk1.8.0_51
  JAVA_BIN=/app/zpy/jdk1.8.0_51/bin
  PATH=$PATH:$JAVA_BIN
  export JAVA_HOME JAVA_BIN PATH
  # . /etc/profile
  # java –version         进行验证
  其他3台机器相同操作。
四.安装hadoop
  # cd /app/zpy/3rd
  # wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz
  # tar zxvf hadoop-2.7.3.tar.gz -C /app/zpy/
  配置环境变量
  # vim /etc/profile
  HADOOP_HOME=/app/zpy/hadoop-2.7.3
  HADOOP_BIN=/app/zpy/hadoop-2.7.3/bin
  PATH=$PATH:$JAVA_BIN:$HADOOP_HOME:$HADOOP_BIN
  export JAVA_HOME JAVA_BIN PATH HADOOP_HOMEHADOOP_BIN
  # . /etc/profile
  修改主要配置文件
  # cd /app/zpy/hadoop-2.7.3/etc/hadoop
  # vim hadoop-env.sh
  添加
  export JAVA_HOME=/app/zpy/jdk1.8.0_51
  export HADOOP_HOME_WARN_SUPPRESS=1
  # vim yarn-env.sh
  更改
  JAVA_HOME=/app/zpy/jdk1.8.0_51
  # vim core-site.xml
  内容如下
  
  
  fs.defaultFS
  hdfs://hadoop1:9000
  
  
  hadoop.tmp.dir
  /data/tmp
  
  
  io.file.buffer.size
  131702
  
  
  # vim hdfs-site.xml
  内容如下
  
  
  dfs.namenode.name.dir
  file:/data/hdfs/name/
  
  
  dfs.datanode.data.dir
  file:/data/hdfs/data
  
  
  dfs.replication
  2
  
  
  dfs.namenode.secondary.http-address
  hadoop1:9001
  
  
  dfs.webhdfs.enabled
  true
  
  
  # cp mapred-site.xml.templatemapred-site.xml
  # vim mapred-site.xml
  内容如下
  
  
  mapreduce.framework.name
  yarn
  
  
  # vim yarn-site.xml
  内容如下
  
  
  
  yarn.nodemanager.aux-services
  mapreduce_shuffle
  
  
  yarn.nodemanager.auxservices.mapreduce.shuffle.class
  org.apache.hadoop.mapred.ShuffleHandler
  
  
  yarn.resourcemanager.address
  hadoop1:8032
  
  
  yarn.resourcemanager.scheduler.address
  hadoop1:8030
  
  
  yarn.resourcemanager.resource-tracker.address
  hadoop1:8031
  
  
  yarn.resourcemanager.admin.address
  hadoop1:8033
  
  
  yarn.resourcemanager.webapp.address
  hadoop1:8088
  
  
  yarn.scheduler.maximum-allocation-mb
  3000
  
  
  # vim slaves
  内容如下
  hadoop1
  hadoop2
  hadoop3
  hadoop4
  创建必须的文件夹
  # mkdir -p /data/tmp/
  #mkdir /data/hdfs
  # mkdir /data/hdfs/data
  # mkdir /data/hdfs/name
五.将配置好的文件拷贝到其他主机
  # scp –r hadoop-2.7.3 hadoop2:/app/zpy
  # scp –r hadoop-2.7.3 hadoop3:/app/zpy
  # scp –r hadoop-2.7.3 hadoop4:/app/zpy
  # scp /etc/profile hadoop2:/etc
  # scp /etc/profile hadoop3:/etc
  # scp /etc/profile hadoop4:/etc
  刷新另外3台服务器的环境变量。
六.启动
  首先格式化namenode节点,注意在master节点上!
  # cd /app/zpy/hadoop-2.7.3/bin/
  # hadoop namenode –format
  然后启动集群
  # start-dfs.sh
  # start-yarn.sh
  在master节点上运行
  # jps
  看到如下结果:
  4083 Jps
  30084 DataNode
  30261 SecondaryNameNode
  30550 NodeManager
  29945 NameNode
  30430 ResourceManager
  切换到slave节点,运行
  # jps
  看到如下结果:
  18561 NodeManager
  4362 Jps
  18443 DataNode
  浏览器中打开http://10.0.70.242:50070/dfshealth.html#tab-overview可看见相应信息
七.运行测试用例
  切换到hadoop根目录
  执行如下命令解除hadoop安全模式:
  # ./bin/hadoop dfsadmin -safemode leave
  再执行:
  # ./bin/hadoop jarshare/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar pi 1 1
  显示如下结果:
  Number of Maps  = 1
  Samples per Map = 1
  Wrote input for Map #0
  Starting Job
  ......
  Job Finished in 15.972 seconds
  Estimated value of Pi is 4.00000000000000000000
  证明成功,至此完成!


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627906-1-1.html 上篇帖子: hadoop官方文档学习笔记(1)——resource manager HA 下篇帖子: hadoop datanode 不能连接 namenode
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表