设为首页 收藏本站
查看: 1471|回复: 0

[经验分享] Linux巩固记录(3) hadoop 2.7.4 环境搭建

[复制链接]

尚未签到

发表于 2017-12-17 13:33:17 | 显示全部楼层 |阅读模式
  由于要近期使用hadoop等进行相关任务执行,操作linux时候就多了
  以前只在linux上配置J2EE项目执行环境,无非配置下jdk,部署tomcat,再通过docker或者jenkins自动部署上去
  看下进程,复制粘贴删除等基本操作,很多东西久了不用就忘了,所有写个demo巩固下曾经的linux知识
  后续会有hadoop等主流的大数据相关环境的搭建及使用
  ---------------------------------------------------------------------------------------------------------------------------------------------------------
  这次讲hadoop 2.7.4环境搭建
  本次需要三个节点 操作用户均为root
  192.168.0.80 master
  192.168.0.81 slave1
  192.168.0.82 slave2
  1.按照 Linux巩固记录(1) J2EE开发环境搭建及网络配置  配置好三台虚拟机的网络和jdk 并能互通(都关掉防火墙)
  2.更改80虚拟机hostname为master,81为slave1,82为slave2
  vi /etc/sysconfig/network
  以80为例:删除localhost  增加  HOSTNAME=master  
  3.修改三台虚拟机的hosts, 三台虚拟机一样
  vi /etc/hosts
  

192.168.0.80 master  
192.168.0.81 slave1
  
192.168.0.82 slave2
  

  4.修改sshd配置
  vi /etc/ssh/sshd_config
  #放开注释
  RSAAuthentication yes
  PubkeyAuthentication yes
  5.三台虚拟机全部重启   shutdown -r now
  --------------------------------------------------------------
  6.ssh key配置,
  cd ~/.ssh #(.ssh是目录,如果没有,执行$ ssh xxxxxx)
  

#master  
ssh master
  
ssh-keygen –t rsa
  
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  

  
scp -r root@slave1:~/.ssh/id_rsa.pub slave1.pub
  
scp -r root@slave2:~/.ssh/id_rsa.pub slave2.pub
  
cat ~/.ssh/slave2.pub >> ~/.ssh/authorized_keys
  
cat ~/.ssh/slave1.pub >> ~/.ssh/authorized_keys
  

  
#slave1
  
ssh slave1
  
ssh-keygen –t rsa
  
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  
scp -r root@master:~/.ssh/id_rsa.pub master.pub
  
scp -r root@slave2:~/.ssh/id_rsa.pub slave2.pub
  
cat ~/.ssh/slave2.pub >> ~/.ssh/authorized_keys
  
cat ~/.ssh/master.pub >> ~/.ssh/authorized_keys
  

  
#slave2
  
ssh slave2
  
ssh-keygen –t rsa
  
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  
scp -r root@master:~/.ssh/id_rsa.pub master.pub
  
scp -r root@slave1:~/.ssh/id_rsa.pub slave1.pub
  
cat ~/.ssh/slave1.pub >> ~/.ssh/authorized_keys
  
cat ~/.ssh/master.pub >> ~/.ssh/authorized_keys
  

  配置完毕后可以无密码登录   如master中到salve1  ssh slave1
  

[iyunv@master /]# ssh slave1  
Last login: Wed Aug 30 21:34:51 2017 from slave2
  
[iyunv@slave1 ~]#
  

  hadoop配置只需要在master上进行,配置完成后复制到slave上即可
  7. 下载hadoop 2.7.4压缩包到master /home下并解压 重命名为 hadoop-2.7.4   tar -xzvf   xxxxxx  /home/hadoop-2.7.4
  并设置hadoop环境变量
  vi /etc/profile
  

export HADOOP_HOME=/home/hadoop-2.7.4  
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
  
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
  

  8.
  vi /home/hadoop-2.7.4/etc/hadoop/hadoop-env.sh 设置JAVA_HOME
  vi /home/hadoop-2.7.4/etc/hadoop/mapred-env.sh设置JAVA_HOME
  9 修改 /home/hadoop-2.7.4/etc/hadoop/core-site.xml
  

<configuration>  <property>
  <name>fs.defaultFS</name>
  <value>hdfs://master:9000</value>
  <description>设定namenode的主机名及端口(建议不要更改端口号)</description>
  </property>
  <property>
  <name>io.file.buffer.size</name>
  <value>131072</value>
  <description> 设置缓存大小 </description>
  </property>
  <property>
  <name>hadoop.tmp.dir</name>
  <value>file:/home/hadoop-2.7.4/tmp</value>
  <description> 存放临时文件的目录 </description>
  </property>
  <property>
  <name>hadoop.security.authorization</name>
  <value>false</value>
  </property>
  
</configuration>
  

  10 修改 /home/hadoop-2.7.4/etc/hadoop/hdfs-site.xml
  

<configuration>  <property>
  <name>dfs.namenode.name.dir</name>
  <value>file:/home/hadoop-2.7.4/hdfs/name</value>
  <description> namenode 用来持续存放命名空间和交换日志的本地文件系统路径 </description>
  </property>
  <property>
  <name>dfs.datanode.data.dir</name>
  <value>file:/home/hadoop-2.7.4/hdfs/data</value>
  <description> DataNode 在本地存放块文件的目录列表,用逗号分隔 </description>
  </property>
  <property>
  <name>dfs.replication</name>
  <value>2</value>
  <description> 设定 HDFS 存储文件的副本个数,默认为3 </description>
  </property>
  <property>
  <name>dfs.webhdfs.enabled</name>
  <value>true</value>
  </property>
  <property>
  <name>dfs.permissions</name>
  <value>false</value>
  </property>
  
</configuration>
  

  11 修改 /home/hadoop-2.7.4/etc/hadoop/mapred-site.xml
  

<configuration>  <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
  <final>true</final>
  </property>
  <property>
  <name>mapreduce.jobtracker.http.address</name>
  <value>master:50030</value>
  </property>
  <property>
  <name>mapreduce.jobhistory.address</name>
  <value>master:10020</value>
  </property>
  <property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>master:19888</value>
  </property>
  <property>
  <name>mapred.job.tracker</name>
  <value>http://master:9001</value>
  </property>
  
</configuration>
  

  12 修改 /home/hadoop-2.7.4/etc/hadoop/yarn-site.xml
  

<configuration>  <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
  </property>
  <property>                                                               
  <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  </property>
  <property>
  <name>yarn.resourcemanager.address</name>
  <value>master:8032</value>
  </property>
  <property>
  <name>yarn.resourcemanager.scheduler.address</name>
  <value>master:8030</value>
  </property>
  <property>
  <name>yarn.resourcemanager.resource-tracker.address</name>
  <value>master:8031</value>
  </property>
  <property>
  <name>yarn.resourcemanager.admin.address</name>
  <value>master:8033</value>
  </property>
  <property>
  <name>yarn.resourcemanager.webapp.address</name>
  <value>master:8088</value>
  </property>
  
</configuration>
  

  13 创建对应的文件夹   mkdir -p logs (其实可以先创建好了文件夹再复制,文件夹多了不影响)
  在每个节点上创建数据存储目录/home/hadoop-2.7.4/hdfs 用来存放集群数据。
  在主节点node上创建目录/home/hadoop-2.7.4/hdfs/name用来存放文件系统元数据。
  在每个从节点上创建目录/home/hadoop-2.7.4/hdfs/data用来存放真正的数据。
  所有节点上的日志目录为/home/hadoop-2.7.4/logs
  所有节点上的临时目录为/home/hadoop-2.7.4/tmp
  14复制配置好的配置到slave节点
  

scp -r /home/hadoop-2.7.4 root@slave1:/home/hadoop-2.7.4  
scp -r /home/hadoop-2.7.4 root@slave2:/home/hadoop-2.7.4
  

  15 在master节点上配置hadoop salve配置文件 增加节点
  vi /home/hadoop-2.7.4/etc/hadoop/slaves
  增加
  salve1
  slave2
  16格式化namenode和datanode并启动,(在master上执行就可以了 不需要在slave上执行)
  

/home/hadoop-2.7.4/bin/hadoop namenode -format  
/home/hadoop-2.7.4/bin/hadoop datanode -format
  
/home/hadoop-2.7.4/sbin/start-all.sh
  

  17 通过jps命令查看是否启动成功
  

[iyunv@master ~]# ssh master  
Last login: Sat Sep  2 00:47:50 2017 from slave1
  
[iyunv@master ~]# jps
  
9187 Jps
  
3221 ResourceManager
  
3062 SecondaryNameNode
  
2856 NameNode
  
[iyunv@master ~]# ssh slave1
  
Last login: Sat Sep  2 00:25:55 2017 from master
  
[iyunv@slave1 ~]# jps
  
6044 Jps
  
2685 NodeManager
  
2590 DataNode
  
[iyunv@slave1 ~]# ssh slave2
  
Last login: Wed Aug 30 21:34:38 2017 from master
  
j[iyunv@slave2 ~]# jps
  
2679 NodeManager
  
5994 Jps
  
2590 DataNode
  
[iyunv@slave2 ~]#
  

  如果启动异常,一定要仔细看log并修正配置

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-425021-1-1.html 上篇帖子: Hadoop深入浅出实战经典视频教程(共22讲) 下篇帖子: Hadoop完全分布分布式配置
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表