设为首页 收藏本站
查看: 1480|回复: 0

[经验分享] Hadoop 新生报道(二) hadoop2.6.0 集群系统版本安装和启动配置

[复制链接]

尚未签到

发表于 2017-12-18 13:45:59 | 显示全部楼层 |阅读模式
  本次基于Hadoop2.6版本进行分布式配置,Linux系统是基于CentOS6.5 64位的版本。在此设置一个主节点和两个从节点。
  准备3台虚拟机,分别为:
  主机名
  IP地址
  master
  192.168.80.10
  slave1
  192.168.80.11
  slave2
  192.168.80.12
  1.修改主机名称,把三个节点分别修改下面的文件,修改主机名为master,slave1,slave2(root用户操作),重启生效
  vi /etc/sysconfig/network
  2.把三个节点的防火墙关闭,在三个节点分别执行(root用户操作)
  /etc/init.d/iptables stop
DSC0000.png

  3.在三个节点修改配置hosts文件,在hosts文件中分别配置三个节点的主机名 ip地址映射(root用户操作)
DSC0001.png

  4.在master和slave之间配置SSH互信(hadoop用户操作)
  分别在master和slave1,master和slave2,master和master之间配置互信
  a) 分别在master、slave1、slave2执行下面的命令生成公钥和私钥
  ssh-keygen
DSC0002.png

  在hadoop用户根目录下,有一个.ssh目录
  id_rsa 私钥
  id_rsa.pub 公钥
  known_hosts 通过SSH链接到本主机,都会在这里有记录
  b) 在master输入下面的命令,和master,slave1,slave2创建互信
  ssh-copy-id master
  ssh-copy-id slave1
  ssh-copy-id slave2
DSC0003.png

  注意:复制的过程中需要输入信任主机的密码
  !!!!每次ssh完都会进入其他的主机,千万在ssh完了以后退出对配置机器的远程控制,ctrl+d
  5.把JDK和Hadoop安装包(资料包目录下的文件)上传到master节点系统(hadoop用户的根目录),用XFtp
  6.在三个节点下面配置jdk。在hadoop用户的根目录,Jdk解压,(hadoop用户操作)
  tar -zxvf jdk-8u65-linux-x64.tar.gz
DSC0004.png

  7.三个节点配置环境变量,需要修改/etc/profile文件(root用户操作)
  切到root用户,输入su命令
  su
  vi /etc/profile
  进去编辑器后,输入i,进入vi编辑器的插入模式,在profile文件最后添加
  JAVA_HOME=/home/hadoop/jdk1.8.0_65
  export PATH=$PATH:$JAVA_HOME/bin
  编辑完成后,按下esc退出插入模式
  输入:,这时在左下角有一个冒号的标识
  q   退出不保存
  wq  保存退出
  q!   强制退出
  8.在三个节点把修改的环境变量生效(hadoop用户操作),jdk配置完成
  source /etc/profile
DSC0005.png

  9.下面配置hadoop,在hadoop用户的根目录,解压(hadoop用户操作)
  tar -zxvf hadoop-2.6.0.tar.gz
DSC0006.png

  10.修改配置文件hadoop-2.6.0/etc/hadoop/slaves,输入下面内容,每一行是一个从节点主机名称(hadoop用户操作)
  slave1
  slave2
  12.修改配置文件hadoop-2.6.0/etc/hadoop/hadoop-env.sh(hadoop用户操作)
  export JAVA_HOME=/home/hadoop/jdk1.8.0_65
  13.修改配置文件hadoop-2.6.0/etc/hadoop/core-site.xml,添加(hadoop用户操作)
  <property>
  <name>fs.defaultFS</name>
  <value>hdfs://master:9000</value>
  </property>
  <property>
  <name>io.file.buffer.size</name>
  <value>131072</value>
  </property>
  <property>
  <name>hadoop.tmp.dir</name>
  <value>/home/hadoop/hadoop/tmp</value>
  <description>Abasefor other temporary directories.</description>
  </property>
  13.修改配置文件hadoop-2.6.0/etc/hadoop/hdfs-site.xml,添加(hadoop用户操作)
  <property>
  <name>dfs.namenode.secondary.http-address</name>
  <value>master:9001</value>
  </property>
  <property>
  <name>dfs.namenode.name.dir</name>
  <value>/home/hadoop/hadoop/dfs/name</value>
  </property>
  <property>
  <name>dfs.datanode.data.dir</name>
  <value>/home/hadoop/hadoop/dfs/data</value>
  </property>
  <property>
  <name>dfs.replication</name>
  <value>2</value>
  </property>
  14.修改修改配置文件hadoop-2.6.0/etc/hadoop/mapred-site.xml (hadoop用户操作),这个文件没有,需要复制一份
  cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
  添加
  <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
  </property>
  <property>
  <name>mapreduce.jobhistory.address</name>
  <value>master:10020</value>
  </property>
  <property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>master:19888</value>
  </property>
  15.修改配置文件hadoop-2.6.0/etc/hadoop/yarn-site.xml,添加(hadoop用户操作)
  <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
  </property>
  <property>
  <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  </property>
  <property>
  <name>yarn.resourcemanager.address</name>
  <value>master:8032</value>
  </property>
  <property>
  <name>yarn.resourcemanager.scheduler.address</name>
  <value>master:8030</value>
  </property>
  <property>
  <name>yarn.resourcemanager.resource-tracker.address</name>
  <value>master:8035</value>
  </property>
  <property>
  <name>yarn.resourcemanager.admin.address</name>
  <value>master:8033</value>
  </property>
  <property>
  <name>yarn.resourcemanager.webapp.address</name>
  <value>master:8088</value>
  </property>
  16.将配置好的hadoop文件copy到另外slave机器上(hadoop用户操作)
  scp -r hadoop-2.6.0/ hadoop@slave1:~/hadoop
  scp -r hadoop-2.6.0/ hadoop@slave2:~/hadoop
  17.格式化HDFS,在hadoop解压目录下,执行如下命令:(hadoop用户操作)
  bin/hdfs namenode -format
  注意:格式化只能操作一次,如果因为某种原因,集群不能用, 需要再次格式化,需要把上一次格式化的信息删除,在三个节点用户根目录里执行 rm -rf /home/hadoop/hadoop/dfs
  18.启动集群,在hadoop解压目录下,执行如下命令:(hadoop用户操作)
  sbin/start-all.sh
  19.查看hadoop的web接口,在浏览器输入:主机名:50070。如:http://master:50070
DSC0007.png

  启动以后jps查看,master有4个线程,slave1和slave2都有3个线程,其中都有一个是jps

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-425394-1-1.html 上篇帖子: Hadoop(八)Java程序访问HDFS集群中数据块与查看文件系统 下篇帖子: (第7篇)灵活易用易维护的hadoop数据仓库工具——Hive
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表