设为首页 收藏本站
查看: 1532|回复: 0

[经验分享] hadoop2.7【单节点】单机、伪分布、分布式安装指导

[复制链接]

尚未签到

发表于 2018-10-30 10:41:18 | 显示全部楼层 |阅读模式
  问题导读
  1.从本文部署实际部署,总结本地模式、伪分布、分布式的区别是什么?
  2.单机是否是伪分布?
  3.本地模式是否可以运行mapreduce?
DSC0000.gif

  原文链接:
  http://www.aboutyun.com/thread-12798-1-1.html
  hadoop2.7发布,这一版不太适合用于生产环境,但是并不影响学习:由于hadoop安装方式有三种,并且三种安装方式都可以在前面的基础上继续配置,分别是:

  •   本地模式
  •   伪分布
  •   分布式
  ###############################################
  1.准备
  安装jdk1.7参考
  linux(ubuntu)安装Java jdk环境变量设置及小程序测试
  测试:
  Java -version
DSC0001.png

  安装ssh

  •   sudo apt-get install ssh

  •   $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  •   $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
  •   $ export HADOOP\_PREFIX=/usr/local/hadoop
  最后达到无密码登录

  •   ssh localhost

DSC0002.png

  安装rsync

  •   sudo apt-get install rsync

  修改网卡:
  注释掉127.0.1.1 ubuntu
  添加新的映射
  10.0.0.81 ubuntu
DSC0003.png

  这里必须修改,否则后面会遇到连接拒绝等问题
  2.安装
  进入配置文件目录
  我这里是
  ~/hadoop-2.7.0/etc/hadoop
DSC0004.png

  修改配置文件:
  etc/hadoop/hadoop-env.sh
  添加JAVA_HOME、HADOOP_COMMON_HOME

  •   export JAVA_HOME=/usr/jdk
  •   export HADOOP_COMMON_HOME=~/hadoop-2.7.0

  配置环境变量
  sudo nano /etc/environment
  增加hadoop配置
  将下面添加到变量PATH中

  •   /home/aboutyun/hadoop-2.7.0/bin:/home/aboutyun/hadoop-2.7.0/sbin:
DSC0005.png

  ########################################################
  3.本地模式验证[可忽略]
  所谓的本地模式:在运行程序的时候,比如wordcount是在本地磁盘运行的
  上面已经配置完毕,我们对其测试,分别执行面命令:
  注意: bin/hadoop的执行条件是在hadoop_home中,我这里是

  •   $ mkdir input


  •   $ cp etc/hadoop/*.xml input

  •   $bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar grep input output 'dfs[a-z.]+'
DSC0006.png


  •   $ cat output/*
DSC0007.png

  ##################################################################
  上面本地模式,我们知道就可以,我们下面继续配置伪分布模式
  4.伪分布模式
  我这里的全路径:/home/aboutyun/hadoop-2.7.0/etc/hadoop
  修改文件etc/hadoop/core-site.xml
  添加如下内容:
  含义:接收Client连接的RPC端口,用于获取文件系统metadata信息。

  •   
  •   
  •   fs.defaultFS
  •   hdfs://localhost:9000
  •   
  •   

DSC0008.png

  修改etc/hadoop/hdfs-site.xml:
  添加如下内容:
  含义:备份只有一份

  •   
  •   
  •   dfs.replication
  •   1
  •   
  •   
DSC0009.png

  5.伪分布模式
  1.格式化namenode

  •   hdfs namenode -format
  有的地方使用

  •   bin/hdfs namenode -format
  如果配置的环境变量直接使用hdfs namenode -format即可
  2.启动集群

  •   start-dfs.sh
DSC00010.png

  这时候单节点伪分布就已经安装成功了
  验证
  输入下面

  •   http://localhost:50070/
  如果是在虚拟机中安装,但是在宿主主机中访问,需要输入虚拟机ip地址
  这里虚拟机ip地址是10.0.0.81
DSC00011.png

  所以,我这里是

  •   http://10.0.0.81:50070/
DSC00012.png

  配置到这里也是可以的,我们同样可以运行wordcount,也就是我们的mapreduce不运行在yarn上。如果想让程序运行在yarn上,继续下面配置
  #####################################################
  6.配置Yarn
  1.修改配置文件
  修改配置文件mapred-site.xml
  编辑文件etc/hadoop/mapred-site.xml,添加下面内容由于etc/hadoop中没有mapred-site.xml,所以对mapred-queues.xml.template复制一份

  •   cp mapred-site.xml.template mapred-site.xml

  然后编辑文件mapred-site.xml
  添加

  •   
  •   mapreduce.framework.name
  •   yarn
  •   

  最后形式:
DSC00013.png

  修改配置文件yarn-site.xml
  添加如下内容:

  •   
  •   yarn.nodemanager.aux-services
  •   mapreduce_shuffle
  •   
DSC00014.png

  2.启动yarn

  •   start-yarn.sh
DSC00015.png

  (由于我这里已经配置了环境变来那个,所以在哪个地方都可以运行start-yarn.sh)
  如果你没有配置环境变量,则需要进入hadoop_home,执行下面命令

  •   sbin/start-yarn.sh
  3.验证
  启动yarn之后,输入

  •   http://localhost:8088/
  即可看到下面界面
DSC00016.png

  下一篇hadoop2.7 运行wordcount
  遇到问题
  问题1:


  •   Error: Could not find or load main>

  •   org.apache.hadoop.hdfs.server.namenode.NameNode
  解决办法:
  在~/hadoop-2.7.0/etc/hadoop/hadoop-env.sh中添加

  •   export HADOOP_COMMON_HOME=~/hadoop-2.7.0
  重启生效
  问题2:
  格式化Java_home not found

  •   bin/hdfs namenode -format
  复制代码
  在/etc/environment 中添加

  •   export JAVA_HOME=/usr/jdk
  复制代码
  生效

  •   source /etc/environment
  复制代码
  重启[如还不行,重启]

  •   sudo init 6
  复制代码


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628379-1-1.html 上篇帖子: Hadoop运维记录系列(十五) 下篇帖子: 伪分布式安装Hadoop + zookeeper + hbase安装配置
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表