设为首页 收藏本站
查看: 1531|回复: 1

[经验分享] Hadoop的三种模式的安装

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2016-11-17 08:56:23 | 显示全部楼层 |阅读模式
                      Hadoop的三种模式的安装  一.Hadoop的三种模式  1.单节点模式
  2.伪分布模式,一般用于测试
  3.完全分布模式,集群环境,常用
  Hadoop 主从节点分解:
  二.安装环境  1.单机模式,一台主机,172.25.22.10
  2.伪分布模式,一台主机,172.25.22.11
  3.完全分布模式,三台主机,172.25.22.10 11 12
  软件包:
  hadoop-1.2.1.tar.gz
  jdk-7u79-linux-x64.tar.gz
  三.配置步骤之单机模式  注意:在配置环境时,最好以一个普通用户的身份去配置,三种模式都是以普通用户hadoop身份运行的
  1.
  单机模式只有一个节点,只需将hadoop包解压到相应的位置下即可,本次解压的目录是在/home/hadoop下,然后做一个软链接,方便之后切换目录。和修改配配置文件中文件目录的位置
  ln -s hadoop-1.2.1/ hadoop
  ln -s jdk1.7.0_79/ java
   wKioL1gr_K2DXf-hAAAZ2cF1jlo128.jpg
  2.修改一下配置文件
   wKioL1gr_K6Q8_deAAAW36NPpmY235.jpg
  将java的目录写进去
   wKioL1gr_K_Ql6YgAAAREv5pUkA402.jpg
  3.下一步配置ssh 无密码登陆到本机
  ssh-keygen
  ssh-copy-id 172.25.22.10
  配置完成,可以直接ssh localhost到本机
  4.配置完成后,测试
  首先建立一个input 目录
  mkdir input
  Cp conf/*.xml input/
   wKiom1gr_LCzkivFAAAxJ-j1tWA625.jpg
  拿一个例子测试一下,
  bin/hadoop jar hadoop-examples-1.2.1.jar grep input output 'dfs[a-z.]+'
  Output输出的目录可自动生成
  看到hadoop里边有这个目录,而且可以查看
  如果拿网页看的话
  http://172.25.22.10:50070/dfshealth.jsp 可以看到hdfs中保存的文件
  http://172.25.22.10:50030/jobtracker.jsp 可以看到正在处理的过程
  四.伪分布模式的配置  由于伪分布模式也是在一个节点上,在单节点的模式下,配置其几个配置文件
  1.编辑其conf下的配置文件
  #####vim core-site.xml 添加内容
  <property>
      <name>fs.default.name</name>
      <value>hdfs://172.25.22.10:9000</value>
      </property>
   wKioL1gr_LGwiscIAAAfan5jsk0181.jpg
  #####vim mapred-site.xml
  <property>
      <name>mapred.job.tracker</name>
      <value>172.25.22.10:9001</value>
      </property>
   wKioL1gr_LGT2q26AAAcxBFYhFY527.jpg
  ######vim hdfs-site.xml
  <property>
      <name>dfs.replication</name>
      <value>1</value>
      </property>
   wKiom1gr_LLxiibkAAAYyvzV_L0076.jpg
  配置文件修改完成
  2.对hadoop进行格式化
  bin/hadoop namenode -format
  3.开启所有进程
  bin/start-all.sh
   wKioL1gr_LLgE3PzAAAQrJwejKs354.jpg
  4.查看进程
  /home/hadoop/java/bin/jps
  所有的进程都在这一个节点上,
  JobTracker  #####负责任务调度
  TaskTracker #####负责数据处理
  SecondaryNameNode
  NameNode  #####包含元数据信息
  DataNode   #####数据节点,存储数据
  5.测试
  bin/hadoop -put conf/ input
  bin/hadoop jar hadoop-examples-1.2.1.jar grep input output 'dfs[a-z.]+'
  这里的input 和之前那个input是完全不一样的,这个是存储在分布式文件系统中的
  用网页查看可以看到
   wKioL1gr_LTynZt-AAAcoCvca_c205.jpg
  三台主机 wKiom1gr_LXTa4TXAAAjcu3RAMI616.jpg
  五.完全分布式的配置  三台主机:
  172.25.22.10  master
  172.25.22.11  slave
  172.25.22.12  slave
  三台主机的配置是一样的,所以怎么使slave主机和master主机配置文件都相同呢?Scp的方式可以,但是会比较麻烦,所以考虑到nfs共享
  1.在伪分布模式三个配置文件已经配置完成的基础下,配置master slave文件
   wKioL1gr_LXSKS16AAAh_S9MJcM240.jpg
   wKiom1gr_LaCkIvhAAASXzITVf8459.jpg
  2.配置nfs文件共享
  在三台主机上,首先需要安装的服务
  yum install -y rpcbind
  yum install -y nfs-utils
  开启rpcbind服务
   wKiom1gr_LahkIofAAATcq6qznU072.jpg
  3.配置exports文件
  /home/hadoop   172.25.22.0/255.255.255.0(rw,anonuid=900,anongid=900)
   wKiom1gr_LehGnhyAAALjqLeZvw451.jpg
  exports -v
  exportfs -rv
   wKioL1gr_LiBnxMbAAANntJfv1U761.jpg
  4.由于slave节点要和master节点的文件同步
  所以在slave节点上
  showmount -e 172.25.22.10
   wKioL1gr_LihkNCAAAAXzUAAV_Y374.jpg
  mount 172.25.22.10:/home/hadoop/ /home/hadoop/
  可以看到文件都同步过去
  5.在master节点上要给普通用户hadoop设置密码
  然后
  ssh-keygen
  ssh-copy-id 172.25.22.10
  这样就可以实现三台主机以普通用户登陆的无密码的交互
  配置完成,需要测试:
  注意:如果在刚开始的时候,是在root用户下安装的hadoop,那么想在普通用户下搭建的话,首先三台主机创建一个相同名字的用户,并且uid gid 都要保持一致,然后把在root下做的目录迁移过去
  mv hadoop-1.2.1/ /home/hadoop/
  并且要修改这个目录的归属组和归属用户
  chown  hadoop.hadoop /home/hadoop/* -R
  软链接和java环境的修改
  6.用分布式环境测试一下
  首先格式化,然后打开所有的进程
  bin/hadoop namenode -format
  bin/start-all.sh
  看各个节点的进程
   wKioL1gr_LmT33_9AAAY66wqVJ0077.jpg
   wKioL1gr_LmggYLlAAAXZQ37v68359.jpg
   wKiom1gr_LqSkj_hAAAQtDfxcAo604.jpg
  测试程序,执行一个wordcount例子
  bin/hadoop fs -put conf/ input
  bin/hadoop jar hadoop-examples-1.2.1.jar wordcount input output
   wKioL1gr_Lvz0f3gAAAxLxKIOK0025.jpg
   wKiom1gr_LzQQiGJAAA3YGvY0vM348.jpg
                   


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-301473-1-1.html 上篇帖子: Hadoop - HDFS的数据流剖析 下篇帖子: hadoop集群跑mr程序报错beyond physical memory limits
累计签到:70 天
连续签到:1 天
发表于 2016-11-18 07:46:38 | 显示全部楼层
感谢分享啊

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表