设为首页 收藏本站
查看: 914|回复: 0

[经验分享] 多节点的 Hadoop-2.2.0 的安装步骤

[复制链接]

尚未签到

发表于 2018-10-31 08:33:53 | 显示全部楼层 |阅读模式
  1.环境描述:
  1)三台cp。
  2)VMware-player
  3)Ubuntu 13.10
  4)Hadoop 2.2.0
  5) JDK 1.8
  2.准备阶段:
  1)在三台电脑上安装好VMware-player的步骤省略,非常简单。
  2) 在VMware player中安装Ubuntu省略,很简单。
  3)由于三台虚拟机之间要通信,因此我们应该选择桥接的方式。在这种模式下,虚拟系统就像是局域网中的一台独立的主机,与宿主计算机平等的存在于网络中,你必须像对待局域网中的其他真正的机子一样来对待它(比如分配你的局域网所要求的网络地址、子网掩码、网关等)。
名称机器一机器二机器三Windows下的IP4  172.17.14.37172.17.14.38172.17.14.42linux下的IP4 172.17.14.13  172.17.14.14172.17.14.25 角色:  MasterSlave1 Slave2守护进程  namenode
  secondorynode
  Resource Managor
  Datanode
  node managor
  Datanode
  node managor
  4)修改主机名字,例如分别是Master Slave1 及Slave2.
  例如Master(1)`#:hostname  Master
  (2)`#:vi /etc/hostname  在该文件中填写Master
  (3)`#:vi /etc/hosts
  在该文件中填写 Master 172.17.14.13
  Slave1 172.17.14.14
  Slave2  172.17.14.25
  注意:你若是以root用户登录的图形界面,其实可以直接找到hostname或者hosts文                       件,在其中添加相应信息就可以。
  验证: 在三台虚拟机上分别`#:ping Master DSC0000.gif
  `#:ping Slave1
  `#:ping Slave2
  3.安装jdk(三台机器分别安装)
  1)在windows7把jdk文件解压,重命名为jdk1.8,然后直接可以拖移到虚拟机的/usr/lib/jvm所在文件夹下面。其中在ubuntu的/usr/lib文件夹下面可以直接新建jvm文件夹。(以root用户登录图形界面,图形界面操作。当然也可以用命令行操作)
  2)其中1)按照我写操作,下面三条语句复制三次到你的Ubuntu的就ok。(命令操作)
  `#:sudo update-alternatives --              install "/usr/bin/java""java" "/usr/lib/jvm/jdk1.8/jre/bin/java" 1
  `#:sudo update-alternatives --install "/usr/bin/javac""javac" "/usr/lib/jvm/jdk1.8/bin/javac" 1
  `#:sudo update-alternatives --install "/usr/bin/javaws""javaws" "/usr/lib/jvm/jdk1.8/jre/bin/javaws" 1
  3)`#:vi /etc/profile(命令行操作)
  在该文件下面复制下面的语句:
  (在windows7 可以直接复制到虚拟机中的ubuntu的文件)
  JAVA_HOME=/usr/lib/jvm/jdk1.8
  PATH=$PATH:$HOME/bin:$JAVA_HOME/bin
  JRE_HOME=/usr/lib/jvm/jdk1.8/jre
  PATH=$PATH:$HOME/bin:$JRE_HOME/bin
  export JAVA_HOME
  export JRE_HOME
  export PATH
  验证: `#:Java  -version DSC0001.gif
  4.安装ssh(三台机器,都是在命令行下面操作)
  1)创建用户
  (1)`#: sudo addgroup hadoop
  //add user group named hadoop
  (2)`#:sudo adduser --ingroup hadoop hduser
  //add user-haduser into user group hadoop
  2) Install ssh server
  (1)`#:sudo apt-get install openssh-client
  (2)`#:sudo apt-get install openssh-server
  3)  configure ssh
  (1) `#:su  hduser
  (2) ~$: ssh-keygen   –t    rsa     –P     “”
  其中该过程可能会按n次Enter。你一直按就ok
  4)只在Master机器上操作
  ~$:  cat $HOME/.ssh/id_rsa.pub>>$HOME/.ssh/authorized_keys
  验证:在master上操作~$: ssh hadoop@Slave1  以及~$: ssh hadoop@Slave DSC0002.gif
  5.关闭IP6   ~$:su  root    输入密码,以root用户登录  (三台机器都操作)
  `#:vi /etc/profile
  把下面内容复制到该文件中
  net.ipv6.conf.all.disable_ipv6=1
  net.ipv6.conf.default.disable_ipv6=1
  net.ipv6.conf.default.disable_ipv6=1
DSC0003.gif

  6.安装hadoop-2.2.0
  你可以以root身份登录图形界面,在windows系统中解压安装包,并且重命名为hadoop-2.2.0.            把该文件夹直接拖到ubuntu中的/usr/local/tgl/下,其中tgl自己建的文件夹。(若你按照这            个步骤操作的,下面复制粘贴就ok)
  1)只在Master上操作
  (1)打开/usr/local/tgl/hadoop-2.2.0/etc/hadoop/Slaves
  添加: Slave1
  Slave2
  (2)在/usr/local/tgl/hadoop-2.2.0/下
  添加文件夹 tmp
  2)修改四个文件,文件在/hadoop-2.2.0/etc/hadoop/下
  在三台机器上执行完全相同的操作:
  (1) hadoop-env.sh
  注释(#)掉:export JAVA_HOME=${JAVA——HOME}
  添加:export JAVA_HOME=/usr/lib/jvm/jdk1.8(也就是jdk的安装路径)
  (2) hdfs-site.xml
  添加:
  dfs.replication
  2
  
  (3)  core-site.xml
  添加:
  hadoop.tmp.dir
  /usr/local/tgl/hadoop-2.2.0 //hadoop的tmp所                                                                        //在的目录
  
  
  fs.default.name
  hdfs://172.17.14.13:5430//namenode所在的机                                                                      //器的ip
  
  (4) 把mapred-site.xml-template 重命名为mapred-site.xml
  添加:
  mapred.job.tracker
  172.17.14.13:8010//resourcemanagor 所在机器ip
  
  
  mapred.map.tasks
  10
  
  
  map.reduce.tasks
  12
  
  (5) 只在Master上操作
  格式化namenode:
  ~# /usr/local/tgl/hadoop-2.2.0/bin/hadoop namenode -format
  (6) 在Master上操作
  ~# cd  /usr/local/tgl/hadoop-2.2.0/etc/hadoop/sbin
  ~# ./start-dfs.sh
  ~# ./start-yarn.sh
  (7)验证:jps    DSC0004.gif DSC0005.gif
  本文只是讲述了安装步骤,一些原理性的东西可以参考http://www.cnblogs.com/xia520pi/archive/2012/05/16/2503949.html


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628709-1-1.html 上篇帖子: 在Ubuntu13.10下使用Eclipse搭建Hadoop-2.2.0 开发环境 下篇帖子: Combiner_hadoop
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表