设为首页 收藏本站
查看: 891|回复: 0

[经验分享] hadoop0.20.2伪分布式环境搭建

[复制链接]

尚未签到

发表于 2018-10-28 12:03:33 | 显示全部楼层 |阅读模式
  虽然现在hadoop版本已经到了主流2点多的时代,但是对于学习大数据而言,我还是选择从以前老的版本0.20.2学起。
  下面就是伪分布式的环境搭建过程。
  hadoop下载地址:
  http://archive.apache.org/dist/hadoop/core/hadoop-0.20.2/hadoop-0.20.2.tar.gz
  linux系统版本:centos7
  1、配置主机名
  [root@localhost ~]# vi /etc/sysconfig/network
  # Created by anaconda
  master1
  [root@localhost ~]# hostname master1
  2、创建管理hadoop的组和用户
  [root@master1 ~]# groupadd hduser
  [root@master1 ~]# useradd -g hduser hduser
  [root@master1 ~]# passwd hduser
  3、hosts主机名ip解析
  [root@master1 ~]# vi /etc/hosts
  192.168.11.131  master1
  4、配置hadoop的sudoers权限
  [root@master1 ~]# vi /etc/sudoers
  hduser  ALL=(ALL)       NOPASSWD:ALL
  5、关闭selinux和防火墙
  [root@master1 ~]# vi /etc/sysconfig/selinux
  SELINUX=enforcing --> SELINUX=disabled
  [root@master1 ~]# systemctl stop firewalld
  [root@master1 ~]# systemctl disable firewalld
  6、解压包
  [root@master1 ~]# su hduser
  [hduser@master1 root]$ cd
  [hduser@master1 ~]$ ll *tar*
  -rw-r--r--. 1 root root  44575568 Jun 16 17:24 hadoop-0.20.2.tar.gz
  -rw-r--r--. 1 root root 288430080 Mar 16  2016 jdk1.7.0_79.tar
  [hduser@master1 ~]$ tar xf jdk1.7.0_79.tar
  [hduser@master1 ~]$ tar zxf hadoop-0.20.2.tar.gz
  [hduser@master1 ~]$ mv jdk1.7.0_79 jdk
  [hduser@master1 ~]$ mv hadoop-0.20.2 hadoop
  7、配置java环境
  [hduser@master1 ~]$ vi .bashrc
  export JAVA_HOME=/home/hduser/jdk
  export JRE_HOME=$JAVA_HOME/jre
  export PATH=$PATH:$JAVA_HOME/bin

  export>  [hduser@master1 ~]$ source .bashrc
  [hduser@master1 ~]$ java -version
  java version "1.7.0_79"
  Java(TM) SE Runtime Environment (build 1.7.0_79-b15)
  Java HotSpot(TM) 64-Bit Server VM (build 24.79-b02, mixed mode)
  8、配置hadoop
  [hduser@master1 conf]$ pwd
  /home/hduser/hadoop/conf
  [hduser@master1 conf]$ vi hadoop-env.sh
  export JAVA_HOME=/home/hduser/jdk
  [hduser@master1 conf]$ vi core-site.xml
  
  
  fs.default.name
  hdfs://master1:9000
  
  
  [hduser@master1 conf]$ sudo mkdir -p /data/hadoop/data
  [hduser@master1 conf]$ sudo chown -R hduser:hduser /data/hadoop/data
  [hduser@master1 conf]$ vi hdfs-site.xml
  
  
  dfs.data.dir
  /data/hadoop/data
  
  
  dfs.replication
  1
  
  
  [hduser@master1 conf]$ vi mapred-site.xml
  
  
  mapred.job.tracker
  master1:9001
  
  
  9、做无密码认证
  [hduser@master1 conf]$ cd
  [hduser@master1 ~]$ ssh-keygen -t rsa
  Generating public/private rsa key pair.
  Enter file in which to save the key (/home/hduser/.ssh/id_rsa):
  Created directory '/home/hduser/.ssh'.
  Enter passphrase (empty for no passphrase):
  Enter same passphrase again:

  Your>  Your public key has been saved in /home/hduser/.ssh/id_rsa.pub.
  The key fingerprint is:
  SHA256:qRJhPSF32QDs9tU3e0/mAx/EBC2MHamGv2WPvUw19/M hduser@master1
  The key's randomart image is:
  +---[RSA 2048]----+
  |    ..+.o+  +o=  |
  |     +.o. .. = o |
  |    o.o   ... +  |
  |   . .o. o.o. oo |
  |    .. .S.o  ..+o|
  |     . ..  . +..O|
  |    . .     + *B+|
  |     .     . .o==|
  |               oE|
  +----[SHA256]-----+
  一路enter键
  [hduser@master1 ~]$ cd .ssh
  [hduser@master1 .ssh]$ ls

  id_rsa >
  [hduser@master1 .ssh]$ cp>  10、格式化文件系统
  [hduser@master1 .ssh]$ cd
  [hduser@master1 ~]$ cd  hadoop/bin
  [hduser@master1 bin]$ ./hadoop namenode -format
  18/06/19 04:02:12 INFO namenode.NameNode: STARTUP_MSG:
  /************************************************************
  STARTUP_MSG: Starting NameNode
  STARTUP_MSG:   host = master1/192.168.11.131
  STARTUP_MSG:   args = [-format]
  STARTUP_MSG:   version = 0.20.2
  STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20 -r 911707; compiled by 'chrisdo' on Fri Feb 19 08:07:34 UTC 2010
  ************************************************************/
  18/06/19 04:02:13 INFO namenode.FSNamesystem: fsOwner=hduser,hduser
  18/06/19 04:02:13 INFO namenode.FSNamesystem: supergroup=supergroup
  18/06/19 04:02:13 INFO namenode.FSNamesystem: isPermissionEnabled=true

  18/06/19 04:02:13 INFO common.Storage: Image file of>  18/06/19 04:02:13 INFO common.Storage: Storage directory /tmp/hadoop-hduser/dfs/name has been successfully formatted.
  18/06/19 04:02:13 INFO namenode.NameNode: SHUTDOWN_MSG:
  /************************************************************
  SHUTDOWN_MSG: Shutting down NameNode at master1/192.168.11.131
  ************************************************************/
  11、启动服务
  [hduser@master1 bin]$ ./start-all.sh
  starting namenode, logging to /home/hduser/hadoop/bin/../logs/hadoop-hduser-namenode-master1.out
  The authenticity of host 'localhost (::1)' can't be established.
  ECDSA key fingerprint is SHA256:OXYl4X6F6g4TV7YriZaSvuBIFM840h/qTg8/B7BUil0.
  ECDSA key fingerprint is MD5:b6:b6:04:2d:49:70:8b:ed:65:00:e2:05:b0:95:5b:6d.
  Are you sure you want to continue connecting (yes/no)? yes
  localhost: Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts.
  localhost: starting datanode, logging to /home/hduser/hadoop/bin/../logs/hadoop-hduser-datanode-master1.out
  localhost: starting secondarynamenode, logging to /home/hduser/hadoop/bin/../logs/hadoop-hduser-secondarynamenode-master1.out
  starting jobtracker, logging to /home/hduser/hadoop/bin/../logs/hadoop-hduser-jobtracker-master1.out
  localhost: starting tasktracker, logging to /home/hduser/hadoop/bin/../logs/hadoop-hduser-tasktracker-master1.out
  12、查看服务
  [hduser@master1 bin]$ jps
  1867 JobTracker
  1804 SecondaryNameNode
  1597 NameNode
  1971 TaskTracker
  2011 Jps
  1710 DataNode
  [hduser@master1 bin]$
  13、浏览器查看服务状态
  使用web查看HSFS运行状态
  在浏览器输入
http://192.168.11.131:50030  使用web查看MapReduce运行状态
  在浏览器输入
  http://192.168.11.131:50070


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627480-1-1.html 上篇帖子: Hadoop运维记录系列(二十二) 下篇帖子: hadoop和spark的区别介绍
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表