设为首页 收藏本站
查看: 1690|回复: 0

[经验分享] 搭建hadoop伪分布式环境

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-3-7 09:30:59 | 显示全部楼层 |阅读模式
搭建hadoop伪分布式环境

(1)安装JDK

  linux下配置JDK的方法网上可以搜到,这里就不再赘述了,有些操作系统本身也自带jdk。

(2)安装配置ssh无密码登陆。

  root@ubuntu:~# apt-get install ssh,由于是在单机环境下,安装ssh后只需配置ssh免密码登陆到本机就可以了:

  root@ubuntu:~# ssh-keygen -t rsa ~/.ssh/id_rsa

  root@ubuntu:~# cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

  验证:

  root@ubuntu:~# ssh localhost

  如果成功应该无需输入密码就能显示出如下信息了:

  Welcome to LinuxDeepin 2013 (GNU/Linux 3.8.0-34-generic x86_64)
   * Documentation:  http://wiki.linuxdeepin.com/
  Last login: Tue Mar  4 22:20:23 2014 from localhost

  root@ubuntu:~#

(3)安装配置hadoop(以hadoop-0.20.2为例)

  (a)、下载稳定版:hadoop-0.20.2.tar.gz复制到准备安装的目录。

  (b)切换到安装目录,并解压。

  (c)配置(配置文件放在安装目录下的conf目录)

      hadoop-env.sh:

    取消JAVA_HOME注释并做如下修改:

    export JAVA_HOME=/usr/java/jdk1.7(根据你JDK安装路径来配置)

    core-site.xml:

    <configuration>

    <property>

        <name>fs.default.name</name>

        <value>localhost:9000</value>

    </property>

    <property>

        <name>hadoop.tmp.dir</name>

        <value>/home/hadoop/tmp</value>

    </property>

    </configuration>

    属性fs.default.name的值填你的主机名,单机环境下填localhost就可以。

    mapred-site.xml:

    <configuration>

    <property>

        <name>mapred.job.tracker</name>

        <value>localhost:9001</value>

    </property>

    </configuration>

    hdfs-site.xml:

    <configuration>

    <property>

        <name>dfs.name.dir</name>

        <value>/home/hadoop/dfs/name</value>

        <description>Determines where on the local filesystem the DFS name node should store </description>

    </property>

    <property>

        <name>dfs.data.dir</name>

        <value>/home/hadoop/dfs/data</value>

        <description>Determin. If this is a comma-delimited </description>

    </property>

    <property>

         <name>dfs.replication</name>

        <value>1</value>

        <description>Default block replicied when the file is created. The default </description>    

    </property>

    </configuration>

  (d)运行

    先格式化文件系统

      root@ubuntu:/usr/local/hadoop/hadoop-0.20.2/bin# hadoop namenode -format

    启动hadoop

      root@ubuntu:/usr/local/hadoop/hadoop-0.20.2/bin# hadoop namenode -format      

    检查是否启动成功

      root@ubuntu:/usr/local/hadoop/hadoop-0.20.2/bin# jps

      如果以下几个进程都出现:

      3384 NameNode
      3479 DataNode
      3663 JobTracker
      4621 jar
      3774 TaskTracker
      3586 SecondaryNameNode

      则hadoop系统伪分布式已经搭建成功了!

    可能出现的问题

      有时候DataNode会莫名的启动不起,把hdfs-size.xml配置文件下属性dfs.data.dir的所配置的目录删除掉,然后重启就可以看到DataNode启动了。






运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-15552-1-1.html 上篇帖子: HADOOP科普文——常见的45个问题解答 下篇帖子: 搭建hadoop源代码调试环境
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表