设为首页 收藏本站
查看: 1065|回复: 0

[经验分享] Ubuntu下配置Hadoop环境

[复制链接]

尚未签到

发表于 2018-10-30 11:50:07 | 显示全部楼层 |阅读模式
  实现真正的分布式的hadoop,并不是伪分布式的。
一、系统与配置
  共准备2台机器搭建Hadoop集群。基于Ubuntu14.04,jdk1.6.0_45,Hadoop1.0.3版本,虚拟机使用VMware10.0
  192.168.1.10 NameNode master (master)
  192.168.1.20 DateNode slave1(Slave)
  我的用户名就hadoop
  接下来需要安装一些常用的软件:vim,ssh
  view source print ?
  1. sudo apt-get update
  2. sudo apt-get install vim
  3. sudo apt-get install ssh
  首先修改本机IP
  然后输入以下命令,修改hosts
  view source print ?
  1. sudo vim /etc/hosts

  接下来设置ssh,实现无密码登陆,输入以下命令,生成秘钥
  view source print ?
  1. ssh-keygen -t rsa -P ""

  一直按回车就会生成秘钥,然后 在.ssh目录中会生成id_rsa 和id_rsa.pub两个文件,这两个文件分别是SSH的私钥和公钥。

  生成authorized_keys文件:cat>二、安装hadoop和jdk
  解压hadoop的压缩包,我的安装目录是/home/hadoop(这是用户名)/hadoop(这是文件夹)/
  view source print ?
  1. tar -zxvf hadoop1. 0.3 .ta
  解压缩jdk的压缩包,命令类似上面,不过是将文件该名称,这里就不列出来了 然后下来是修改环境变量
  view source print ?
  1. sudo vim /etc/profile
  2. export JAVA_HOME = /home/hadoop/hadoop/jdk1. .0_45
  3. export PATH = $JAVA_HOME/bin:$PATH
  4. export HADOOP_HOME = /home/hadoop/hadoop/hadoop- 1.0 .
  5. export PATH = $JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH
  别忘了执行 source /etc/profile,让路径立马生效
  最后配置hadoop下的conf文件夹中的文件 修改hadoop-env.sh
  修改core-site.xm
  修改hdfs-site.xml

  修改mapred-site.xml

  修改masters,和slaves文件,在masters中只写master也就是上面提到的192.168.1.0 ,slaves中填写master和slave。
  然后格式化namenode,在hadoop-1.0.3文件中写入下面命令
  view source print ?
  1. bin/hadoop namenode -format
  对了这里一直没有提到slave的配置,其实特别简单,关闭当前的虚拟机,复制一份刚才的虚拟机文件,然后重亲起名,再次打开,修改用户名和ip就好了,我的Ubuntu名字是一样,只要不在一个盘里就行。
最后在master(用户名,也就是主节点的ubuntu)中输入以下命令,同样也是在hadoop-1.0.3的文件中

  view source print ?
  1. bin/start-all.sh
  然后输入JPS查看java进程,如果出现以下5个进程,就表示成功(不包括jps)
可以查看网页


  已经有两个节点,到此整个hadoop分布式的部署就完成了。

  •   本文来自:Linux教程网


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628455-1-1.html 上篇帖子: 【笔记】从技术角度思考Hadoop:: 下篇帖子: decomission hadoop node-Linux运维
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表