设为首页 收藏本站
查看: 1550|回复: 0

[经验分享] (第2篇)一篇文章教你轻松安装hadoop

[复制链接]

尚未签到

发表于 2018-10-29 08:58:21 | 显示全部楼层 |阅读模式
  如果你看了我的上一篇文章,那此时你对hadoop已经有了一个大概的了解,那接下来这篇文章就教大家怎么安装hadoop环境,只要你用心,仔细的跟着文章中讲到的做,肯定能正确安装。
  安装hadoop环境
  由于大家在学习hadoop时候,主要以Hadoop 1.0环境为主学习就可以,所以这主要介绍如何搭建Hadoop 1.0分布式环境。
  整个分布式环境运行在带有linux操作系统的虚拟机上,至于虚拟机和linux系统的安装这里暂不做过多介绍。
  安装Hadoop分布式环境:
  1) 下载Hadoop安装包:
  在本站下载地址  http://down.51cto.com/data/2290706  中可以找到hadoop-1.2.1-bin.tar.gz文件
  使用securtCRT的rz功能上传hadoop-1.2.1-bin.tar.gz这个文件到虚拟机的系统中。
  同样在securtcrt中ll时,能得到
DSC0000.png

  2) 安装Hadoop安装包:
  l 首先将安装包解压缩:
DSC0001.png

  l Linux终端执行cd进入相应目录:
DSC0002.png

  l 新增tmp目录,mkdir  /home/hadoop/hadoop-1.2.1/tmp
DSC0003.png

  3) 配置Hadoop:
  l 使用vim修改master文件内容:
DSC0004.png

  将localhost修改成master:
DSC0005.png

  最后保存退出。
  l 修改slaves文件
  注意,这里准备设置几台slave机器,就写几个,因为当前分布式环境有四个虚拟机,一台做master,三台做slave,所以这里写成了三个slave
DSC0006.png

  l 修改core-site.xml文件:
DSC0007.png

  【注意】中间的ip地址,不要输入192.168.2.55,根据自己的情况设置。
  l 修改mapred-site.xml文件:
DSC0008.png

  【注意】记得value的内容要以http开头。
  l 修改hdfs-site.xml文件:
DSC0009.png

  其中,3视情况修改,如果有三台slave机器,这里设置成3,如果只有1台或2台,修改成对应的值即可。
  l 修改hadoo-env.sh文件
  在 DSC00010.png
  下新增export JAVA_HOME=/home/hadoop/jdk1.6.0_45/
DSC00011.png

  l 修改本地网络配置:编辑/etc/hosts文件
DSC00012.png

DSC00013.png

  【注意】Ip地址根据具体的情况要进行修改。
  4) 复制虚拟机
  l 关闭当前虚拟机,并复制多份
DSC00014.png

  【注意】要选择初始化所有网卡的mac地址
DSC00015.png

  根据自己需求,复制2到3台虚拟机作为slave,同样要确认网络连接方式为桥接。
  l 设置所有机器的IP地址
  分别启动虚拟机,修改机器的ip 地址,在虚拟机的图形界面里,选择设置 DSC00016.png 单击打开,在弹出来的窗口里,选择 DSC00017.png
DSC00018.png

  打开 DSC00019.png ,修改成如下的形式,选择ipv4 ,分配方式选择成manual。
  【注意】具体的ip地址,根据实际的情况来设置,因为培训教室里都是192.168.2.x的网段,所以我这里设置成了192.168.2.x,每个人选择自己的一个ip地址范围,注意不要和其它人冲突了。
DSC00020.png

  5) 建立互信关系
  l 生成公私钥,在master机器的虚拟机命令行下输入ssh-keygen,一路回车,全默认
DSC00021.png

  l 复制公钥
  复制一份master的公钥文件,cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
DSC00022.png

  同样,在所有的slave机器上,也在命令行中输入ssh-keygen,一路回车,全默认
  在所有的salve机器上,从master机器上复制master的公钥文件:
DSC00023.png

  l 测试连接
  在master机器上分别向所有的slave机器发起联接请求:
  如:ssh slave1
DSC00024.png

  【注意】记得一旦联接上,所有的操作,就视同在对应的slave上操作,所以一定要记得使用exit退出联接。
  6) 启动Hadoop:
  l 初始化:在master机器上,进入/home/hadoop/hadoop-1.2.1/bin目录
DSC00025.png

  在安装包根目录下运行./hadoop namenode –format来初始化hadoop的文件系统。
DSC00026.png

  l 启动
  执行./start-all.sh,如果中间过程提示要判断是否,需要输入yes
DSC00027.png

  输入jps,查看进程是否都正常启动。
DSC00028.png

  如果一切正常,应当有如上的一些进程存在。
  7) 测试系统
  输入./hadoop fs –ls /
DSC00029.png

  能正常显示文件系统。
  如此,hadoop系统搭建完成。否则,可以去/home/hadoop/hadoop-1.2.1/logs目录下,查看缺少的进程中,对应的出错日志。
  此时,你已经把hadoop环境搭建好了,下一篇文章将给大家介绍什么是HDFS文件系统,HDFS又能做什么呢?
DSC00030.jpg

  如何用4个月学会Hadoop开发并找到年薪25万工作?
  
  免费分享一套17年最新Hadoop大数据教程和100道Hadoop大数据必会面试题。
  因为链接经常被和谐,需要的朋友请加微信 ganshiyun666 来获取最新下载链接,注明“51CTO”
  教程已帮助300+人成功转型Hadoop开发,90%起薪超过20K,工资比之前翻了一倍。
  内容包括0基础入门、Hadoop生态系统、真实商业项目实战3大部分。其中商业案例可以让你接触真实的生产环境,训练自己的开发能力。
DSC00031.png



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627777-1-1.html 上篇帖子: (第1篇)什么是hadoop大数据?我又为什么要写这篇文章? 下篇帖子: (第4篇)hadoop之魂--mapreduce计算框架,让收集的数据产生价值
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表