设为首页 收藏本站
查看: 1321|回复: 0

[经验分享] Hadoop 2.2.0测试环境搭建

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2014-5-23 10:16:20 | 显示全部楼层 |阅读模式
引言: 基于64位的Ubuntu系统,利用VirtualBox建立两个节点,搭建Hadoop 2.2.0的测试开发环境。
1. 准备2台虚拟机,Hadoop2-V1, Hadoop2-V2.  VirtualBox:  Ubuntu Server Edition 13.10.

2.  下载hadoop-2.2.x的稳定版本以及源代码,以备自行编译之用。Apache Url: http://mirrors.cnnic.cn/apache/hadoop/common/。将源代码下载下来,这里我们将自行编译然后build自己的版本。
   
3.  根据操作系统的版本,选择JDK版本,这里选择64位的x86版本。JDK URL: http://www.oracle.com/technetwor ... nloads-1880260.html
  

4.  安装jdk,并设置环境变量,将Java设置到系统Profile中。
     解压下载jdk的tar.gz结尾的文件。
   
   设置环境变量。
   
5.  在节点之间,搭建无密钥的ssh登录机制。首先生成当前用户的公钥/私钥。
   
   然后,就可以在~/.ssh/目录下看到生成的私钥和公钥文件,公钥文件以pub后缀结尾: id_rsa(私钥),id_rsa.pub(公钥).
6. 创建authorized_keys文件,将其他节点的公钥复制到这个文件中。并复制到不同的节点上,并验证是否可以无密钥登录.
    Linux命令: sudo  vim ~/.ssh/authorized_keys
   
  将此文件复制到其他的集群节点上去
  
  这里的复制使用了主机名,而非ip地址。
7. 设置机器的主机名.   Linux命令:sudo vim /etc/hostname
   
8.建立主机名和IP地址之间的映射,Linux命令:sudo vim /etc/hosts
   
9. 解压hadoop-2.2.0-src.tar.gz,以备自行编译hadoop
   Linux命令: tar xvfz hadoop-2.2.0-src.tar.gz
10.  安装预先的依赖包zlib1gzlib1g-devopenssl. ncurses。由于Ubuntu系统和其他Linux有所不同,所要安装的包名也会因Linux版本而略有不同。
  • sudo apt-get install zlib1g     
  • sudo apt-get install zlib1g-dev  
  • sudo apt-get install openssl  
  • sudo apt-get install libssl-dev  
  • sudo apt-get install libncurses5-dev  

11.安装依赖包:protobuf,这是一种Hadoop使用的一种底层通信协议。在这里我们自行编译和安装。   下载: http://code.google.com/p/protobuf/downloads/detail?namet=protobuf-2.5.0.tar.gz&can=2&q=  


  • tar xvfz protobuf-2.5.0.tar.gz   ----- 解压源代码文件  
  • cd protobuf-2.5.0  
  • ./configure  
  • sudo make install     ----注意:这里需要是sudo管理员的权限  

之后,protobuf就被正常安装成功了。
12. 检查mvn是否已被安装, 直接在命令行: mvn -version,如果没有则会提示命令不存在或者不支持。

  • sudo apt-get install maven  

13. 进入Hadoop-2.2.0-src的源代码目录,运行一下命令:
  • mvn package -Pdist,native -DskipTests -Dtar  


编译生成的结果复制到相应的目录,就是Hadoop的安装目录。  编译结果位置: hadoop-dist/target/hadoop-2.2.0.
14.修改hadoop-env.sh,设置JAVA_HOME.

15.修改yarn-env.sh,设置JAVA_HOME

16.修改hadoopcore-site.xml

17.修改hadoophdfs-site.xml

18.修改hadoopmapred-site.xml

19.yarn-site.xml的修改内容:

20.修改hadoopslaves, 添加slaves

21.将hadoop向各个节点分发包

22. 格式化namenode,  进入hadoop-2.20, 运行命令:./bin/hdfs namenode -format
23.  启动hadoopdfs


24.启动Hadoopyarn

25.基于jps查看进程, 查看namenode的进程
   
26. 基于jps查看进程,查看datanode的进程

说明:
1. 通过jps来查看节点的进程数,确认是否都已经启动
2. 上述步骤经过Ubuntu环境的验证,主要是在编译hadoop源代码之时,对不同的类库依赖性。
3.  集群需要使用ssh无密钥的登录方式。


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-19565-1-1.html 上篇帖子: Hadoop 1.x测试环境搭建 下篇帖子: 如何从Hadoop安全模式中进入正常模式
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表