设为首页 收藏本站
查看: 1194|回复: 0

[经验分享] hadoop部署安装

[复制链接]

尚未签到

发表于 2018-11-1 09:21:04 | 显示全部楼层 |阅读模式
  共有2台机器,均使用的centos5.7系统,Java使用的是jdk1.7.0。IP配置如下:
  
centos1:10.0.9.101
  
centos2:10.0.9.102
  
这里有一点需要强调的就是,务必要确保每台机器的主机名和IP地址之间能正确解析。
  一个很简单的测试办法就是ping一下主机名,比如在centos1上ping centos2,如果能ping通就OK!若不能正确解析,可以修改/etc/hosts文件,如果该台机器作Namenode用,则需要在hosts文件中加上集群中所有机器的IP地址及其对应的主机名;如果该台机器作Datanode用,则只需要在hosts文件中加上本机IP地址和Namenode机器的IP地址。
  以本文为例,centos1中的/etc/hosts文件看起来就应该是这样的:
  
127.0.0.0         localhost
  
10.0.9.101     centos1
  
10.0.9.102     centos2
  
centos2中的/etc/hosts文件看起来就应该是这样的:
  
127.0.0.0         localhost
  
10.0.9.101     centos1
  
10.0.9.102     centos2
  对于Hadoop来说,在HDFS看来,节点分为Namenode和Datanode,其中Namenode只有一个,Datanode可以是很多;在MapReduce看来,节点又分为Jobtracker和Tasktracker,其中Jobtracker只有一个,Tasktracker可以是很多。
  
我是将namenode和jobtracker部署在centos1上,centos1和centos2作为datanode和tasktracker。当然你也可以将namenode,datanode,jobtracker,tasktracker全部部署在一台机器上(就像centos1)。
  jdk环境配置
  官网下载适合自己的jdk
  http://www.oracle.com/technetwork/java/javase/downloads/java-se-jdk-7-download-432154.html
  为了简单下载一个rpm包
  jdk-7-linux-x64.rpm

rpm -ivh jdk-7-linux-x64.rpm
查看/usr/目录就有java目录了
配置环境变量  

#vim /etc/profile  

  在profile文件下面追加写入下面信息:
  

export JAVA_HOME=/usr/java/jdk1.7.0
  export>=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar  export
PATH=$PATH:$JAVA_HOME/bin  

  是配置文档生效
  source /etc/profile
  目录结构
  这里务必以新建用户grid登陆,保证hadoop目录及子目录属主为grid一个人(如果既有root又有grid以后会出现很多错误)
  
由于Hadoop要求所有机器上hadoop的部署目录结构要相同,并且都有一个相同的用户名的帐户。
  
我的三台机器上是这样的:都有一个grid的帐户,主目录是/home/grid
  
Hadoop部署目录结构如下:/home/grid/HadoopInstall,所有的hadoop版本放在这个目录中。
  
将hadoop0.20.204压缩包解压至HadoopInstall中,为了方便以后升级,建议建立一个链接指向要使用的hadoop版本,不妨设为hadoop
  
[grid@centos1:HadoopInstall]$ln  -s  hadoop0.20.204 hadoop
  
这样一来,所有的配置文件都在/home/grid/HadoopInstall/hadoop/conf/目录中,所有执行程序都在hadoop/bin目录中。
  
但是由于上述目录中hadoop的配置文件和hadoop的安装目录是放在一起的,这样一旦日后升级hadoop版本的时候所有的配置文件都会被覆盖,因此建议将配置文件与安装目录分离,一种比较好的方法就是建立一个存放配置文件的目录,/home/grid/HadoopInstall/hadoop-conf/,然后将hadoop/conf/目录中的core-site.xml,hdfs-site.xml,mapred-site.xml,master,slaves,hadoop_env.sh六个文件拷贝到hadoop-conf/目录中,并指定环境变量$HADOOP_CONF_DIR指向该目录。环境变量在/home/grid/.bashrc或/etc/profile中设定。
  export $HADOOP_CONF_DIR=/home/grid/HadoopInstall/hadoop/hadoop-conf
  
综上所述,为了方便以后升级版本,我们需要做到配置文件与安装目录分离,并通过设定一个指向我们要使用的版本的hadoop的链接,这样可以减少我们对配置文件的维护。在下面的部分,你就会体会到这样分离以及链接的好处了。
  这里的目录和链接结构比较乱,我在说明一下
  家目录/home/grid
  下面有一个放hadoop各版本的目录HadoopInstall,比如示例版本hadoop0.20.204即
  /home/grid/HadoopInstall/hadoop0.20.204



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-629202-1-1.html 上篇帖子: windows和cygwin下hadoop安装配置 下篇帖子: Hadoop 配置
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表