设为首页 收藏本站
查看: 999|回复: 0

[经验分享] Hadoop集群的搭建与配置

[复制链接]
累计签到:2 天
连续签到:1 天
发表于 2015-7-15 10:05:18 | 显示全部楼层 |阅读模式
1、软件需求与环境说明
(1)四台Linux服务器,分别安装64位的CentOS 5.4操作系统(CentOS-5.4-x86_64-bin-DVD.iso)

(2)Linux下的64位JDK(jdk-6u45-linux-x64-rpm.bin)
(3)Hadoop软件(hadoop-1.0.3.tar.gz)

2、服务器IP配置
Hadoop是主从结构,其中Master作为NameNode(名称节点),Slaver作为Datanode(数据节点),名称和IP对应如下:
  192.168.100.1  namenode
  192.168.100.2  datanode1
  192.168.100.3  datanode2
  192.168.100.4  datanode3
修改IP地址和网关的方法:编辑/etc/sysconfig/network-s/ifcfg-eth0 文件(注:eth0代表网卡一,lo代表127.0.0.1,即localhost;实际修改什么文件,要以ip记录在那块网卡为准):
  DEVICE="eth0"
  IPADDR=192.168.100.1    --IP地址
  NETMASK=255.255.255.0
  GATEWAY=192.168.100.10  --网关(根据实际的网络而定)
  DNS1=192.168.100.10      --DNS

3、安装JDK
(1)把jdk-6u45-linux-x64-rpm.bin上传到/tmp目录下,使用如下命令进行安装:
  ./jdk-6u45-linux-x64-rpm.bin
安装完成后,系统会在/usr目录下生成java文件夹,JDK安装目录就在这个文件下。
(2)添加环境变量:打开/etc/profile文件,在文件最后添加如下配置:
  #config java
  JAVA_HOME=/usr/java/jdk1.6.0_45
  CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
  PATH=$JAVA_HOME/bin:$PATH
  export PATH JAVA_HOME CLASSPATH
(3)让设置生效: source /etc/profile

4、修改主机名称,设置主从配置
在所有机器的/etc/hosts文件添加以下配置:
  192.168.100.1  namenode
  192.168.100.2  datanode1
  192.168.100.3  datanode2
  192.168.100.4  datanode3
修改完成后要重启机器

5、配置SSH  (CentOS默认已经安装ssh)
(1)在NameNode下执行 ssh-keygen -t  rsa
(2)在NameNode下分别执行
  ssh-copy-id -i ~/.ssh/id_rsa.pub  root@namenode
  ssh-copy-id -i ~/.ssh/id_rsa.pub  root@datanode1
  ssh-copy-id -i ~/.ssh/id_rsa.pub  root@datanode2
  ssh-copy-id -i ~/.ssh/id_rsa.pub  root@datanode3
执行完成后,实际上在NameNode节点的~/.ssh目录下生成了三个文件:
authorized_keys 、 id_rsa 、 id_rsa.pub,在DataNode节点下分别生成了authorized_keys文件,作为密钥实现无密码通信

6、安装Hadoop
(1)把hadoop-1.0.3.tar.gz 解压到/usr目录下,并重命名为hadoop
(2)设置hadoop环境变量
编辑/etc/profile增加如下内容
  #config hadoop
  export HADOOP_HOME=/usr/hadoop
  export PATH=$HADOOP_HOME/bin:$PATH
  export HADOOP_LOG_DIR=${HADOOP_HOME}/logs
    让设置生效: source /etc/profile
(3)修改各台机器 /usr/hadoop/conf目录下的masters和slaves 文件,其中:
  Masters文件配置为:
    namenode
  Slavers文件配置为:
    datanode1
    datanode2
    datanode3
(4)修改配置文件/usr/hadoop/conf/hadoop-env.sh把JAVA_HOME改为安装jdk的路径:
  export  JAVA_HOME=/usr/java/jdk1.6.0_45
(5)修改配置文件 /usr/hadoop/conf/core-site.xml内容如下:





fs.default.name
hdfs://namenode:9000/


hadoop.tmp.dir
/usr/hadoop/tmp/


(6)修改配置文件 hdfs-site.xml内容如下:





dfs.replication
3   #设置备份文件数


(7)修改配置文件 mapred-site.xml内容如下:





mapred.job.tracker
#一般jobtracker和namenode设置到同一台机器上,但是同样可以集群
Namenode:9001


(8)格式化HDFS: 在namenode下执行 ./hadoop namenode -format 进行格式化,格式化过程中如果出现ERROR字段,则格式化失败,否则就成功。
(9)启动Hadoop  ./start-all.sh

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-86839-1-1.html 上篇帖子: hadoop新旧API的区别 下篇帖子: Hadoop 2.0 Yarn代码:ResourcesManager端代码_RM端各模块服务的启动
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表