设为首页 收藏本站
查看: 1386|回复: 0

[经验分享] VMware虚拟机搭建Hadoop集群

[复制链接]

尚未签到

发表于 2016-1-6 10:29:46 | 显示全部楼层 |阅读模式
最近搭建了hadoop2.5的集群,在这里分享一下希望能帮助到初学者,也为自己做下笔记。(一年前安装过hadoop0.23的集群,现在都不记得了)
一、环境:
1、JDK1.7
2、Hadoop2.5.2
3、VMware8.5
4、CentOs6.4 32为
下载地址:http://pan.baidu.com/s/1qW4saAS
二、环境要求:
1、使用VMware创建三个CentOs6.4系统(创建一个复制两份);
2、在每个操作系统上安装好jdk1.7,测试命令:java -verison看到如下输出就说明安装好了;

[iyunv@hdp01nn sbin]# java -version
java version "1.7.0_67"
Java(TM) SE Runtime Environment (build 1.7.0_67-b01)
Java HotSpot(TM) Client VM (build 24.65-b04, mixed mode, sharing)

三、安装规划:
一个nameNode,两个dataNode;
我本机的hosts如下:
192.168.80.130 hdp01nn #hdp=hadoop nn=nameNode dn=dataNode
192.168.80.131 hdp02dn
192.168.80.132 hdp03dn
四、开始安装:
1、修改虚拟系统的IP为静态分配、配置hosts文件
1.1将IP地址改为静态指定
这一步需要修改两个文件:
a)/etc/sysconfig/network
NETWORKING=yes
HOSTNAME=localhost.localdomain
GATEWAY=192.168.80.2
b)/etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0"
BOOTPROTO="static"
IPADDR=192.168.80.130
NETMASK=255.255.255.0

HWADDR="00:0C:29:0B:48:B5"
IPV6INIT="yes"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
UUID="ef892391-3951-46f6-8826-239cd2e5689b"
DNS1=202.106.196.115
查看虚拟机的网关和dns
edit>virtal network editor
选择VMNet8>NATSettings 看到如下界面
DSC0000.jpg
还有个文件/etc/resolv.conf会自动修改,如果没有自动修改可以参考如下文件:
# Generated by NetworkManager
nameserver 202.106.196.115

重启网卡 service network restart
[iyunv@hdp01nn sbin]# service network restart
Shutting down interface eth0:  Device state: 3 (disconnected)
[  OK  ]
Shutting down loopback interface:  [  OK  ]
Bringing up loopback interface:  [  OK  ]
Bringing up interface eth0:  Active connection state: activating
Active connection path: /org/freedesktop/NetworkManager/ActiveConnection/5
state: activated
Connection activated
[  OK  ]
如果虚拟机是复制的这里你可能会遇到问题不能重启网络,你执行下ifconfig 找到正确的HWADDR地址,替换ifcfg-eth0里面的就可以重启了;
1.2修改hosts文件
vi /etc/hosts #文件尾添加如下内容
192.168.80.130 hdp01nn
192.168.80.131 hdp02dn
192.168.80.132 hdp03dn

2、生成SSH公共秘钥
2.1安装和配置
安装 yum -y install openssh*
2.2生成公共秘钥
cd $home\.ssh
生成秘钥
ssh-keygen -t rsa
#保存到authorized_keys
cat id_rsa.pub >> authorized_keys
#传递到所有的节点(同一目录和用户名,第一次需要输入root密码)
scp authorized_keys  root@hdp02dn:/root/.ssh/
#测试
ssh root@hdp02dn
不输入密码如果可以登陆表示配置成功
[iyunv@hdp01nn sbin]# ssh root@hdp02dn
Last login: Fri Dec  5 14:20:14 2014 from 192.168.80.1
2.2关闭防火墙
#/etc/init.d/iptable stop  本次关闭
#chkconfig --level 35 iptables off  开机不启动防火墙

3、修改Hadoop配置文件
配置文件位于:hadoop-2.5.1/etc/hadoop打开后将对应内容复制到指定文件中
a)core-site.xml

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop01/hdptmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hdp01nn:9000</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>4096</value>
</property>
</configuration>

b)hdfs-site.xml

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.nameservices</name>
<value>hadoop-cluster1</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hdp01nn:50090</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/hadoop01/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///home/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>

c)mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobtracker.http.address</name>
<value>hdp01nn:50030</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>hdp01nn:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hdp01nn:19888</value>
</property>
</configuration>

d)yarn-site.xml
<?xml version="1.0"?>
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>hdp01nn:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>hdp01nn:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>hdp01nn:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>hdp01nn:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>hdp01nn:8088</value>
</property>
</configuration>

e)slaves

hdp02dn
hdp03dn
f)hadoop-env.sh和yarn-env.sh
找到第一个# export JAVA_HOME... 一行替换成如下内容(jdk地址是你自己的实际路径)
export JAVA_HOME=/usr/java/jdk1.7.0_65

4、复制hadoop到所有slave节点
scp -r /root/devtools/hadoop-2.5.2 root@hdp02dn:/root/devtools/
5、格式化namenode
bin/hdfs namenode -format
6、启动和停止
hadoop有时间心跳机制,所以集群要配置时间同步;如果你没配置记得一定要统一时区(cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime),统一系统时间(每个机器上执行:ntpdate time.windows.com);
sbin/start-all.sh
sbin/stop-all.sh

7、测试
7.1浏览器测试
需要在你实体机上 hosts文件中配置映射路径,如果没配置就直接通过ip地址访问
访问:http://hdp01nn:50070
DSC0001.jpg
访问:http://hdp01nn:8088
DSC0002.jpg
7.2使用jps命令查看hadoop进程
namenode运行:
[iyunv@hdp01nn mapreduce]# jps
3850 NameNode
4193 ResourceManager
4581 Jps
slave运行:
[iyunv@hdp02dn ~]# jps
3004 NodeManager
2901 DataNode
3773 Jps

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-160874-1-1.html 上篇帖子: 为VMware Linux添加虚拟硬盘 下篇帖子: vmware官方注册得来的 vmware server注册码for windows
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表