3台机器,一主两从:
192.168.41.100 master
192.168.41.101 slave1
192.168.41.102 slave2 系统为CentOS 6.4
2.安装步骤: ① 安装前准备 (1)3台机器全部修改hosts文件和hostname后重启
(2)配置节点之间SSH免密码登陆(可参考博文hadoop1集群安装,这里不在详述) (3)安装jdk(可参考博文hadoop1集群安装,这里不在详述)
②解压hadoop 1
2
3
| tar zvxf /usr/local/hadoop-2.2.0.tar.gz -C /usr
cd /usr
mv hadoop-2.2.0 hadoop
|
效果如下:
③hadoop配置过程
(1)在master本地创建如下文件夹:
(2)修改hadoop默认模板保证以下文件存在
hadoop-env.sh
yarn-env.sh
slaves
core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml
命令如下:
1
2
| cd /usr/hadoop/etc/hadoop
mv mapred-site.xml.template mapred-site.xml
|
(3)修改配置文件
配置文件1:hadoop-env.sh
修改JAVA_HOME值
配置文件2:yarn-env.sh
修改JAVA_HOME值
配置文件3:slaves (这个文件里面保存所有slave节点)
配置文件4:core-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
fs.defaultFS
hdfs://master:8020
io.file.buffer.size
131072
hadoop.tmp.dir
file:/root/tmp
Abase for other temporary directories.
hadoop.proxyuser.root.hosts
*
hadoop.proxyuser.root.groups
*
|
配置文件5:hdfs-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
dfs.namenode.secondary.http-address
master:9001
dfs.namenode.name.dir
file:/root/dfs/name
dfs.datanode.data.dir
file:/root/dfs/data
dfs.replication
3
dfs.webhdfs.enabled
true
|
配置文件6:mapred-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
mapreduce.framework.name
yarn
mapreduce.jobhistory.address
master:10020
mapreduce.jobhistory.webapp.address
master:19888
|
配置文件7:yarn-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
|
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.resourcemanager.address
master:8032
yarn.resourcemanager.scheduler.address
master:8030
yarn.resourcemanager.resource-tracker.address
master:8031
yarn.resourcemanager.admin.address
master:8033
yarn.resourcemanager.webapp.address
master:8088
|
④复制到其他节点
1
| scp -r /usr/hadoop root@slave1:~/usr
|
⑤配置环境变量
⑥启动验证
(1)启动hadoop
或者
(2)启动hdfs
此时master上有namenode和secondname,slave上有datanode:
(3)启动yarn
启动后master和slave进程如下:
此时全部集群配置完毕
windows可以修改本机hosts来查看,http://master:8088
3.需要注意的问题:
hadoop2.2的配置还是比较简单的,但是可能会遇到各种各样的问题。最常讲的就是看不到进程。
看不到进程大致有两个原因:
(1)你的配置文件有问题。
对于配置文件,主机名,空格之类的这些都不要带上。仔细检查
(2)Linux的权限不正确。
最常出问题的是core-site.xml,与hdfs-site.xml
core-site.xml:
1
2
3
4
5
|
hadoop.tmp.dir
file:/root/tmp
Abase forother temporary directories.
|
上面参数的含义,这里是hadoop的临时文件目录,file的含义是使用本地目录。也就是使用的是Linux的目录,一定确保下面目录/root/tmp的权限所属为你创建的用户辅导。如果你创建了zhangsan或则lisi,那么这个目录就会变为/home/zhangsan/tmp,hdfs-site.xml也是同理。
|