设为首页 收藏本站
查看: 1598|回复: 0

[经验分享] Hadoop、Hbase完全分布式搭建

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2015-3-23 08:58:25 | 显示全部楼层 |阅读模式
一、Hadoop1.0到2.0的架构变化
wKioL1UNG-aSt10OAAHl295Gnjw111.jpg
1、Hadoop 2.0由HDFS、MapReduce和YARN三个分支构成
2、HDFSNN Federation、HA
3、MapReduce运行在YARN上的MR
4、YARN资源管理系统

二、HDFS 2.0
1、解决HDFS 1.0中单点故障和内存受限问题。
2、解决单点故障
   HDFS HA通过主备NameNode解决
   如果主NameNode发生故障则切换到备NameNode上
3、解决内存受限问题
   HDFS Federation(联邦)
   水平扩展支持多个NameNode
   每个NameNode分管一部分目录
   所有NameNode共享所有DataNode存储资
4、仅是架构上发生了变化使用方式不变
  对HDFS使用者透明
   HDFS 1.0中的命令和API仍可以使用$ hadoop fs -ls /user/hadoop/$ hadoop fs -mkdir           /user/hadoop/data

三、HDFS 2.0 HA
1、主备NameNode
2、解决单点故障
   主NameNode对外提供服务备NameNode同步主NameNode元数据以待切换
   所有DataNode同时向两个NameNode汇报数据块信息
3、两种切换选择
   手动切换通过命令实现主备之间的切换可以用HDFS升级等场合
   自动切换基于Zookeeper实现
4、基于Zookeeper自动切换方案
   Zookeeper Failover Controller监控NameNode健康状态并向Zookeeper注册NameNode
   NameNode挂掉后ZKFC为NameNode竞争锁获得ZKFC 锁的NameNode变为active

四、环境搭建
192.168.1.2  master

192.168.1.3  slave1
192.168.1.4  slave2
Hadoop versionhadoop-2.2.0.tar.gz
Hbase  versionhbase-0.98.11-hadoop2-bin.tar.gz
Zookeeper versionzookeeper-3.4.5.tar.gz
JDK versionjdk-7u25-linux-x64.gz

1、主机HOSTS文件配置
1
2
3
4
5
6
7
8
9
10
11
12
[iyunv@master ~]# cat /etc/hosts
192.168.1.2 master
192.168.1.3 slave1
192.168.1.4 slave2
[iyunv@slave1 ~]# cat /etc/hosts
192.168.1.2 master
192.168.1.3 slave1
192.168.1.4 slave2
[iyunv@slave2 ~]# cat /etc/hosts
192.168.1.2 master
192.168.1.3 slave1
192.168.1.4 slave2




2、配置节点之间互信
1
2
3
4
5
6
7
8
9
10
[iyunv@master ~]# useradd hadoop
[iyunv@slave1 ~]# useradd hadoop
[iyunv@slave2 ~]# useradd hadoop
[iyunv@master ~]# passwd hadoop
[iyunv@slave1 ~]# passwd hadoop
[iyunv@slave2 ~]# passwd hadoop
[iyunv@master ~]# su - hadoop
[hadoop@master ~]$ ssh-copy-id -i ~/.ssh/id_rsa.pub slave1
[hadoop@master ~]$ ssh-copy-id -i ~/.ssh/id_rsa.pub slave2
[hadoop@master ~]$ ssh-copy-id -i ~/.ssh/id_rsa.pub master





3、JDK环境配置
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
[iyunv@master ~]# tar jdk-7u25-linux-x64.gz
[iyunv@master ~]# mkdir /usr/java
[iyunv@master ~]# mv jdk-7u25-linux-x64.gz /usr/java
[iyunv@master ~]# cd /usr/java/
[iyunv@master java]# ln -s jdk1.7.0_25 jdk
# 修改/etc/profile,添加
export JAVA_HOME=/usr/java/jdk
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=/usr/java/jdk/bin:$PATH
[iyunv@master ~]# source /etc/profile
[iyunv@master ~]# java -version
java version "1.7.0_25"
Java(TM) SE Runtime Environment (build 1.7.0_25-b15)
Java HotSpot(TM) 64-Bit Server VM (build 23.25-b01, mixed mode)

# slave1,slave2同样操作




4.Hadoop安装
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
[iyunv@master ~]# tar zxvf hadoop-2.2.0.tar.gz
[iyunv@master ~]# mv hadoop-2.2.0 /home/hadoop/
[iyunv@master ~]# cd /home/hadoop/
[iyunv@master hadoop]# ln -s hadoop-2.2.0 hadoop
[iyunv@master hadoop]# chown -R hadoop.hadoop /home/hadoop/
[iyunv@master ~]# cd /home/hadoop/hadoop/etc/hadoop
# 修改hadoop-env.sh文件
export JAVA_HOME=/usr/java/jdk
export HADOOP_HEAPSIZE=200

# 修改mapred-env.sh文件
export JAVA_HOME=/usr/java/jdk
export HADOOP_JOB_HISTORYSERVER_HEAPSIZE=1000

# 修改yarn-env.sh文件
export JAVA_HOME=/usr/java/jdk
JAVA_HEAP_MAX=-Xmx300m
YARN_HEAPSIZE=100


# 修改core-site.xml文件

   
        fs.defaultFS
        hdfs://master:9000
   
   
            hadoop.tmp.dir
            /home/hadoop/tmp
   
   
        hadoop.proxyuser.hadoop.hosts
        *
   
   
        hadoop.proxyuser.hadoop.groups
        *
   


# 修改hdfs-site.xml文件

   
        dfs.namenode.secondary.http-address
        master:9001
   
   
        dfs.namenode.name.dir
        /home/hadoop/dfs/name
   
   
        dfs.datanode.data.dir
        /home/hadoop/dfs/data
   
   
        dfs.replication
        2
   
   
        dfs.webhdfs.enabled
        true
   



# 修改mapred-site.xml文件

   
        mapreduce.framework.name
        yarn
   
   
        mapreduce.jobhistory.address
        master:10020
   
   
        mapreduce.jobhistory.webapp.address
        master:19888
   
   
        mapreduce.map.memory.mb
        512
   
   
        mapreduce.map.cpu.vcores
        1
   
   
        mapreduce.reduce.memory.mb
        512
   


# 修改yarn-site.xml文件

   
        yarn.nodemanager.aux-services
        mapreduce_shuffle
   
   
        yarn.nodemanager.aux-services.mapreduce.shuffle.class
        org.apache.hadoop.mapred.ShuffleHandler
   
   
        yarn.resourcemanager.address
        master:8032
   
   
        yarn.resourcemanager.scheduler.address
        master:8030
   
   
        yarn.resourcemanager.resource-tracker.address
        master:8031
   
   
        yarn.resourcemanager.admin.address
        master:8033
   
   
        yarn.resourcemanager.webapp.address
        master:8088
   
   
        yarn.scheduler.minimum-allocation-mb
        100
   
   
        yarn.scheduler.maximum-allocation-mb
        200
   
   
        yarn.scheduler.minimum-allocation-vcores
        1
   
   
        yarn.scheduler.maximum-allocation-vcores
        2
   


# 修改slaves文件
slave1
slave2

# 修改 /home/hadoop/.bashrc

export HADOOP_DEV_HOME=/home/hadoop/hadoop
export PATH=$PATH:$HADOOP_DEV_HOME/bin
export PATH=$PATH:$HADOOP_DEV_HOME/sbin
export HADOOP_MAPARED_HOME=${HADOOP_DEV_HOME}
export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME}
export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME}
export YARN_HOME=${HADOOP_DEV_HOME}
export HADOOP_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop
export HDFS_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop
export YARN_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop

# 将上面修改的文件全部传送到slave1,slave2节点





5、在master节点上启动hdfs
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
[hadoop@master ~]$ cd /home/hadoop/hadoop/sbin/
[hadoop@master sbin]$ ./start-dfs.sh
15/03/21 00:49:35 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [master]
master: starting namenode, logging to /home/hadoop/hadoop-2.2.0/logs/hadoop-hadoop-namenode-master.out
slave2: starting datanode, logging to /home/hadoop/hadoop-2.2.0/logs/hadoop-hadoop-datanode-slave2.out
slave1: starting datanode, logging to /home/hadoop/hadoop-2.2.0/logs/hadoop-hadoop-datanode-slave1.out
Starting secondary namenodes [master]
master: starting secondarynamenode, logging to /home/hadoop/hadoop-2.2.0/logs/hadoop-hadoop-secondarynamenode-master.out

# 查看进程
[hadoop@master ~]$ jps
39093 Jps
38917 SecondaryNameNode
38767 NameNode

[iyunv@slave1 ~]# jps
2463 Jps
2379 DataNode

[iyunv@slave2 ~]# jps
2463 Jps
2379 DataNode

#启动jobhistory

[hadoop@master sbin]$ mr-jobhistory-daemon.sh start historyserver
starting historyserver, logging to /home/hadoop/hadoop-2.2.0/logs/mapred-hadoop-historyserver-master.out





6、启动yarn
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
[hadoop@master ~]$ cd /home/hadoop/hadoop/sbin/
[hadoop@master sbin]$ ./start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /home/hadoop/hadoop-2.2.0/logs/yarn-hadoop-resourcemanager-master.out
slave2: starting nodemanager, logging to /home/hadoop/hadoop-2.2.0/logs/yarn-hadoop-nodemanager-slave2.out
slave1: starting nodemanager, logging to /home/hadoop/hadoop-2.2.0/logs/yarn-hadoop-nodemanager-slave1.out

# 查看进程
[hadoop@master sbin]$ jps
39390 Jps
38917 SecondaryNameNode
39147 ResourceManager
38767 NameNode
[hadoop@slave1 ~]$ jps
2646 Jps
2535 NodeManager
2379 DataNode

[hadoop@slave2 ~]$ jps
8261 Jps
8150 NodeManager
8004 DataNode




7、查看hdfs文件系统
1
2
3
4
5
[hadoop@master sbin]$ hadoop fs -ls /
15/03/21 15:56:05 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Found 2 items
drwxr-xr-x   - hadoop supergroup          0 2015-03-20 17:46 /hbase
drwxrwx---   - hadoop supergroup          0 2015-03-20 16:56 /tmp





8、安装Zookeeper
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
[iyunv@master ~]# tar zxvf zookeeper-3.4.5.tar.gz -C /home/hadoop/
[iyunv@master ~]# cd /home/hadoop/
[iyunv@master hadoop]# ln -s zookeeper-3.4.5 zookeeper
[iyunv@master hadoop]# chown -R hadoop.hadoop /home/hadoop/zookeeper
[iyunv@master hadoop]# cd zookeeper/conf/
[iyunv@master conf]# cp zoo_sample.cfg zoo.cfg
# 修改zoo.cfg
dataDir=/home/hadoop/zookeeper/data
dataLogDir=/home/hadoop/zookeeper/logs
server.1=192.168.1.2:7000:7001
server.2=192.168.1.3:7000:7001
server.3=192.168.1.4:7000:7001
#在slave1,slave2执行相同的操作

[hadoop@master conf]# cd /home/hadoop/zookeeper/data/
[hadoop@master data]# echo 1 > myid
[hadoop@slave1 data]# echo 2 > myid
[hadoop@slave2 data]# echo 3 > myid

#启动zookeeper
[hadoop@master ~]$ cd zookeeper/bin/
[hadoop@master bin]$ ./zkServer.sh start
[hadoop@slave1 ~]$ cd zookeeper/bin/
[hadoop@slave1 bin]$ ./zkServer.sh start
[hadoop@slave2 ~]$ cd zookeeper/bin/
[hadoop@slave2 bin]$ ./zkServer.sh start





9、Hbase安装
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
[iyunv@master ~]# tar zxvf hbase-0.98.11-hadoop2-bin.tar.gz -C /home/hadoop/
[iyunv@master ~]# cd /home/hadoop/
[iyunv@master hadoop]# ln -s hbase-0.98.11-hadoop2 hbase
[iyunv@master hadoop]# chown -R hadoop.hadoop /home/hadoop/hbase
[iyunv@master hadoop]# cd /home/hadoop/hbase/conf/
# 修改hbase-env.sh文件
export JAVA_HOME=/usr/java/jdk
export HBASE_HEAPSIZE=50

# 修改 hbase-site.xml 文件

   
        hbase.rootdir
        hdfs://master:9000/hbase
   
   
        hbase.cluster.distributed
        true
   
        
            hbase.zookeeper.property.clientPort   
            2181   
   
   
          hbase.zookeeper.quorum
          master,slave1,slave2
   


# 修改regionservers文件
slave1
slave2

# 将上面修改的文件传送到slave1,slave2





10、在master上面启动Hbase
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
[hadoop@master ~]$ cd hbase/bin/
[hadoop@master bin]$ ./start-hbase.sh
master: starting zookeeper, logging to /home/hadoop/hbase/bin/../logs/hbase-hadoop-zookeeper-master.out
slave1: starting zookeeper, logging to /home/hadoop/hbase/bin/../logs/hbase-hadoop-zookeeper-slave1.out
slave2: starting zookeeper, logging to /home/hadoop/hbase/bin/../logs/hbase-hadoop-zookeeper-slave2.out
starting master, logging to /home/hadoop/hbase/bin/../logs/hbase-hadoop-master-master.out
slave1: starting regionserver, logging to /home/hadoop/hbase/bin/../logs/hbase-hadoop-regionserver-slave1.out
slave2: starting regionserver, logging to /home/hadoop/hbase/bin/../logs/hbase-hadoop-regionserver-slave2.out

# 查看进程
[hadoop@master bin]$ jps
39532 QuorumPeerMain
38917 SecondaryNameNode
39147 ResourceManager
39918 HMaster
38767 NameNode
40027 Jps

[hadoop@slave1 data]$ jps
3021 HRegionServer
3133 Jps
2535 NodeManager
2379 DataNode
2942 HQuorumPeer

[hadoop@slave2 ~]$ jps
8430 HRegionServer
8351 HQuorumPeer
8150 NodeManager
8558 Jps
8004 DataNode

# 验证

[hadoop@master bin]$ ./hbase shell
2015-03-21 16:11:44,534 INFO  [main] Configuration.deprecation: hadoop.native.lib is deprecated. Instead, use io.native.lib.available
HBase Shell; enter 'help' for list of supported commands.
Type "exit" to leave the HBase Shell
Version 0.98.11-hadoop2, r6e6cf74c1161035545d95921816121eb3a516fe0, Tue Mar  3 00:23:49 PST 2015

hbase(main):001:0> list
TABLE                                                                                                                                                                                          
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/hadoop/hbase-0.98.11-hadoop2/lib/slf4j-log4j12-1.6.4.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/hadoop/hadoop-2.2.0/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
2015-03-21 16:11:56,499 WARN  [main] util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
0 row(s) in 1.9010 seconds

=> []






11、查看集群状态
HDFS UIhttp://192.168.1.2:50070/dfshealth.jsp
wKioL1UNKangFROXAASShwIuv2E204.jpg

YARN UIhttp://192.168.1.2:8088/cluster
wKioL1UNKg3ztIHXAALvk_7_in4772.jpg

jobhistory UIhttp://192.168.1.2:19888/jobhistory

wKiom1UNKkPhxPw2AAIHcsxpKeg884.jpg

HBASE UIhttp://192.168.1.2:60010/master-status
wKioL1UNKnfzNKHkAAKUUKivsdg997.jpg


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-49591-1-1.html 上篇帖子: Hhadoop环境部署 下篇帖子: Hhadoop环境部署
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表