设为首页 收藏本站
查看: 1051|回复: 0

[经验分享] Setting Up Hadoop NameNode High Availability-candon123

[复制链接]

尚未签到

发表于 2018-10-28 14:58:34 | 显示全部楼层 |阅读模式
  Hadoop2.0以后,2个NameNode的数据其实是实时共享的。新HDFS采用了一种共享机制,Quorum Journal Node(JournalNode)集群或者Nnetwork File System(NFS)进行共享。NFS是操作系统层面的,JournalNode是hadoop层面的,本文使用JournalNode集群进行数据共享(这也是主流的做法)。如下图所示,便是JournalNode的架构图。
DSC0000.jpg

  两个NameNode为了数据同步,会通过一组称作JournalNodes的独立进程进行相互通信。当active状态的NameNode的命名空间有任何修改时,会告知大部分的JournalNodes进程。standby状态的NameNode有能力读取JNs中的变更信息,并且一直监控edit log的变化,把变化应用于自己的命名空间。standby可以确保在集群出错时,命名空间状态已经完全同步了。
  对于HA集群而言,确保同一时刻只有一个NameNode处于active状态是至关重要的。否则,两个NameNode的数据状态就会产生分歧,可能丢失数据,或者产生错误的结果。为了保证这点,这就需要利用使用ZooKeeper了。首先HDFS集群中的两个NameNode都在ZooKeeper中注册,当active状态的NameNode出故障时,ZooKeeper能检测到这种情况,它就会自动把standby状态的NameNode切换为active状态。
  一、NameNode HA搭建
  1.1 环境介绍
  本文的环境如下表所示:
DSC0001.jpg

  1.2 环境设置
  针对hadoop集群环境需要设置SSH免密码登录以及安装JDK。在搭建hadoop集群的时候,已经设置了,这里直接省略.....
  1.3 Zookeeper集群搭建
  请参考我的博客链接:Configuring Zookeeper Cluster
  1.4 编辑core-site.xml,追加以下内容
  

  
  fs.defaultFS
  hdfs://NNcluster
  
  

  
  ha.zookeeper.quorum
  hdp01:2181,hdp02:2181,hdp03:2181,hdp04:2181
  
  

  1.5 编辑hdfs-site.xml,追加以下内容
  

  

  
  dfs.nameservices
  NNcluster
  
  

  
  dfs.ha.automatic-failover.enabled
  true
  
  

  
  dfs.ha.namenodes.NNcluster
  nn1,nn2
  
  

  
  dfs.namenode.rpc-address.ns.nn1
  hdp01:9000
  
  

  
  dfs.namenode.rpc-address.ns.nn2
  hdp02:9000
  
  
  dfs.namenode.rpc-address.NNcluster.nn1
  hdp01:8020
  
  
  dfs.namenode.rpc-address.NNcluster.nn2
  hdp02:8020
  
  
  dfs.namenode.http-address.NNcluster.nn1
  hdp01:50070
  
  
  dfs.namenode.http-address.NNcluster.nn2
  hdp02:50070
  
  

  
  dfs.namenode.shared.edits.dir
  qjournal://hdp01:8485;hdp02:8485;hdp03:8485;hdp04:8485/NNcluster
  
  

  
  dfs.client.failover.proxy.provider.NNcluster
  org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
  
  

  
  dfs.ha.fencing.methods
  sshfence
  
  

  
  dfs.ha.fencing.ssh.private-key-files
  /home/hadoop/.ssh/id_rsa
  
  

  如果要启用NameNode的自动切换特性,必须配置oozie  high availability,只需在oozie-env.sh里定义OOZIE_HTTP_HOSTNAME即可。这个名称对应的IP必须是可漂移的IP。
  1.6 同步文件☞其他节点
  

[hadoop@hdp01 hadoop]$ for i in {2..4};do scp hdfs-site.xml* hdp0$i:/u01/hadoop/etc/hadoop;done  
[hadoop@hdp01 hadoop]$ for i in {2..4};do scp core-site.xml hdp0$i:/u01/hadoop/etc/hadoop;done
  

  二、启动服务
  2.1 启动JournalNode服务
  现在主节点启动,然后在其他节点启动:
  

[hadoop@hdp01 hadoop]$ for i in {1..4};do ssh hdp0$i 'source .bash_profile;hadoop-daemon.sh start journalnode';done  
starting journalnode, logging to /u01/hadoop/logs/hadoop-hadoop-journalnode-hdp01.out
  
starting journalnode, logging to /u01/hadoop/logs/hadoop-hadoop-journalnode-hdp02.out
  
starting journalnode, logging to /u01/hadoop/logs/hadoop-hadoop-journalnode-hdp03.out
  
starting journalnode, logging to /u01/hadoop/logs/hadoop-hadoop-journalnode-hdp04.out
  

  2.2 初始化JournalNodes
  分别在各个节点执行以下命令:
  

[hadoop@hdp01 hadoop]$ for i in {1..4};do ssh hdp$i 'source .bash_profile;hdfs namenode -initializeSharedEdits -force';done  

  如果不想在交互模式下执行上述命令,就加-force和-nonInteractive参数即可。
  2.3 初始化ZooKeeper中的HA状态
  这步只需在Master节点执行即可,如下:
  

[hadoop@hdp01 hadoop]$ hdfs zkfc -formatZK -force  

  启动zkfc服务:
  

[hadoop@hdp01 hadoop]$ hadoop-daemons.sh start zkfc  

  Standby节点启动namenode服务:
  

[hadoop@hdp02 ~]$ hdfs namenode -bootstrapStandby -force  

  2.4 重启hadoop集群(可选项)
  

[hadoop@hdp01 ~]$ stop-yarn.sh;stop-dfs.sh  
[hadoop@hdp01 ~]$ start-dfs.sh;start-yarn.sh
  

  2.5 节点状态验证
  

[hadoop@hdp01 ~]$ hdfs haadmin -getServiceState nn1  
active
  
[hadoop@hdp01 ~]$ hdfs haadmin -getServiceState nn2
  
standby
  

  三、测试NameNode HA的高可用性
  如2.5看到的,nn1状态为active,nn2状态为standby,停止nn1的namenode服务,看是否可以自动切换,如下:
  

[hadoop@hdp01 ~]$ hadoop-daemon.sh stop namenode  
stopping namenode
  
[hadoop@hdp01 ~]$ hdfs haadmin -getServiceState nn1
  
18/01/03 11:30:36 INFO ipc.Client: Retrying connect to server: hdp01/192.168.120.96:8020. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=1, sleepTime=1000 MILLISECONDS)
  
Operation failed: Call From hdp01/192.168.120.96 to hdp01:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
  
[hadoop@hdp01 ~]$ hdfs dfs -ls /
  
Found 6 items
  
drwxr-xr-x   - hadoop supergroup          0 2017-12-27 10:27 /hbase
  
drwxrwxrwt   - hadoop hadoop              0 2017-12-21 15:04 /logs
  
drwxrwx---   - hadoop supergroup          0 2017-12-21 15:03 /mr-history
  
drwxr-xr-x   - hadoop supergroup          0 2017-12-11 19:56 /spark
  
drwxrwxrwx   - hadoop supergroup          0 2017-12-26 11:41 /tmp
  
drwxr-xr-x   - hadoop supergroup          0 2017-12-26 11:05 /user
  

  经验证可以正常使用。开启nn1的namenode服务,如下:
  

[hadoop@hdp01 ~]$ hadoop-daemon.sh start namenode  
starting namenode, logging to /u01/hadoop/logs/hadoop-hadoop-namenode-hdp01.out
  
[hadoop@hdp01 ~]$ hdfs haadmin -getServiceState nn1
  
standby
  

  四、应用配置
  4.1 Hbase设置
  修改hbase-site.xml中的hbase.rootdir,如下:
  

--修改前:  
  hbase.rootdir
  hdfs://hdp01:9000/hbase
  
  
--修改后:
  
  hbase.rootdir
  hdfs://NNcluster/hbase
  
  

  链接hadoop的配置文件☞hbase的conf目录下:
  

--如果HBase HA模式,主备节点以及regionservers节点都要做如下链接  
[hadoop@hdp01 ~]$ ln -s /u01/hadoop/etc/hadoop/hdfs-site.xml /u01/hbase/conf/hdfs-site.xml
  
[hadoop@hdp01 ~]$ ln -s /u01/hadoop/etc/hadoop/core-site.xml /u01/hbase/conf/core-site.xml
  

  如果不做上述链接,则在启动hbase的过程会报错(虽然启动成功,但有些操作不能执行),而且regionservers也会启动失败。报错信息如下:
  

[hadoop@hdp01 conf]$ hbase shell  
HBase Shell; enter 'help' for list of supported commands.
  
Type "exit" to leave the HBase Shell
  
Version 1.3.1, r930b9a55528fe45d8edce7af42fef2d35e77677a, Thu Apr  6 19:36:54 PDT 2017
  

  
hbase(main):001:0> status
  

  
ERROR: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing
  at org.apache.hadoop.hbase.master.HMaster.checkInitialized(HMaster.java:2452)
  at org.apache.hadoop.hbase.master.MasterRpcServices.getClusterStatus(MasterRpcServices.java:792)
  at org.apache.hadoop.hbase.protobuf.generated.MasterProtos$MasterService$2.callBlockingMethod(MasterProtos.java:58519)
  at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:2339)
  at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:123)
  at org.apache.hadoop.hbase.ipc.RpcExecutor$Handler.run(RpcExecutor.java:188)
  at org.apache.hadoop.hbase.ipc.RpcExecutor$Handler.run(RpcExecutor.java:168)
  

  

  正常的执行结果如下:
  

hbase(main):001:0> status  
1 active master, 1 backup masters, 3 servers, 0 dead, 0.6667 average load
  

  4.2 Hive设置
  编辑hive-site.xml文件,修改如下内容:
  

--变更前  
  hive.metastore.warehouse.dir
  hdfs://hdp01:9000/user/hive/warehouse
  location of default database for the warehouse
  
  
--变更后
  
  hive.metastore.warehouse.dir
  hdfs://NNcluster/user/hive/warehouse
  location of default database for the warehouse
  
  

  Hive的元数据库修改:
  主要修改两张表:DBS和SDS。
  其中DBS里定义了数据库的位置信息,如下图:
DSC0002.jpg

  而SDS定义了表的位置信息:
DSC0003.jpg

  如果以上两张表不做修改,则在对表进行操作的时候,会报如下错误:
DSC0004.jpg

  修改后的结果如下:
DSC0005.jpg

  查询验证:
DSC0006.jpg




运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627617-1-1.html 上篇帖子: hadoop集群部署,cmaster , cslave1,cslave2-bjylpos的博客 下篇帖子: Hadoop分布式文件系统HDFS架构
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表