设为首页 收藏本站
查看: 1149|回复: 0

[经验分享] 1、hadoop HA分布式集群搭建

[复制链接]
发表于 2017-12-16 20:45:16 | 显示全部楼层 |阅读模式
  概述
  hadoop2中NameNode可以有多个(目前只支持2个)。每一个都有相同的职能。一个是active状态的,一个是standby状态的。当集群运行时,只有active状态的NameNode是正常工作的,standby状态的NameNode是处于待命状态的,时刻同步active状态NameNode的数据。一旦active状态的NameNode不能工作,standby状态的NameNode就可以转变为active状态的,就可以继续工作了。
  2个NameNode的数据其实是实时共享的。新HDFS采用了一种共享机制,Quorum Journal Node(JournalNode)集群或者Nnetwork File System(NFS)进行共享。NFS是操作系统层面的,JournalNode是hadoop层面的,我们这里使用JournalNode集群进行数据共享(这也是主流的做法)。JournalNode的架构图如下:
DSC0000.png

  两个NameNode为了数据同步,会通过一组称作JournalNodes的独立进程进行相互通信。当active状态的NameNode的命名空间有任何修改时,会告知大部分的JournalNodes进程。standby状态的NameNode有能力读取JNs中的变更信息,并且一直监控edit log的变化,把变化应用于自己的命名空间。standby可以确保在集群出错时,命名空间状态已经完全同步了。
  对于HA集群而言,确保同一时刻只有一个NameNode处于active状态是至关重要的。否则,两个NameNode的数据状态就会产生分歧,可能丢失数据,或者产生错误的结果。为了保证这点,这就需要利用使用ZooKeeper了。首先HDFS集群中的两个NameNode都在ZooKeeper中注册,当active状态的NameNode出故障时,ZooKeeper能检测到这种情况,它就会自动把standby状态的NameNode切换为active状态。
  hadoop-ha包含HDFS的HA和YARN的HA,下面就2个部件的HA进行搭建。
  环境介绍:
  os:centos7.0
  hadoop:2.8.0
  zookeeper:3.4.10
  5台虚拟机,各服务部署情况如下:
  主机名
  IP
  安装软件
  运行进程

c7001
  192.168.70.101
  Hadoop(HA)
  NameNode、ResourceManager、DFSZKFailoverController

c7002
  192.168.70.102
  Hadoop(HA)
  NameNode、ResourceManager、DFSZKFailoverController

c7003
  192.168.70.103
  Hadoop,Zookeeper
  DataNode、NodeManager、QuorumPeerMain、JournalNode

c7004
  192.168.70.104
  Hadoop,Zookeeper
  DataNode、NodeManager、QuorumPeerMain、JournalNode

c7005
  192.168.70.105
  Hadoop,Zookeeper
  DataNode、NodeManager、QuorumPeerMain、JournalNode
  说明:出于操作的便利性,本篇使用vagrant+virtualbox来搭建虚拟环境。
  1、工具安装
  1)、下载并安装VirtualBox,下载地址 https://www.virtualbox.org/wiki/Downloads 版本为5.1.18
  2)、下载并安装Vagrant,下载地址 https://www.vagrantup.com/downloads.html 版本为1.9.3
  3)、从GitHub上Clone ambari的ambari-vagrant到/opt/目录下,在终端执行:
  git clone https://github.com/u39kun/ambari-vagrant.git
  4)、增加虚拟机的hosts配置到宿主机的/etc/hosts中
  sudo -s 'cat ambari-vagrant/append-to-etc-hosts.txt >> /etc/hosts'
  5)、使用vagrant命令创建一个私钥
  vagrant
  此命令会在宿主机的~/.vagrant.d/目录下创建insecure_private_key文件,并显示出vagrant的用法。
  2、安装虚拟机
  1)、在/opt目录下执行
  cd ambari-vagrant
  cd centos7.0
  cp ~/.vagrant.d/insecure_private_key .  #此操作为宿主机到虚拟机的无密码登录
  2)、由于我们是纯Hadoop安装,所以不需要每个虚拟机默认3.7G内存,(如果你宿主机内存多的话,可以不做修改),故修改centos7.0目录下的Vagrantfile。
  vb.customize ["modifyvm", :id, "--memory", 2048] # RAM allocated to each VM
  3)、通过目录下./up.sh命令来启动1或多个虚拟机。每个虚拟机将运行一个hadoop节点。
  ./up.sh <# of VMs to launch>
  比如要启动5个虚拟机,则命令为:./up.sh 5
  至此我们的工具和虚拟机都已经安装完成,并且宿主机ssh到各个虚拟机都是无密码连接。
  说明:此种安装工具和虚拟机的过程需要vpn.
  3、无密码登录
  1)在宿主机终端/opt/ambari-vagrant/centos7.0目录执行
  vagrant ssh c7001
  登录到c7001,然后执行
  ssh-keygen -t rsa
  在~/.ssh/目录中生成两个文件id_rsa和id_rsa.pub
  如果想从c7001免密码登录到c7002、c7003、c7004、c7005中要在c7001中执行
  ssh-copy-id -i ~/.ssh/id_rsa.pub vagrant@c7001
  ssh-copy-id -i ~/.ssh/id_rsa.pub  vagrant@c7002
  ssh-copy-id -i ~/.ssh/id_rsa.pub  vagrant@c7003
  ssh-copy-id -i ~/.ssh/id_rsa.pub  vagrant@c7004
  ssh-copy-id -i ~/.ssh/id_rsa.pub  vagrant@c7005
  

 实现c7001、c7002、c7003、c7004、c7005任意之间的无密码登录,重复上述步骤。  

  4、安装ZooKeeper集群
  此处不再赘述,请参看http://www.cnblogs.com/netbloomy/p/6658041.html
  5、在c7001、c7002、c7003、c7004、c7005机器的/opt目录下安装jdk,并设置环境变量
  wget http://download.oracle.com/otn-pub/java/jdk/8u121-b13/e9e7ea248e2c4826b92b3f075a80e441/jdk-8u121-linux-x64.tar.gz?AuthParam=1491205869_4d911aca9d38a4b869d2a6ecaa9bbf47
  tar zxvf jdk-8u121-linux-x64.tar.gz
  vi ~/.bash_profile
  export JAVA_HOME=/opt/jdk1.8.0_121
  export PATH=$PATH:$JAVA_HOME/bin
  6、安装Hadoop集群
  1)、下载并解压hadoop
  在c7001、c7002、c7003、c7004、c7005的终端目录/opt下执行如下命令:
  wget http://219.238.4.196/files/705200000559DFDC/apache.communilink.net/hadoop/common/hadoop-2.8.0/hadoop-2.8.0.tar.gz
  然后再把各个机器上的hadoop解压  
  tar zxvf  hadoop-2.8.0.tar.gz
  2)、在c7001终端修改hadoop配置文件,这里需要修改的有core-site.xml、hdfs-site.xml、mapreduce-site.xml、yarn-site.xml、hadoop-env.sh、mapred-env.sh、yarn-env.sh这7个文件
  core-site.xml
  <?xml version="1.0" encoding="UTF-8"?>
  <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  <configuration>
  <property>
  <name>fs.defaultFS</name>
  <value>hdfs://bdcluster</value>
  </property>
  <!-- 指定hadoop临时目录 -->
  <property>
  <name>hadoop.tmp.dir</name>
  <value>/opt/hadoop-2.8.0/tmp</value>
  </property>
  <!-- 指定zookeeper地址 -->
  <property>
  <name>ha.zookeeper.quorum</name>
  <value>c7003:2181,c7004:2181,c7005:2181</value>
  </property>
  <property>
  <name>ha.zookeeper.session-timeout.ms</name>
  <value>3000</value>
  </property>
  </configuration>
  hdfs-site.xml
  <?xml version="1.0" encoding="UTF-8"?>
  <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  <configuration>
  <!--指定hdfs的nameservice为bdcluster,需要和core-site.xml中的保持一致 -->
  <property>
  <name>dfs.nameservices</name>
  <value>bdcluster</value>
  </property>
  <!-- bdcluster下面有两个NameNode,分别是nn1,nn2 -->
  <property>
  <name>dfs.ha.namenodes.bdcluster</name>
  <value>nn1,nn2</value>
  </property>
  <!-- nn1的RPC通信地址 -->
  <property>
  <name>dfs.namenode.rpc-address.bdcluster.nn1</name>
  <value>c7001:9000</value>
  </property>
  <!-- nn2的RPC通信地址 -->
  <property>
  <name>dfs.namenode.rpc-address.bdcluster.nn2</name>
  <value>c7002:9000</value>
  </property>
  <!-- nn1的http通信地址 -->
  <property>
  <name>dfs.namenode.http-address.bdcluster.nn1</name>
  <value>c7001:50070</value>
  </property>
  <!-- nn2的http通信地址 -->
  <property>
  <name>dfs.namenode.http-address.bdcluster.nn2</name>
  <value>c7002:50070</value>
  </property>
  <!-- 指定NameNode的元数据在JournalNode上的存放位置 -->
  <property>
  <name>dfs.namenode.shared.edits.dir</name>
  <value>qjournal://c7003:8485;c7004:8485;c7005:8485/bdcluster</value>
  </property>
  <!-- 指定JournalNode在本地磁盘存放数据的位置 -->
  <property>
  <name>dfs.journalnode.edits.dir</name>
  <value>/opt/hadoop-2.8.0/tmp/journal</value>
  </property>
  <property>
  <name>dfs.ha.automatic-failover.enabled</name>
  <value>true</value>
  </property>
  <!-- 配置失败自动切换实现方式 -->
  <property>
  <name>dfs.client.failover.proxy.provider.bdcluster</name>
  <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
  </value>
  </property>
  <!-- 配置隔离机制,多个机制用换行分割,即每个机制暂用一行 -->
  <property>
  <name>dfs.ha.fencing.methods</name>
  <value>
  sshfence
  shell(/bin/true)
  </value>
  </property>
  <!-- 使用sshfence隔离机制时需要ssh免密码登陆 -->
  <property>
  <name>dfs.ha.fencing.ssh.private-key-files</name>
  <value>/home/vagrant/.ssh/id_rsa</value>
  </property>
  <!-- 配置sshfence隔离机制超时时间 -->
  <property>
  <name>dfs.ha.fencing.ssh.connect-timeout</name>
  <value>30000</value>
  </property>
  <!--指定namenode名称空间的存储地址 -->
  <property>
  <name>dfs.namenode.name.dir</name>
  <value>file:///opt/hadoop-2.8.0/hdfs/name</value>
  </property>
  <!--指定datanode数据存储地址 -->
  <property>
  <name>dfs.datanode.data.dir</name>
  <value>file:///opt/hadoop-2.8.0/hdfs/data</value>
  </property>
  <!--指定数据冗余份数 -->
  <property>
  <name>dfs.replication</name>
  <value>3</value>
  </property>
  </configuration>
  mapred-site.xml
  <?xml version="1.0"?>
  <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  <configuration>
  <property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
  </property>
  <!-- 配置 MapReduce JobHistory Server 地址 ,默认端口10020 -->
  <property>
  <name>mapreduce.jobhistory.address</name>
  <value>0.0.0.0:10020</value>
  </property>
  <!-- 配置 MapReduce JobHistory Server web ui 地址, 默认端口19888 -->
  <property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>0.0.0.0:19888</value>
  </property>
  </configuration>
  yarn-site.xml
  <?xml version="1.0"?>
  <configuration>
  <!--开启resourcemanagerHA,默认为false -->
  <property>
  <name>yarn.resourcemanager.ha.enabled</name>
  <value>true</value>
  </property>
  <!--开启自动恢复功能 -->
  <property>
  <name>yarn.resourcemanager.recovery.enabled</name>
  <value>true</value>
  </property>

  <!-- 指定RM的cluster>  <property>
  <name>yarn.resourcemanager.cluster-id</name>
  <value>yrc</value>
  </property>
  <!--配置resourcemanager -->
  <property>
  <name>yarn.resourcemanager.ha.rm-ids</name>
  <value>rm1,rm2</value>
  </property>
  <!-- 分别指定RM的地址 -->
  <property>
  <name>yarn.resourcemanager.hostname.rm1</name>
  <value>c7001</value>
  </property>
  <property>
  <name>yarn.resourcemanager.hostname.rm2</name>
  <value>c7002</value>
  </property>
  <!-- <property> <name>yarn.resourcemanager.ha.id</name> <value>rm1</value>
  <description>If we want to launch more than one RM in single node,we need
  this configuration</description> </property> -->
  <!-- 指定zk集群地址 -->
  <property>
  <name>ha.zookeeper.quorum</name>
  <value>c7003:2181,c7004:2181,c7005:2181</value>
  </property>
  !--配置与zookeeper的连接地址-->
  <property>
  <name>yarn.resourcemanager.zk-state-store.address</name>
  <value>c7003:2181,c7004:2181,c7005:2181</value>
  </property>
  <property>
  <name>yarn.resourcemanager.store.class</name>
  <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore
  </value>
  </property>
  <property>
  <name>yarn.resourcemanager.zk-address</name>
  <value>c7003:2181,c7004:2181,c7005:2181</value>
  </property>
  <property>
  <name>yarn.resourcemanager.ha.automatic-failover.zk-base-path</name>
  <value>/yarn-leader-election</value>
  <description>Optionalsetting.Thedefaultvalueis/yarn-leader-election
  </description>
  </property>
  <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
  </property>
  </configuration>
  hadoop-env.sh & mapred-env.sh & yarn-env.sh
  export JAVA_HOME=/opt/jdk1.8.0_121

  export>  export HADOOP_HOME=/opt/hadoop-2.8.0
  export HADOOP_PID_DIR=/opt/hadoop-2.8.0/pids
  export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
  export HADOOP_OPTS="$HADOOP_OPTS-Djava.library.path=$HADOOP_HOME/lib/native"
  export HADOOP_PREFIX=$HADOOP_HOME
  export HADOOP_MAPRED_HOME=$HADOOP_HOME
  export HADOOP_COMMON_HOME=$HADOOP_HOME
  export HADOOP_HDFS_HOME=$HADOOP_HOME
  export YARN_HOME=$HADOOP_HOME
  export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
  export HDFS_CONF_DIR=$HADOOP_HOME/etc/hadoop
  export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
  export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native
  export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  slaves
  c7001
  c7002
  c7003
  c7004
  c7005
  然后通过执行如下命令将c7001修改好的配置文件同步到c7002、c7003、c7004、c7005:
  scp -r /opt/hadoop-2.8.0/etc/hadoop vagrant@c7002:/opt/hadoop-2.8.0/etc/
  scp -r /opt/hadoop-2.8.0/etc/hadoop vagrant@c7003:/opt/hadoop-2.8.0/etc/
  scp -r /opt/hadoop-2.8.0/etc/hadoop vagrant@c7004:/opt/hadoop-2.8.0/etc/
  scp -r /opt/hadoop-2.8.0/etc/hadoop vagrant@c7005:/opt/hadoop-2.8.0/etc/
  至此,hadoop的配置文件已经全部配置完毕
  7、启动Hadoop集群
  1)、启动zookeeper集群
  分别在c7003、c7004、c7005上执行如下命令启动zookeeper集群;
[vagrant@c7003 bin]$ sh zkServer.sh start

  验证集群zookeeper集群是否启动,分别在c7003、c7004、c7005上执行如下命令验证zookeeper集群是否启动,集群启动成功,有两个follower节点跟一个leader节点;
[vagrant@c7003 bin]$ sh zkServer.sh status

  JMX enabled by default
  Using config: /opt/zookeeper-3.4.10/bin/../conf/zoo.cfg
  Mode: follower
  2)、 启动journalnode集群
  在c7001上执行如下命令完成JournalNode集群的启动
[vagrant@c7001 hadoop-2.8.0]$ sbin/hadoop-daemons.sh start journalnode

  执行jps命令,可以查看到JournalNode的java进程pid
  3)、格式化zkfc,让在zookeeper中生成ha节点
  在c7001上执行如下命令,完成格式化
  hdfs zkfc -formatZK
  格式成功后,查看zookeeper中可以看到
[zk: localhost:2181(CONNECTED) 1] ls /hadoop-ha

[bdcluster]

  4)、 格式化hdfs
  hadoop namenode -format
  5)、 启动NameNode
  首先在c7001上启动active节点,在c7001上执行如下命令
[vagrant@c7001 hadoop-2.8.0]$ sbin/hadoop-daemon.sh start namenode

  在c7002上同步namenode的数据,同时启动standby的namenod,命令如下
  #把NameNode的数据同步到c7002上
[vagrant@c7002 hadoop-2.8.0]$ bin/hdfs namenode -bootstrapStandby

  #启动c7002上的namenode作为standby
[vagrant@c7002 hadoop-2.8.0]$ sbin/hadoop-daemon.sh start namenode

  6)、 启动启动datanode
  在c7001上执行如下命令
[vagrant@c7001 hadoop-2.8.0]$ sbin/hadoop-daemons.sh start datanode

  7)、 启动yarn
  在作为资源管理器上的机器上启动,我这里是c7001,执行如下命令完成year的启动
[vagrant@c7001 hadoop-2.8.0]$ sbin/start-yarn.sh

  8)、 启动ZKFC
  在c7001上执行如下命令,完成ZKFC的启动
[vagrant@c7001 hadoop-2.8.0]$ sbin/hadoop-daemons.sh start zkfc

  全部启动完后分别在c7001、c7002、c7003、c7004、c7005上执行jps是可以看到下面这些进程的
  #c7001上的java PID进程
[vagrant@c7001 hadoop-2.8.0]$ jps

  7857 DataNode
  7270 JournalNode
  8118 NodeManager
  8550 DFSZKFailoverController
  8007 ResourceManager
  8968 NameNode
  9065 Jps
  #c7002上的java PID进程
[vagrant@c7002 hadoop-2.8.0]$ jps

  6929 DFSZKFailoverController
  6738 NodeManager
  6441 NameNode
  6603 DataNode
  6221 JournalNode
  7615 Jps
  #c7003上的java PID进程
[vagrant@c7003 hadoop-2.8.0]$ jps

  6040 DataNode
  6473 Jps
  4764 QuorumPeerMain
  5870 JournalNode
  6175 NodeManager
  #c7004上的java PID进程
[vagrant@c7004 hadoop-2.8.0]$ jps

  4739 QuorumPeerMain
  5875 JournalNode
  6180 NodeManager
  6475 Jps
  6046 DataNode
  #c7005上的java PID进程
  6227 NodeManager
  6518 Jps
  6091 DataNode
  5916 JournalNode
  4813 QuorumPeerMain
  8、测试NameNode HA的高可用性
  启动后c7001的namenode和c7002的namenode如下所示:
DSC0001.png

DSC0002.png

  此时在c7001上执行如下命令关闭c7001上的namenode
[vagrant@c7001 hadoop-2.8.0]$ sbin/hadoop-daemon.sh stop namenode

  再次查看c7002上的namenode,发现自动切换为active了!证据如下:
DSC0003.png

  上述验证也可以使用命令hdfs haadmin进行查看NameNode的状态
  查看namenode工作状态   
  hdfs haadmin -getServiceState nn1
  将standby状态namenode切换到active
  hdfs haadmin –transitionToActive nn1
  将active状态namenode切换到standby
  hdfs haadmin –transitionToStandby nn2
  9、ResourceManager HA
  NameNode HA操作完之后我们可以发现只有一个节点(这里是c7001)启动,需要手动启动另外一个节点(c7002)的resourcemanager。
  sbin/yarn-daemon.sh start resourcemanager
  然后用以下指令查看resourcemanager状态
  yarn rmadmin -getServiceState rm1
  结果显示Active
  yarn rmadmin -getServiceState rm2
  而rm2是standby。
  验证HA和NameNode HA同理,kill掉Active resourcemanager,则standby的resourcemanager则会转换为Active。
  还有一条指令可以强制转换
  yarn rmadmin –transitionToStandby rm1
  注意:yarn-site.xml的
  <property>
  <name>yarn.resourcemanager.ha.id</name>
  <value>rm1</value>
  <description>If we want to launch more than one RM in single node,we need this configuration</description>
  </property>
  在c7001上配置是rm1,而在c7002上一定要配置rm2,如果不修改,c7002的resourcemanager启动不了。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-424828-1-1.html 上篇帖子: hadoop 2.7.3伪分布式环境运行官方wordcount 下篇帖子: Hadoop总结
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表