设为首页 收藏本站
查看: 1469|回复: 0

Hadoop2.6+HA+Zookeeper3.4.6+Hbase1.0.0安装

[复制链接]
发表于 2015-11-11 13:16:40 | 显示全部楼层 |阅读模式
Hadoop2.6+HA+Zookeeper3.4.6+Hbase1.0.0安装
  Author : WHP
                        安装hadoop2.6+HA

  • 1.准备一台CentOS6.4系统


  • 2.环境CentOS6.4 共5台
  机器名        ip地址          安装软件                                   运行进程
master1 192.168.3.141 hadoop、Zookeeper、hbase   NN、RM、DFSZKFC、journalNode、HMaster、QuorumPeerMain
master2 192.168.3.142 hadoop、Zookeeper、hbase   NN、RM、DFSZKFC、journalNode、 HRegionServer、QuorumPeerMain
slave1  192.168.3.143 hadoop、Zookeeper、hbase   DN、NM、journalNode、HRegionServer、QuorumPeerMain
slave2  192.168.3.144 hadoop、Zookeeper、hbase   DN、NM、journalNode、HRegionServer、QuorumPeerMain
slave3  192.168.3.145 hadoop、Zookeeper、hbase   DN、NM、journalNode、HRegionServer、QuorumPeerMain

  • 3.此时我们先对第一台机器做修改,其他的后期克隆该机器即可


  • 4.修改/etc/hosts文件
DSC0000.jpg
修改/etc/sysconfig/network
DSC0001.jpg

  • 5.重启机器
DSC0002.jpg
或者
临时修改hostname DSC0003.jpg

  • 6.安装JDK
  将JDK解压 DSC0004.jpg   
编辑/etc/profile 添加jdk路径
DSC0005.jpg
保存退出 DSC0006.jpg
修改CentOS里的java优先级
DSC0007.jpg
此时JDK已经安装完成
DSC0008.jpg

  • 7.解压hadoop并修改环境变量
DSC0009.jpg

  • 8.修改配置文件
  8.1 修改$HADOOP_HOME/etc/hadoop/slaves文件
加入所有slave节点的hostname
DSC00010.jpg
8.2 修改$HADOOP_HOME/etc/hadoop/hadoop-env.sh文件
修改JAVA_HOME路径
DSC00011.jpg
8.3 修改$HADOOP_HOME/etc/hadoop/yarn-env.sh文件
修改JAVA_HOME路径
DSC00012.jpg
8.4 修改[size=123%]HADOOP[size=70.7%]HOME/etc/hadoop/coresite.xml8.5HADOOP_HOME/etc/hadoop/hdfs-site.xml文件
详见附件
8.6 修改[size=123%]HADOOP[size=70.7%]HOME/etc/hadoop/mapredsite.xml8.7HADOOP_HOME/etc/hadoop/yarn-site.xml文件
详见附件(yarn.resourcemanager.ha.id的属性值在master2机器中需要更改为rm2)
8.8 添加$HADOOP_HOME/etc/hadoop/fairscheduler.xml文件
详见附件
8.9 创建相关文件夹
根据xml配置文件,建立相应的文件夹
DSC00013.jpg
此时Hadoop+HA配置文件已经配好,就差ssh免密码登录+格式化Hadoop系统。
等我们装完所有软件(Zookeeper+hbase),克隆机器后再进行ssh免密码登录及Hadoop格式化。克隆后还需要更改每个节点的/etc/sysconfig/network中的hostname,以及更改master2中$HADOOP_HOME/etc/hadoop/yarn-site.xml文件的yarn.resourcemanager.ha.id属性值为rm2
                            安装Zookeeper3.4.6

  • 1.解压Zookeeper


  • 2.Zookeeper环境变量的配置
    DSC00014.jpg
    添加Zookeeper的路径
    DSC00015.jpg


  • 3.更改配置文件
  将conf/zoo_sample.cfg改成conf/zoo.cfg
DSC00016.jpg
然后对zoo.cfg进行更改
DSC00017.jpg
DSC00018.jpg

  • 4.在DataDir路径下创建myid文件
  根据配置文件的dataLogDir路径
创建/soft/zookeeper-3.4.6/var/datalog文件夹
DSC00019.jpg
创建/soft/zookeeper-3.4.6/var文件夹
再创建/soft/zookeeper-3.4.6/var/data文件夹
再创建/soft/zookeeper-3.4.6/var/data/myid文件
DSC00020.jpg
向其中输入数字1 (对应zoo.cfg文件server后的数字)
其他节点在克隆后应根据zoo.cfg中对应的值进行更改
DSC00021.jpg
                            安装Hbase1.0.0

  • 1.修改本机配置
DSC00022.jpg

  • 2.修改配置文件
    DSC00023.jpg
    conf/hbase-site.xml详见附件(注意hbase.rootdir的值 用ip地址表示)
    根据conf/hbase-site.xml中hbase.tmp.dir值来创建文件夹
    DSC00024.jpg


  • 3.创建连接
    DSC00025.jpg


  • 4.编辑regionserver文件
DSC00026.jpg

  • 5.覆盖hbase中lib文件夹下hadoop*.jar文件
DSC00027.jpg
(由于后期安装hbase出错,我把所有的hadoop下的jar包都导到hbase/lib下了)
如果hbase下的lib文件夹中的zookeeper的jar包与Zookeeper中的jar包也不符,那么也需要替换。
至此hbase也安装完了,克隆后需要做的是将集群节点的时间进行统一。
                                    克隆机器

  • 1.此时机器克隆4份。
  分别更改其ip地址。图形界面更改ip操作详情见附件。

  • 2.ssh免密码登录
  2.1 更改/etc/sysconfig/network文件
DSC00028.jpg
2.2生成密钥
DSC00029.jpg 一路回车即可
2.3 复制到公共密钥中
DSC00030.jpg
2.4 将该机器的公共密钥远程复制到想远程登录的机器中
DSC00031.jpg
在提示中输入yes、密码
2.5 配置双向ssh登录。
此时master1已经可以通过ssh登录其他机器了,接下来我们配置所有机器相互无密码登录。
我们那其中一台机器slave3举例,其他机器(master2 slave1 slave2)都执行此操作,这里我们就不一一写明。
把slave3密钥传到其他所有机器上。
DSC00032.jpg
根据提示,输入yes、密码
在每一台机器上(master2 slave1 slave2 slave3),对其他所有机器都执行此操作。
DSC00033.jpg
然后在其他机器上将密钥追加到公钥文件末尾。
DSC00034.jpg
此时就可以双向无密钥登录了。
我们可以查看/root/.ssh/authorized_keys文件,就能发现每台机器的密钥。
DSC00035.jpg

  • 3.更改hadoop配置文件
  更改master2中$HADOOP_HOME/etc/hadoop/yarn-site.xml文件中:
Yarn.resourcemanager.ha.id的属性值为rm2
DSC00036.jpg
DSC00037.jpg

  • 4.更改Zookeeper文件
  更改$ZOOKEEPER_HOME/var/data/myid文件
DSC00038.jpg
相应的值根据$ZOOKEEPER_HOME/conf/zoo.cfg中的id来更改
DSC00039.jpg

  • 5.同步时间
  首先我们确立master1为时间服务器,我们通过配置使其他节点自行与master1进行时间同步。
5.1对master1时间服务器进行操作:
检查时间服务是否安装
DSC00040.jpg
更改相关配置文件
DSC00041.jpg
DSC00042.jpg
启动服务 DSC00043.jpg
检查master1是否和自己同步完成
DSC00044.jpg
5.2其他机器相对于master1进行时间同步
当master1的时间服务器启动3-5分钟后,我们对其他节点进行与master1的时间同步。
更改/etc/ntp.conf文件配置
DSC00045.jpg
将master2的/etc/ntp.conf发送到其他的机器中
DSC00046.jpg
在其他节点将时间服务开启
DSC00047.jpg
  5.3时间服务设置为开机启动
分别在master1 master2 slave1 slave2 slave3执行该命令
DSC00048.jpg
5.4 在时间服务器上开放端口
根据ip地址来输入命令
DSC00049.jpg
            第一次部署+启动hadoop+zookeeper+hbase
  刚刚安装完hadoop需要部署,再启动。以下是第一次所需的执行,以后再启动就不需要在这么做了。

  • 1.启动Zookeeper
  分别在每个机器上运行命令zkServer.sh start或者在$ZOOKEEPER_HOME/bin目录下运行./zkServer.sh start命令。然后可以通过命令jps来查看Zookeeper启动的进程QuorumPeerMain。

可通过zkServer.sh status命令来查看Zookeeper状态。正常是机器中只有一个leader,其他的都是follow


  • 2.格式化ZooKeeper集群
  目的是在ZooKeeper集群上建立HA的相应节点。
在master1机器上执行命令

他会根据$HADOOP_HOME/etc/hadoop/core-site.xml文件中ha.zookeeper.quorum的值来进行初始化。
  3.启动journalnode进程
在master1节点上执行

或者在每台机器上执行

slave1 slave2 slave3

推荐第二种方法,第一种方法master1和master2的journalnode无法启动
启动后在所有节点上多出JournalNode进程

  • 4.格式化namenode
  在master1上执行命令

会在mydata文件下创建一些文件夹及文件(name或者data以及journal)

  • 5.启动namenode
  在master1上执行命令

在master1上多出进程NameNode

  • 6.将刚才格式化的namenode信息同步到备用namenode上
  在master2机器上执行命令


  • 7.在master2上启动namenode

    在master2上多出进程NameNode


  • 8.启动所有datanode
  在master1上执行命令

执行后在datanode节点上显示的进程datanode


  • 9.启动yarn
  在master1上执行命令

在master1上多出ResourceManager进程,在slave1 slave2 slave3上多出NodeManager进程

  • 10.启动ZKFC
  在master1和master2上启动zkfc


  • 11.Hadoop启动成功
  下图是两个启动后的master节点




  • 12.启动hbase
  在master1上执行命令

                            第n次启动

  • 1.对于HA,要先启动Zookeeper
  zkServer.sh start (每个节点)

  • 2.启动hadoop
  start-dfs.sh   start-yarn.sh   (master1节点)

  • 3.启动hbase
  start-hbase.sh (master1节点)
                                后续待解决问题
  希望大神能帮我指点一二。。。。
问题一:对于HA框架,hbase-site.xml如何根据当前active的master来配置?
  问题二:服务全部停止后重启,hbase显示无法启动。不知为何。我只能全部清空格式化hadoop。
步骤:
1.删除hadoop/mydata下的所有文件夹  再新建yarn文件夹
2.删除hadoop/log文件夹下的所有文件
3.删除zookeeper/var/data下的除了myid的所有文件
4.删除Zookeeper/var/datalog下的所有文件夹
5.删除hbase下的file:文件
6.删除hbase下的logs下的所有文件
7.重新格式化hadoop
  所有附件下载地址: http://download.iyunv.com/detail/onepiecehuiyu/8631719
  有任何疑问联系我E-mail: 349110588@qq.com
         版权声明:本文为博主原创文章,未经博主允许不得转载。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-137921-1-1.html 上篇帖子: Hadoop的分布式架构改进与应用 下篇帖子: Hadoop-------扫除运行障碍篇
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表