设为首页 收藏本站
查看: 944|回复: 0

[经验分享] 基于zookeeper的高可用集群

[复制链接]

尚未签到

发表于 2019-1-8 11:22:17 | 显示全部楼层 |阅读模式
1.准备zookeeper服务器
#node1,node2,node3
#安装请参考http://suyanzhu.blog.运维网.com/8050189/1946580  

2.准备NameNode节点
#node1,node4  

3.准备JournalNode节点
#node2,node3,node4  

4.准备DataNode节点
#node2,node3,node4
#启动DataNode节点命令hadoop-daemon.sh start datanode  

5.修改hadoop的hdfs-site.xml配置文件

        
                dfs.nameservices
                yunshuocluster
        
        
                dfs.ha.namenodes.yunshuocluster
                nn1,nn2
        
        
                dfs.namenode.rpc-address.yunshuocluster.nn1
                node1:8020
        
        
                dfs.namenode.rpc-address.yunshuocluster.nn2
                node4:8020
        
        
                dfs.namenode.http-address.yunshuocluster.nn1
                node1:50070
        
        
                dfs.namenode.http-address.yunshuocluster.nn2
                node4:50070
        
        
                dfs.namenode.shared.edits.dir
                qjournal://node2:8485;node3:8485;node4:8485/yunshuocluste
r
        
        
                dfs.client.failover.proxy.provider.mycluster
                org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailo
verProxyProvider
        
        
                dfs.ha.fencing.methods
                sshfence
        
        
                dfs.ha.fencing.ssh.private-key-files
                /root/.ssh/id_dsa
        
        
                dfs.journalnode.edits.dir
                /opt/journalnode/
        
        
                dfs.ha.automatic-failover.enabled
                true
        
  

6.修改hadoop的core-site.xml配置文件

   
        fs.defaultFS
        hdfs://yunshuocluster
   
   
        hadoop.tmp.dir
        /opt/hadoop-2.5
   
   
        ha.zookeeper.quorum
        node1:2181,node2:2181,node3:2181
   
  

7.配置slaves配置文件
node2
node3
node4  

8.启动zookeeper(node1,node2,node3)
zkServer.sh start  

9.启动Journalnode(node2,node3,node4上分别执行下面的命令)
#启动命令 停止命令hadoop-daemon.sh stop journalnode
hadoop-daemon.sh start journalnode  

10.检查Journalnode,通过查看日志
cd /home/hadoop-2.5.1/logs
ls
tail -200 hadoop-root-journalnode-node2.log  

11.格式化NameNode(两台中的一台,这里格式化node4这台NameNode节点)
hdfs namenode -format
cd /opt/hadoop-2.5
#两台NameNode同步完成
scp -r /opt/hadoop-2.5/* root@node1:/opt/hadoop-2.5/  

12.初始化zkfc
hdfs zkfc -formatZK  

13.启动服务
start-dfs.sh
#stop-dfs.sh表示停止服务  





运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-660710-1-1.html 上篇帖子: zookeeper+mesos+marathon+docker里面的一些小功能实现 下篇帖子: 基于Zookeeper+Mesos+Marathon搭建Docker集群管理平台
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表