设为首页 收藏本站
查看: 1083|回复: 0

[经验分享] Hadoop集群(四) Hadoop升级

[复制链接]

尚未签到

发表于 2018-10-29 06:04:38 | 显示全部楼层 |阅读模式
  Hadoop前面安装的集群是2.6版本,现在升级到2.7版本。
  注意,这个集群上有运行Hbase,所以,升级前后,需要启停Hbase。
  更多安装步骤,请参考:
  Hadoop集群(一) Zookeeper搭建
  Hadoop集群(二) HDFS搭建
  Hadoop集群(三) Hbase搭建
  升级步骤如下:
  集群IP列表
Namenode:  
192.168.143.46
  
192.168.143.103
  
Journalnode:
  
192.168.143.101
  
192.168.143.102
  
192.168.143.103
  
Datanode&Hbase regionserver:
  
192.168.143.196
  
192.168.143.231
  
192.168.143.182
  
192.168.143.235
  
192.168.143.41
  
192.168.143.127
  
Hbase master:
  
192.168.143.103
  
192.168.143.101
  
Zookeeper:
  
192.168.143.101
  
192.168.143.102
  
192.168.143.103
  1. 首先确定hadoop运行的路径,将新版本的软件分发到每个节点的这个路径下,并解压。
# ll /usr/local/hadoop/  
total 493244
  
drwxrwxr-x 9 root root      4096 Mar 21  2017 hadoop-release ->hadoop-2.6.0-EDH-0u1-SNAPSHOT-HA-SECURITY
  
drwxr-xr-x 9 root root      4096 Oct 11 11:06 hadoop-2.7.1
  
-rw-r--r-- 1 root root 194690531 Oct  9 10:55 hadoop-2.7.1.tar.gz
  
drwxrwxr-x 7 root root      4096 May 21  2016 hbase-1.1.3
  
-rw-r--r-- 1 root root 128975247 Apr 10  2017 hbase-1.1.3.tar.gz
  
lrwxrwxrwx 1 root root        29 Apr 10  2017 hbase-release -> /usr/local/hadoop/hbase-1.1.3
  由于是升级,配置文件完全不变,将原hadoop-2.6.0下的etc/hadoop路径完全拷贝/替换到hadoop-2.7.1下。
  至此,升级前的准备就已经完成了。
  下面开始升级操作过程。全程都是在一个中转机上执行的命令,通过shell脚本执行,省去频繁ssh登陆的操作。
  ## 停止hbase,hbase用户执行
  2. 停止Hbase master,hbase用户执行
  状态检查,确认master,先停standby master
http://192.168.143.101:16010/master-statusmaster:  
ssh -t -q 192.168.143.103  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ stop\ master"
  
ssh -t -q 192.168.143.103  sudo su -l hbase -c "jps"
  
ssh -t -q 192.168.143.101  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ stop\ master"
  
ssh -t -q 192.168.143.101  sudo su -l hbase -c "jps"
  3. 停止Hbase regionserver,hbase用户执行
ssh -t -q 192.168.143.196  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ stop\ regionserver"  
ssh -t -q 192.168.143.231  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ stop\ regionserver"
  
ssh -t -q 192.168.143.182  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ stop\ regionserver"
  
ssh -t -q 192.168.143.235  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ stop\ regionserver"
  
ssh -t -q 192.168.143.41   sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ stop\ regionserver"
  
ssh -t -q 192.168.143.127  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ stop\ regionserver"
  检查运行状态
ssh -t -q 192.168.143.196  sudo su -l hbase -c "jps"  
ssh -t -q 192.168.143.231  sudo su -l hbase -c "jps"
  
ssh -t -q 192.168.143.182  sudo su -l hbase -c "jps"
  
ssh -t -q 192.168.143.235  sudo su -l hbase -c "jps"
  
ssh -t -q 192.168.143.41   sudo su -l hbase -c "jps"
  
ssh -t -q 192.168.143.127  sudo su -l hbase -c "jps"
  ## 停止服务--HDFS
  4. 先确认,active的namenode,网页确认.后续要先启动这个namenode
https://192.168.143.46:50470/dfshealth.html#tab-overview  5. 停止NameNode,hdfs用户执行
  NN: 先停standby namenode
ssh -t -q 192.168.143.103  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ namenode"  
ssh -t -q 192.168.143.46   sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ namenode"
  
检查状态
  
ssh -t -q 192.168.143.103  sudo su -l hdfs -c "jps"
  
ssh -t -q 192.168.143.46   sudo su -l hdfs -c "jps"
  6. 停止DataNode,hdfs用户执行
ssh -t -q 192.168.143.196  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ datanode"  
ssh -t -q 192.168.143.231  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ datanode"
  
ssh -t -q 192.168.143.182  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ datanode"
  
ssh -t -q 192.168.143.235  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ datanode"
  
ssh -t -q 192.168.143.41   sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ datanode"
  
ssh -t -q 192.168.143.127  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ datanode"
  7. 停止ZKFC,hdfs用户执行
ssh -t -q 192.168.143.46   sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ zkfc"  
ssh -t -q 192.168.143.103  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ zkfc"
  8.停止JournalNode,hdfs用户执行
JN:  
ssh -t -q 192.168.143.101  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ journalnode"
  
ssh -t -q 192.168.143.102  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ journalnode"
  
ssh -t -q 192.168.143.103  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ stop\ journalnode"
  ### 备份NameNode的数据,由于生产环境,原有的数据需要备份。以备升级失败回滚。
  9. 备份namenode1
ssh -t -q 192.168.143.46 "cp -r /data1/dfs/name    /data1/dfs/name.bak.20171011-2;ls -al /data1/dfs/;du -sm /data1/dfs/*"  
ssh -t -q 192.168.143.46 "cp -r /data2/dfs/name    /data2/dfs/name.bak.20171011-2;ls -al /data1/dfs/;du -sm /data1/dfs/*"
  10. 备份namenode2
ssh -t -q 192.168.143.103 "cp -r /data1/dfs/name  
/data1/dfs/name.bak.20171011-2;ls -al /data1/dfs/;du -sm /data1/dfs/*"
  11. 备份journal
ssh -t -q 192.168.143.101 "cp -r /data1/journalnode   /data1/journalnode.bak.20171011;ls -al /data1/dfs/;du -sm /data1/*"  
ssh -t -q 192.168.143.102 "cp -r /data1/journalnode   /data1/journalnode.bak.20171011;ls -al /data1/dfs/;du -sm /data1/*"
  
ssh -t -q 192.168.143.103 "cp -r /data1/journalnode   /data1/journalnode.bak.20171011;ls -al /data1/dfs/;du -sm /data1/*"
  journal路径,可以查看hdfs-site.xml文件
dfs.journalnode.edits.dir:  
/data1/journalnode
  ### 升级相关
  12. copy文件(已提前处理,参考第一步)
  切换软连接到2.7.1版本
ssh -t -q $h "cd /usr/local/hadoop; rm hadoop-release; ln -s hadoop-2.7.1 hadoop-release"  13. 切换文件软链接,root用户执行
ssh -t -q 192.168.143.46   "cd /usr/local/hadoop; rm hadoop-release; ln -s hadoop-2.7.1 hadoop-release"  
ssh -t -q 192.168.143.103   "cd /usr/local/hadoop; rm hadoop-release; ln -s hadoop-2.7.1 hadoop-release"
  
ssh -t -q 192.168.143.101   "cd /usr/local/hadoop; rm hadoop-release; ln -s hadoop-2.7.1 hadoop-release"
  
ssh -t -q 192.168.143.102   "cd /usr/local/hadoop; rm hadoop-release; ln -s hadoop-2.7.1 hadoop-release"
  
ssh -t -q 192.168.143.196   "cd /usr/local/hadoop; rm hadoop-release; ln -s hadoop-2.7.1 hadoop-release"
  
ssh -t -q 192.168.143.231   "cd /usr/local/hadoop; rm hadoop-release; ln -s hadoop-2.7.1 hadoop-release"
  
ssh -t -q 192.168.143.182   "cd /usr/local/hadoop; rm hadoop-release; ln -s hadoop-2.7.1 hadoop-release"
  
ssh -t -q 192.168.143.235   "cd /usr/local/hadoop; rm hadoop-release; ln -s hadoop-2.7.1 hadoop-release"
  
ssh -t -q 192.168.143.41    "cd /usr/local/hadoop; rm hadoop-release; ln -s hadoop-2.7.1 hadoop-release"
  
ssh -t -q 192.168.143.127   "cd /usr/local/hadoop; rm hadoop-release; ln -s hadoop-2.7.1 hadoop-release"
  确认状态
ssh -t -q 192.168.143.46    "cd /usr/local/hadoop; ls -al"  
ssh -t -q 192.168.143.103   "cd /usr/local/hadoop; ls -al"
  
ssh -t -q 192.168.143.101   "cd /usr/local/hadoop; ls -al"
  
ssh -t -q 192.168.143.102   "cd /usr/local/hadoop; ls -al"
  
ssh -t -q 192.168.143.196   "cd /usr/local/hadoop; ls -al"
  
ssh -t -q 192.168.143.231   "cd /usr/local/hadoop; ls -al"
  
ssh -t -q 192.168.143.182   "cd /usr/local/hadoop; ls -al"
  
ssh -t -q 192.168.143.235   "cd /usr/local/hadoop; ls -al"
  
ssh -t -q 192.168.143.41    "cd /usr/local/hadoop; ls -al"
  
ssh -t -q 192.168.143.127   "cd /usr/local/hadoop; ls -al"
  ### 启动HDFS,hdfs用户执行
  14. 启动JournalNode
JN:  
ssh -t -q 192.168.143.101  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ start\ journalnode"
  
ssh -t -q 192.168.143.102  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ start\ journalnode"
  
ssh -t -q 192.168.143.103  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ start\ journalnode"
ssh -t -q 192.168.143.101  sudo su -l hdfs -c "jps"  
ssh -t -q 192.168.143.102  sudo su -l hdfs -c "jps"
  
ssh -t -q 192.168.143.103  sudo su -l hdfs -c "jps"
  15. 启动第一个NameNode
ssh 192.168.143.46  
su - hdfs
  
/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh start namenode -upgrade
  16. 确认状态,在状态完全OK之后,才可以启动另一个namenode
https://192.168.143.46:50470/dfshealth.html#tab-overview  17. 启动第一个ZKFC
su - hdfs  
/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh start zkfc
  
192.168.143.46
  18. 启动第二个NameNode
ssh 192.168.143.103  
su - hdfs
  
/usr/local/hadoop/hadoop-release/bin/hdfs namenode -bootstrapStandby
  
/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh start namenode
  19. 启动第二个ZKFC
ssh 192.168.143.103  
su - hdfs
  
/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh start zkfc
  20. 启动DataNode
ssh -t -q 192.168.143.196  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ start\ datanode"  
ssh -t -q 192.168.143.231  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ start\ datanode"
  
ssh -t -q 192.168.143.182  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ start\ datanode"
  
ssh -t -q 192.168.143.235  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ start\ datanode"
  
ssh -t -q 192.168.143.41   sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ start\ datanode"
  
ssh -t -q 192.168.143.127  sudo su -l hdfs -c "/usr/local/hadoop/hadoop-release/sbin/hadoop-daemon.sh\ start\ datanode"
  确认状态
ssh -t -q 192.168.143.196  sudo su -l hdfs -c "jps"  
ssh -t -q 192.168.143.231  sudo su -l hdfs -c "jps"
  
ssh -t -q 192.168.143.182  sudo su -l hdfs -c "jps"
  
ssh -t -q 192.168.143.235  sudo su -l hdfs -c "jps"
  
ssh -t -q 192.168.143.41   sudo su -l hdfs -c "jps"
  
ssh -t -q 192.168.143.127  sudo su -l hdfs -c "jps"
  21. 一切正常之后,启动hbase, hbase用户执行
  启动hbase master,最好先启动原来的active master。
ssh -t -q 192.168.143.101  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ start\ master"  
ssh -t -q 192.168.143.103  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ start\ master"
  启动Hbase regionserver
ssh -t -q 192.168.143.196  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ start\ regionserver"  
ssh -t -q 192.168.143.231  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ start\ regionserver"
  
ssh -t -q 192.168.143.182  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ start\ regionserver"
  
ssh -t -q 192.168.143.235  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ start\ regionserver"
  
ssh -t -q 192.168.143.41   sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ start\ regionserver"
  
ssh -t -q 192.168.143.127  sudo su -l hbase -c "/usr/local/hadoop/hbase-release/bin/hbase-daemon.sh\ start\ regionserver"
  22. Hbase region需要手动Balance开启、关闭
  需要登录HBase Shell运行如下命令
  开启
  balance_switch true
  关闭
  balance_switch false
  23. 本次不执行,系统运行一周,确保系统运行稳定,再执行Final。
  注意:这期间,磁盘空间可能会快速增长。在执行完final之后,会释放一部分空间。
  Finallize upgrade: hdfs dfsadmin -finalizeUpgrade



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627652-1-1.html 上篇帖子: Linux的企业-Hadoop(namenode,yarn 的高可用)Hbase 分布式部署 下篇帖子: hadoop集群构建
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表