设为首页 收藏本站
查看: 1327|回复: 0

[经验分享] 虚拟机重启后hadoop走动步骤

[复制链接]

尚未签到

发表于 2018-10-31 08:55:18 | 显示全部楼层 |阅读模式
  /usr/local/zk/bin/zkServer.sh start
DSC0000.png

  zkCli.sh
DSC0001.png

DSC0002.png

格式化ZooKeeper集群,目的是在ZooKeeper集群上建立HA的相应节点。
  在hadoop1上执行命令:/usr/local/hadoop/bin/hdfs zkfc –formatZK
  【格式化操作的目的是在ZK集群中建立一个节点,用于保存集群c1中NameNode的状态数据】
  在hadoop3上执行命令:/usr/local/hadoop/bin/hdfs zkfc –formatZK
  【集群c2也格式化,产生一个新的ZK节点cluster2】
DSC0003.png

DSC0004.png

启动JournalNode集群
  在hadoop1、hadoop2、hadoop3上分别执行命令
  /usr/local/hadoop/sbin/hadoop-daemon.sh start journalnode
  【启动JournalNode后,会在本地磁盘产生一个目录,用户保存NameNode的edits文件的数据】
DSC0005.png

DSC0006.png

格式化集群c1的一个NameNode
  从hadoop1和hadoop2中任选一个即可,这里选择的是hadoop1
  在hadoop1执行以下命令:/usr/local/hadoop/bin/hdfs namenode -format -clusterId c1
  【格式化NameNode会在磁盘产生一个目录,用于保存NameNode的fsimage、edits等文件】
启动c1中刚才格式化的NameNode
  在hadoop1上执行命令:/usr/local/hadoop/sbin/hadoop-daemon.sh start namenode
  【启动后,产生一个新的java进程NameNode】
把NameNode的数据从hadoop1同步到hadoop2中
  在hadoop2上执行命令:/usr/local/hadoop/bin/hdfs namenode –bootstrapStandby
启动c1中另一个Namenode
  在hadoop2上执行命令:/usr/local/hadoop/sbin/hadoop-daemon.sh start namenode
  【产生java进程NameNode】
DSC0007.png

格式化集群c2的一个NameNode
  从hadoop3和hadoop4中任选一个即可,这里选择的是hadoop3
  在hadoop3执行以下命令:/usr/local/hadoop/bin/hdfs namenode -format -clusterId c2
启动c2中刚才格式化的NameNode
  在hadoop3上执行命令:/usr/local/hadoop/sbin/hadoop-daemon.sh start namenode
把NameNode的数据从hadoop3同步到hadoop4中
  在hadoop4上执行命令:/usr/local/hadoop/bin/hdfs namenode –bootstrapStandby
DSC0008.png

.启动c2中另一个Namenode
  在hadoop4上执行命令:/usr/local/hadoop/sbin/hadoop-daemon.sh start namenode
DSC0009.png

DSC00010.png

启动所有的DataNode
  在hadoop1上执行命令:/usr/local/hadoop/sbin/hadoop-daemons.sh start datanode
  命令输出:
  [root@hadoop1 hadoop]# /usr/local/hadoop/sbin/hadoop-daemons.sh start datanode
  hadoop1: starting datanode, logging to /usr/local/hadoop/logs/hadoop-root-datanode-hadoop1.out
  hadoop3: starting datanode, logging to /usr/local/hadoop/logs/hadoop-root-datanode-hadoop3.out
  hadoop2: starting datanode, logging to /usr/local/hadoop/logs/hadoop-root-datanode-hadoop2.out
  hadoop4: starting datanode, logging to /usr/local/hadoop/logs/hadoop-root-datanode-hadoop4.out
  [root@hadoop1 hadoop]#
  【上述命令会在四个节点分别启动DataNode进程】
  验证(以hadoop1为例):
  [root@hadoop1 hadoop]# jps
  23396 JournalNode
  24302 Jps
  24232 DataNode
  23558 NameNode
  22491 QuorumPeerMain
  [root@hadoop1 hadoop]#
DSC00011.png

启动Yarn
  在hadoop1上执行命令:/usr/local/hadoop/sbin/start-yarn.sh
  命令输出:
  [root@hadoop1 hadoop]# /usr/local/hadoop/sbin/start-yarn.sh
  starting yarn daemons
  starting resourcemanager, logging to /usr/local/hadoop/logs/yarn-root-resourcemanager-hadoop1.out
  hadoop4: starting nodemanager, logging to /usr/local/hadoop/logs/yarn-root-nodemanager-hadoop4.out
  hadoop3: starting nodemanager, logging to /usr/local/hadoop/logs/yarn-root-nodemanager-hadoop3.out
  hadoop2: starting nodemanager, logging to /usr/local/hadoop/logs/yarn-root-nodemanager-hadoop2.out
  hadoop1: starting nodemanager, logging to /usr/local/hadoop/logs/yarn-root-nodemanager-hadoop1.out
  [root@hadoop1 hadoop]#
  验证:
  [root@hadoop1 hadoop]# jps
  23396 JournalNode
  25154 ResourceManager
  25247 NodeManager
  24232 DataNode
  23558 NameNode
  22491 QuorumPeerMain
  25281 Jps
  [root@hadoop1 hadoop]#
  【产生java进程ResourceManager和NodeManager】
  也可以通过浏览器访问,如下图
DSC00012.png


启动ZooKeeperFailoverController
  在hadoop1、hadoop2、hadoop3、hadoop4上分别执行命令:/usr/local/hadoop/sbin/hadoop-daemon.sh start zkfc
  命令输出(以hadoop1为例):
  [root@hadoop1 hadoop]# /usr/local/hadoop/sbin/hadoop-daemon.sh start zkfc
  starting zkfc, logging to /usr/local/hadoop/logs/hadoop-root-zkfc-hadoop101.out
  [root@hadoop1 hadoop]#
  验证(以hadoop1为例):
  [root@hadoop1 hadoop]# jps
  24599 DFSZKFailoverController
  23396 JournalNode
  24232 DataNode
  23558 NameNode
  22491 QuorumPeerMain
  24654 Jps
  [root@hadoop1 hadoop]#
  【产生java进程DFSZKFailoverController】
  hadoop1,hadoop2.hadoop3.hadoop4:/usr/local/hadoop/sbin/hadoop-daemon.sh stop zkfc
  hadoop1:/usr/local/hadoop/sbin/stop-yarn.sh
  hadoop1: /usr/local/hadoop/sbin/hadoop-daemons.sh sotp datanode
  hadoop1,hadoop2.hadoop3.hadoop4: /usr/local/hadoop/sbin/hadoop-daemon.sh stop namenode
  hadoop1,hadoop2.hadoop3:/usr/local/hadoop/sbin/hadoop-daemon.sh stop journalnode
  hadoop1,hadoop2.hadoop3:/usr/local/zk/bin/zkServer.sh stop


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628740-1-1.html 上篇帖子: hadoop2.3配置文件 下篇帖子: hadoop2.3课外阅读资料
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表