设为首页 收藏本站
查看: 702|回复: 0

[经验分享] Hadoop-HBASE 热添加新节点

[复制链接]

尚未签到

发表于 2018-10-30 09:07:47 | 显示全部楼层 |阅读模式
  Hadoop-HBASE 热添加新节点
  环境:
  192.168.137.101 hd1
  192.168.137.102 hd2
  192.168.137.103 hd3
  192.168.137.104 hd4
  四节点hadoop和hbase
  1、设置hostname
  vi /etc/sysconfig/network
  hostname hd5
  设置完毕后需要退出重新登录下方可生效
  查看防火墙状态:service iptables status
  停用防火墙:service iptables stop
  2、hd5中修改/etc/hosts
  加入        192.168.137.105 hd5
  3、分发其到所有hd1, hd2, hd3, hd4
  scp /etc/hosts hd1:/etc
  scp /etc/hosts hd2:/etc
  scp /etc/hosts hd3:/etc
  scp /etc/hosts hd4:/etc
  4、在hd5节点删除原来的.ssh中的共钥私钥文件,重新生成
  cd ~/.ssh

  rm>
  rm>  ssh-keygen -t rsa
  5、将原先hd1节点中的authorized_keys文件拷贝到hd5,再加入新共钥
  cat ~/.ssh/id_rsa.pub >> authorized_keys
  6、分发改文件到其它各节点
  scp ~/.ssh/authorized_keys hd1:/home/hadoop/.ssh
  scp ~/.ssh/authorized_keys hd2:/home/hadoop/.ssh
  scp ~/.ssh/authorized_keys hd3:/home/hadoop/.ssh
  scp ~/.ssh/authorized_keys hd4:/home/hadoop/.ssh
  7、前往各个节点进行第一次到hd5的ssh登录(hd5本地的也做一次回环ssh登录比较好)
  在hd1, ssh hd5 date
  在hd2, ssh hd5 date
  在hd3, ssh hd5 date
  在hd4, ssh hd5 date
  在hd5, ssh hd5 date
  8、将某节点上的hadoop和hbase安装文件拷贝到新节点上,然后修改配置文件
  在hd5修改hadoop的slave文件
  vim /home/hadoop/hadoop/etc/hadoop/slaves
  加入hd5
  分发其到其它节点
  scp /home/hadoop/hadoop/etc/hadoop/slaves hd1:/home/hadoop/etc/hadoop
  scp /home/hadoop/hadoop/etc/hadoop/slaves hd2:/home/hadoop/etc/hadoop
  scp /home/hadoop/hadoop/etc/hadoop/slaves hd3:/home/hadoop/etc/hadoop
  scp /home/hadoop/hadoop/etc/hadoop/slaves hd4:/home/hadoop/etc/hadoop
  9、在hd5启动datanode
  ./hadoop-daemon.sh start datanode
  10、在hd5启动start-balancer.sh均衡当前hdfs块
  start-balancer.sh
  11、如果还有hbase在上面运行则需要部署hbase的hserver
  修改
  vim /home/hadoop/hbase/conf/regionservers
  加入hd5 并复制regionservers文件到hd1,hd2,hd3,hd4
  scp regionservers hd1:/home/hadoop/hbase/conf
  scp regionservers hd2:/home/hadoop/hbase/conf
  scp regionservers hd3:/home/hadoop/hbase/conf
  scp regionservers hd4:/home/hadoop/hbase/conf
  13、在hd5启动hbase regionserver
  hbase-daemon.sh start regionserver
  14、在hd1和hd5启动hbase shell
  用status命令确认一下集群情况


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628271-1-1.html 上篇帖子: hadoop 安装配置 下篇帖子: Hadoop2.6.0学习笔记(七)MapReduce操作MySQL数据库
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表