环境: 192.168.137.101 hd1 192.168.137.102 hd2 192.168.137.103 hd3 192.168.137.104 hd4
四节点hadoop和hbase
1、hd5中修改/etc/hosts 加入 192.168.137.105hd5
2、分发其到所有hd1,hd2,hd3,hd4 scp/etc/hostshd1:/etc scp/etc/hostshd2:/etc scp/etc/hostshd3:/etc scp/etc/hostshd4:/etc
3、修改hd5节点的 /home/hadoop/hadoop/etc/hadoop/slaves 加添hd5作为最后一个节点
4、在hd5节点删除原来的.ssh中的共钥私钥文件,重新生成 cd~/.ssh rmid_rsa rmid_rsa.pub ssh-keygen-trsa
5、将原先hd1节点中的authorized_keys文件拷贝到hd5,再加入新共钥 cat~/.ssh/id_rsa.pub>>authorized_keys
6、分发改文件到其它各节点 scp~/.ssh/authorized_keyshd1:/home/hadoop/.ssh scp~/.ssh/authorized_keyshd2:/home/hadoop/.ssh scp~/.ssh/authorized_keyshd3:/home/hadoop/.ssh scp~/.ssh/authorized_keyshd4:/home/hadoop/.ssh
7、前往各个节点进行第一次(不确认也可以)到hd5的ssh登录(hd5本地的也做一次回环ssh登录比较好) 在hd1,ssh hd5 date 在hd2,ssh hd5 date 在hd3,ssh hd5 date 在hd4,ssh hd5 date 在hd5,ssh hd5 date
8、在hd5修改hadoop的slave文件 vim /home/hadoop/hadoop/etc/hadoop/slaves 加入hd5 分发其到其它节点 scp /home/hadoop/hadoop/etc/hadoop/slaves hd1:/home/hadoop/etc/hadoop scp /home/hadoop/hadoop/etc/hadoop/slaves hd2:/home/hadoop/etc/hadoop scp /home/hadoop/hadoop/etc/hadoop/slaves hd3:/home/hadoop/etc/hadoop scp /home/hadoop/hadoop/etc/hadoop/slaves hd4:/home/hadoop/etc/hadoop
9、在hd5启动yarn start-dfs.sh yarn-daemon.shstartdatanode (如果是虚拟机复制的产物,请删除/home/hadoop/tmp和/hoem/hadoop/hdfs中的文件,当然这两个路径还是要保留的)
10、在hd5启动start-balancer.sh均衡当前hdfs块 Start-balancer.sh
11、如果还有hbase在上面运行则需要部署hbase的hserver 修改 vim/home/hadoop/hbase/conf/regionservers 加入hd5 vim/home/hadoop/hbase/conf/hbase-site.xml 加入
hbase.zookeeper.quorum hd1,hd2,hd3,hd4,hd5
12、复制上面两个文件到hd1,hd2,hd3,hd4 scpregionservershd1:/home/hadoop/hbase/conf scpregionservershd2:/home/hadoop/hbase/conf scpregionservershd3:/home/hadoop/hbase/conf scpregionservershd4:/home/hadoop/hbase/conf scphbase-site.xmlhd1:/home/hadoop/hbase/conf scphbase-site.xmlhd2:/home/hadoop/hbase/conf scphbase-site.xmlhd3:/home/hadoop/hbase/conf scphbase-site.xmlhd4:/home/hadoop/hbase/conf
13、在hd5启动hbaseregionserver hbase-daemon.shstartregionserver
14、在hd1和hd5启动hbaseshell 用status命令确认一下集群情况
|