设为首页 收藏本站
查看: 1254|回复: 0

[经验分享] 在Hadoop上安装HBase

[复制链接]

尚未签到

发表于 2015-7-13 07:42:12 | 显示全部楼层 |阅读模式
Hbase快速安装

1.准备工作
  

1.1 确保已经正确安装hadoop
  详情可以参考我的一篇基于集群资源管理Mesos的hadoop安装教程
  地址: 《Mesos上安装Hadoop超详细部署攻略》

1.2 我的配置说明

DSC0000.png  

1.3 基本说明
  我的所有程序均在hadoop用户下进行(除非必须要用root才切换),所有的安装解压均在hadoop主目录。
  有任何问题,都以官方文档为准:http://hbase.apache.org
  

2.下载并且解压

2.1 选择适合自己的Hbase版本
  官方文档给出的对照关系如下
DSC0001.png
  我的hadoop是0.20.205的所以我选择了hbase-0.92.x的版本

2.2 下载解压



wget http://mirror.bjtu.edu.cn/apache/hbase/hbase-0.92.2/hbase-0.92.2.tar.gz
tar -zxvf  hbase-0.92.2.tar.gz
3.配置

3.1 方便使用,先添加环境变量



在root下执行
vi /etc/profile
export HBASE_HOME=/home/hadoop/hbase-0.92.2
export path=$PATH:/home/hadoop/hbase-0.92.2/bin
保存后
source /etc/profile
3.2 配置$HBASE_HOME/conf/hbase-env.sh



我仅修改了JAVA_HOME其他根据需要可自己设定。意思里面都有
export JAVA_HOME=/usr/java/jdk1.6.0_43
export HBASE_MANAGES_ZK=true                (这句要自己加,表示使用hbase自带的zookeeper)
3.3 配置 $HBASE_HOME/conf/hbase-site.xml



拷贝hbase的模板到conf下
cp -f $HBASE_HOME/src/packages/conf-pseudo/hbase-site.xml $HBASE_HOME/conf
  添加如下内容




hbase.rootdir
hdfs://mastersrv:54310/hbase


hbase.cluster.distributed
true



hbase.zookeeper.property.clientPort
2181


dfs.replication
1


hbase.zookeeper.quorum
slavesrv1,slavesrv2,slavesrv3



hbase.zookeeper.property.dataDir
/home/hadoop/hbase-zoo-dataDir



hbase.master.port
60000

  所有属性的含义可见中文官方文档 2.3.1.1 hbase默认配置
  http://abloz.com/hbase/book.html
  注意:hbase.rootdir  的值要和hdfs-site.xml里面相同。(后面的hbase无妨,它自己会建的)

3.4 配置hadoop节点上的 hdfs-site.xml
  引用:http://www.iyunv.com/hanyuanbo/archive/2012/07/28/2612886.html



vi $HADOOP_HOME/conf/hdfs-site.xml

dfs.datanode.max.xcievers
4096

该参数限制了datanode所允许同时执行的发送和接受任务的数量,缺省为256,hadoop-defaults.xml中通常不设置这个参数。这个限制看来实际有些偏小,高负载下,DFSClient 在put数据的时候会报 could not read from stream 的 Exception。
  官方说法:
  An Hadoop HDFS datanode has an upper bound on the number of files that it will serve at any one time. The upper bound parameter is called xcievers (yes, this is misspelled).
  Not having this configuration in place makes for strange looking failures. Eventually you'll see a complain in the datanode logs complaining about the xcievers exceeded, but on the run up to this one manifestation is complaint about missing blocks. For example: 10/12/08 20:10:31 INFO hdfs.DFSClient: Could not obtain block blk_XXXXXXXXXXXXXXXXXXXXXX_YYYYYYYY from any node: java.io.IOException: No live nodes contain current block. Will get new block locations from namenode and retry...
  

3.5 $HBASE_HOME/conf/regionservers



vi regionservers
slavesrv1
slavesrv2
slavesrv3
  

3.6 将 hadoop-core-0.20.205.0.jar拷贝到hbase中



这步可能不是必须的,因为怕发生版本之间承接的问题,所以我就直接先做了这个处理。
cp $HADOOP_HOME/hadoop-core-0.20.205.0.jar $HBASE_HOME/lib

将原来的jar移到其他地方去
mv $HBASE_HOME/lib/hadoop-core-1.0.3.jar ~/myfile
  
  
  

4.将配置好的目录全部传送到其他节点



scp -r ~/hbase-0.92.2 hadoop@slavesrv1:~/
scp -r ~/hbase-0.92.2 hadoop@slavesrv2:~/
scp -r ~/hbase-0.92.2 hadoop@slavesrv3:~/
  

5.同步系统时间(系统时间不同步会出错哦)
  在所有机器上执行以下操作



安装NTP服务
yum install ntp
在root下启动服务
service ntpd start
在各台机器上用date快速查看下。应该是一样的了。(同步可能花些时间,最长不超过5分钟)
  
  

6.启动完成安装

6.1  首先确保hadoop至少已经执行了 start-dfs.sh 并且运行正常
  jps命令查看主节点有 NameNode SecondaryNameNode  从节点上有 DataNode

6.2 开启hbase



start-hbase.sh
  成功启动后会有如下进程
  mastersrv:
DSC0002.png
  
  slavesrvX:
DSC0003.png
  

6.3 查看浏览器管理界面
  zookeeper的情况
  http://192.168.4.100:60010/zk.jsp
DSC0004.png
  
  
  master的情况
  http://192.168.4.100:60010/master-status
DSC0005.png
  
  下图看看regionServer是否都正常开启
DSC0006.png
  
  查看regionServer的情况
  http://192.168.4.101:60030/rs-status
  http://192.168.4.102:60030/rs-status
  http://192.168.4.103:60030/rs-status
  
DSC0007.png
  
  
  总结:基本顺利,碰到2次问题,比较快的解决了,按照这样的方式装下来肯定没问题。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85898-1-1.html 上篇帖子: Hadoop 2.2.0学习笔记20131209 下篇帖子: Hadoop回收站trash
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表