设为首页 收藏本站
查看: 1048|回复: 0

[经验分享] 拷贝hadoop2目录下所有hadoop*.jar到hbase/lib目录

[复制链接]

尚未签到

发表于 2016-12-12 09:37:27 | 显示全部楼层 |阅读模式
find /usr/local/hadoop/share/hadoop -name "hadoop*jar" | xargs -i cp {} /usr/local/hbase/lib/
保存hbase的操作命令历史
用户目录下,新建一个文件.irbrc,输入以下内容
require 'irb/ext/save-history'
IRB.conf[:SAVE_HISTORY] = 100
IRB.conf[:HISTORY_FILE] = "#{ENV['HOME']}/.irb_history"
Kernel.at_exit do
IRB.conf[:AT_EXIT].each do |i|
i.call
end
end
重新进入hbase shell,执行几个命令,退出后,命令会保存在用户目录中的.irb_history文件中
hadoop@hadoopMaster:~$ l | grep .ir
-rw-rw-r--  1 hadoop hadoop    24  6月  9 08:57 .irb_history
-rw-rw-r--  1 hadoop hadoop   185  6月  9 08:57 .irbrc


 

通过WEB查看hbase:
查看Master http://master:60010/master.jsp
查看Region Serverhttp://slave:60030/regionserver.jsp
查看ZK Tree http://master:60010/zk.jsp
 

#!/bin/bash
echo "start"
for ((i=19;i<=22;i++))
do
ssh 192.168.20.$i 'date -s "2011-05-10 10:44:00"; clock -w'
done
echo "complete"
 

hbase(main):001:0> import java.text.SimpleDateFormat
=> Java::JavaText::SimpleDateFormat
hbase(main):002:0> import java.text.ParsePosition
=> Java::JavaText::ParsePosition
hbase(main):004:0> SimpleDateFormat.new("yy/MM/dd HH:mm:ss").parse("08/08/16 20:56:29", ParsePosition.new(0)).getTime()
=> 1218891389000

 

create 'tb_splits', {NAME => 'cf', VERSIONS=> 3},{SPLITS => ['a','b','c']}
hbase shell之创建表的同时创建分区
这个时候可以http://hadoopmaster:60010/master-status去看看
发现这个表有4个regions:
既有普通option(例如VERSIONS,COMPRESSION等),又创建预分区
create 't', {NAME => 'f', VERSIONS => 1, COMPRESSION => 'SNAPPY'}, {SPLITS => ['10','20','30']}


 

hbase(main):01:0* for i in 0..9 do\
hbase(main):02:1* put 't1','row1',"f1:c#{i}","swallow#{i}"\
hbase(main):03:1* end
 

移除添加节点
http://shitouer.cn/2013/03/hadoop-or-hbase-cluster-remove-nodes/

 

HBase修改压缩格式
http://shitouer.cn/2013/05/hbase-table-alter-compression-type-and-snappy-compression-compare/
 

//查具体某表的大小
hadoop@hadoopMaster:~$ hdfs dfs -du /hbase
0      /hbase/.tmp
1179   /hbase/WALs
0      /hbase/archive
90224  /hbase/data
42     /hbase/hbase.id
7      /hbase/hbase.version
100    /hbase/oldWALs
hdfs dfs -dus /hbase/tablename
hdfs dfs -du /hbase/tablename
一个尝试将BigTable(HBase)和 RDBMS (H2数据库) 结合的项目
https://github.com/codefollower/Lealone
http://shitouer.cn
 

root@Master(192.168.0.1):~$ sudo vim /etc/ntp.conf
#server ntp.ubuntu.com
server 127.127.1.0 minpoll 4 maxpoll 5
fudge 127.127.1.0 stratum 2
server 127.127.1.0
fudge 127.127.1.0 stratum 8
root@Master:~$ sudo /etc/init.d/ntp restart
* Stopping NTP server ntpd          [ OK ]
* Starting NTP server ntpd          [ OK ]
root@Master:~$ ntpdate -q 127.0.0.1
server 127.0.0.1, stratum 9, offset -0.000016, delay 0.02571
11 Aug 14:54:24 ntpdate[9249]: adjust time server 127.0.0.1 offset -0.000016 sec
root@Slave1:/home/hadoop# sudo /etc/init.d/ntp stop
* Stopping NTP server ntpd           [ OK ]
root@Slave1:/home/hadoop# ntpdate 192.168.0.1
11 Aug 14:57:06 ntpdate[2073]: adjust time server 192.168.0.1 offset 0.008728 sec
root@Slave1:# crontab -e
添加如下行:
* */1 * * * /usr/sbin/ntpdate 192.168.0.1
每个小时与与192.168.0.1时间同步一次。
其它机器类似
 

查看hbasemeta情况
hbase hbck
1.重新修复hbase meta表
hbase hbck -fixMeta
2.重新将hbase meta表分给regionserver
hbase hbck -fixAssignments
 

hbase hbck -h
hbase hbck -fix
导入到HDFS上相应的目录:
hbase org.apache.hadoop.hbase.mapreduce.Export student file:/opt/wksp/hbase/mydata/student
 

hbase:meta
hbase:namespace
 

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-313080-1-1.html 上篇帖子: 敏捷数据科学:用Hadoop创建数据分析应 下篇帖子: Hadoop 2.2.0 (YARN)搭建笔记(作者的工作很细致,赞一个!)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表