设为首页 收藏本站
查看: 1087|回复: 0

[经验分享] Hadoop & HBase安装笔记

[复制链接]

尚未签到

发表于 2015-7-14 09:28:05 | 显示全部楼层 |阅读模式
  Hadoop & HBase安装笔记 – Pro Evolution Slawdan
Hadoop & HBase安装笔记

目标
  在两台机器上安装Hadoop和HBase作为实验,两台机器分别作为主从。
背景环境

  • 对Hadoop,HBase有一定了解
  • CentOS 5
  • JDK 1.6.0_25
  • Hadoop 0.20.205.0
  • HBase 0.90.4
安装Hadoop
  主要参考:官方集群建立文档 http://hadoop.apache.org/common/docs/current/cluster_setup.html
  次要参考:

  • 官方单机建立文档 http://hadoop.apache.org/common/docs/current/single_node_setup.html
  • HDFS默认配置 http://hadoop.apache.org/common/docs/current/hdfs-default.html
  拓扑结构:

  • A,B两台机器,A为NameNode + JobTracker + DataNode + TaskTracker, B仅为DataNode + TaskTracker
  基本步骤:
  按官方文档走即可,注意调整各种配置。在A上配置完毕以后,直接scp hadoop安装目录(包括conf)到B的对应目录,然后从A bin/start-all 启动。主从配置完全取决于 conf/masters 和 conf/slaves。
  碰到的各种问题:

  • 坑爹的公司服务器的SSH配置: 老实用rsa/dsa就好了……实在不行单开一个sshd服务也行。

    • ssh参数: -i PrivKey文件地址 -p 端口号
    • scp参数:-i PrivKey文件地址 -P 端口号
    • sshd_config里确认两台机器的IP地址以及localhost都被允许:

      • AllowUsers hadoop_user@127.0.0.1 hadoop_user@A hadoop_user@B
      • AllowUsers支持IP通配符 “*, ?”

    • service sshd reload 重启sshd

  • cfengine对各种配置文件的保护:

    • chattr +i 锁定修改
    • 锁定以后最好再检查一遍防止正好碰上cfengine同步
    • 需要重新修改的时候用chattr -i 解锁,解锁之前最好先备份一下……

  • 如果在root用户下启动,可能会碰到 -jvm wrong parameter blahblah,可以修改 bin/hadoop, 找到 if [[ $EUID -eq 0 ]]; then,改掉子句里的参数列表,跟 else 子句相同即可。主要原因是root用户的 EUID 为0;以及jvm不同版本的启动参数不太相同导致。
  • 一定要下载 0.20.205.0 以后版本,合并了可以和 HBase 兼容的代码分支 0.20-append。 启动的时候会报很多Warning $HADOOP_HOME deprecated blahblah,不需理会。
  • 如果用 bin/start-all 偷懒方式启动,有可能因为配置错误什么的导致某些服务起不来,但不会有任何错误提示。最好使用 netstat -nlp | grep java 看下端口号50030, 50010, 50070, 还有JobTracker的自定义端口是否已经被监听了,如果没有,可以用对应的启动脚本单独启动,这样会输出具体的错误。
  • 启动之前一定要修改 ulimit 的 -n 51200 和 -u unlimited 以上。否则会出现各种Fetch Failed。
安装HBase
  前提:
  必须已经正确安装了Hadoop,但可以不启动JobTracker,HBase有自己的MapRed
  主要参考:

  • 官方文档 http://hbase.apache.org/book.html
  安装步骤:
  建议先启动Standalone玩儿一下,然后再往Hadoop里配置,依照官方文档即可。
  拓扑结构:
  B为master,A和B均为regionserver
  碰到的各种问题:

  • 官方文档里说明了HBase与Hadoop的适配版本,主要是 0.20-append 分支是否合并进hadoop主干的问题。hadoop 0.20.205.0 已经合并,所以一定要用 0.20.205.0 以后版本的hadoop。
  • 启动之前一定要修改 ulimit -n 51200 和 ulimit -u 51200 以上。
  • 官方文档里提到的需要替换 lib/hadoop-core-….jar 的问题一定要做。否则启动时会出现 EOFException。由于实际版本号不同,所以直接把原jar移走,新jar放入即可。
  • 0.20.205.0 需要同时把 hadoop/lib 里的commons-configuration-1.6.jar 也考到 hbase/lib里。否则启动master时会出现master.HMaster exception of  “NoClassDefFoundError” (参考 http://javoft.net/2011/09/hbase-hmaster-%E6%97%A0%E6%B3%95%E5%90%AF%E5%8A%A8-call-to-failed-on-local-exception/)
  • 这两个jar最好设置与原来的jar相同的属性: rwsrwsrwt:

    • 设置方法: chmod a+x, chmod ug+s, chmod o+t

  • bin/start-hbase 会自动启动一个zookeeper。当然可以自行配置zookeeper。
  • bin/stop-hbase 貌似只会停止zookeeper和master, 在 B(master)上会遗留 regionserver,可以kill 进程或者 bin/hbase-daemon.sh stop regionserver
  • 同样使用 netstat -nlp | grep java 检查端口号,HBase相关服务端口均以 600开头。
Happy Starting
  TODO:

  • ZooKeeper
  • 各种监视脚本
  • Hadoop NameNode单点
  • HBase master单点
  • 修改集群需要停机……
  • 测试各种文件大小空间占用
  • 各种文件大小和负载下的Benchmark
  • 在超过5台服务器上配置集群。貌似由于现在只有2台机器共4块硬盘,而默认dfs.replication为3,所以造成硬盘随机读写,简单benchmark时的IO吞吐低的离谱(w:30M/s, r: 150M/s)……

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-86493-1-1.html 上篇帖子: hbase0.20.1,hadoop 1.0.0 完全分布式安装过程 下篇帖子: 搭建Cloud Computing测试环境--hadoop/hbase
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表