设为首页 收藏本站
查看: 972|回复: 0

[经验分享] Hadoop + HBase + Hive 完全分布式部署笔记

[复制链接]
累计签到:8 天
连续签到:1 天
发表于 2015-7-12 11:51:05 | 显示全部楼层 |阅读模式
  上次记录了伪分布式部署,今天记录完全分布式Hadoop + HBase + Hive 部署过程的的一些问题。
  NameNode: 192.168.229.132
  DataNode: 192.168.229.133/192.168.229.134
  
  --------------------------------------------------------------------------------
  配置 Hadoop
  无密码SSH
  首先是NameNode需要通过ssh来访问DataNode,配置一个无密码的ssh
  NameNode上生成公钥私钥
  $ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  把公钥放到tmp目录,并且scp到每一个DataNode
  $cp ~/.ssh/id_dsa.pub /tmp
  在NameNode和DataNode都执行这个,完成配置
  $cat /tmp/id_dsa.pub >> ~/.ssh/authorized_keys
  
  配置文件 (其中涉及到的目录会自动创建)
  conf/hadoop-env.sh
  # The java implementation to use.  Required.   
export JAVA_HOME=/usr/jdk1.6.0_25
  
  conf/core-site.xml  (如果要使用HIVE,就需要把红色的IP改成主机名,否则会有Wrong FS错误)
     
      
         
    fs.default.name     
    hdfs://192.168.229.132:9000     
      
        
      
    hadoop.logfile.size     
    10     
   

  
  conf/hdfs-site.xml
     
      
         
    dfs.name.dir     
    /u01/app/data/dfs.name.dir     
      
      
         
    dfs.data.dir     
    /u01/app/data/dfs.data.dir     
      

  
  conf/mapred-site.xml
     
      
         
    mapred.job.tracker     
    192.168.229.132:9001     
      
      
         
    mapred.system.dir     
    /u01/app/data/mapred.system.dir     
      
      
         
    mapred.local.dir     
    /u01/app/data/mapred.local.dir     
      

  
  主从配置
  conf/masters
  192.168.229.132
  conf/slaves
  192.168.229.133
  192.168.229.134
  
  在NameNode进行了所有的配置之后,通过scp把hadoop安装目录同步到DataNode。然后在NameNode进行格式化和启动。
  
  --------------------------------------------------------------------------------
  配置 HBase
  $vi /etc/hosts (HBase使用机器名称,在hosts里面必须配置集群里面的机器)         
127.0.0.1    localhost     
192.168.229.132    ubuntu02     
192.168.229.133    ubuntu03     
192.168.229.134    ubuntu04
  
  conf/hbase-env.sh (这里)
  # The java implementation to use.  Java 1.6 required.   
export JAVA_HOME=/usr/jdk1.6.0_25
  # Extra Java CLASSPATH elements.  Optional.   
export HBASE_CLASSPATH=/u01/app/hadoop/conf
  # Tell HBase whether it should manage it's own instance of Zookeeper or not.   
export HBASE_MANAGES_ZK=true
  
  conf/hbase-site.xml (红色部分必须使用主机名称,其他部分可以使用IP)
     
      
    hbase.rootdir     
    hdfs://ubuntu02:9000/u01/app/data/hbase     
      
      
    hbase.cluster.distributed     
    true     
      
   
    hbase.master  
    hdfs://192.168.229.132:60000  
   
      
    hbase.zookeeper.quorum     
    192.168.229.132, 192.168.229.133, 192.168.229.134     
      

  
  conf/regionservers (和Hadoop的slaves文件一致)        
192.168.229.133     
192.168.229.134
  
  通过scp把hbase安装目录同步到DataNode
  
  ----------------------------------------------------------------------------------------------
  配置 Hive
  
  MySQL存储元数据 (安装过程见这里)
  创建数据库的时候,必须使用latin1作为字符集,否则会有错误信息Specified key was too long; max key length is 767 bytes
  mysql> create database hivedb default character set latin1;   
mysql> create user 'hive'@'localhost' identified by 'hive';     
mysql> grant all on hivedb.* to 'hive'@'localhost';
  
  Hive 配置信息 (Hive仅需要在Master节点安装配置即可)
  bin/hive-config.sh (可以设置 .profile 文件来略过这步)        
export JAVA_HOME=/usr/jdk1.6.0_25     
export HIVE_HOME=/u01/app/hive     
export HADOOP_HOME=/u01/app/hadoop
  
  conf/hive-site.xml     
     
  javax.jdo.option.ConnectionURL  
  jdbc:mysql://localhost:3306/hivedb?createDatabaseIfNotExist=true     
  JDBC connect string FOR a JDBC metastore     
     
  
  javax.jdo.option.ConnectionDriverName  
  com.mysql.jdbc.Driver     
  Driver class name FOR a JDBC metastore      
  
  javax.jdo.option.ConnectionUserName  
  hive     
  username TOUSE against metastore database     
     
     
  javax.jdo.option.ConnectionPassword  
  hive     
  password TOUSE against metastore database     

  
  MySQL 驱动包
  下载mysql-connector-java-5.1.18-bin.jar文件,并放到$HIVE_HOME/lib目录下
  
  测试
  hadoop@ubuntu02:/u01/app/hive$ bin/hive   
Logging initialized using configuration in jar:file:/u01/app/hive-0.8.1-bin/lib/hive-common-0.8.1.jar!/hive-log4j.properties     
Hive history file=/tmp/hadoop/hive_job_log_hadoop_201203201733_2122821776.txt     
hive> show tables;     
OK     
tb     
Time taken: 2.458 seconds     
hive>
  
  -----------------------------------------------------------------------------------------------
  PS:安装的过程中遇到一些小问题,解决方法在这里

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85793-1-1.html 上篇帖子: hadoop三个配置文件的参数含义说明(转) 下篇帖子: [转载]使用Hadoop MapReduce 进行排序
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表