设为首页 收藏本站
查看: 870|回复: 0

[经验分享] cdh4 hadoop,hive,impala,hbase本地库搭建及安装

[复制链接]

尚未签到

发表于 2016-12-10 10:24:28 | 显示全部楼层 |阅读模式
--hadoop文件位置:
log目录 :

1/var/log/hadoop-hdfs 

2/var/log/hadoop-mapreduce 

3/var/log/hbase 

4/var/log/hive 

5/var/log/hive

6/var/log/impala



 
安装目录:
1/usr/lib



 
启动命令目录:
1/etc/init.d/



 
配置文件目录:
1/etc/hadoop/conf 

2/etc/hbase/conf

3/etc/hive/conf 

4/etc/impala/conf



 
环境变量:
1/etc/profile



 
让/etc/profile文件修改后立即生效 ,可以使用如下命令:

1source /etc/profile



 
node配置:
1/etc/hosts



 
资源库位置 :
1/etc/yum.repos.d/



 
1.本地cdh4 搭建/
1、安装httpd服务,作用:用browser查看本地库 
--安装httpd 

1yum install httpd



 
--启动httpd 
vi /etctpdtpd.conf (配置文件) 

1service httpd start 

2service httpd stop 

3service httpd restart



 
--关闭防火墙 
1service iptables status 

2service iptables stop



 
--浏览器查看 
http://ip地址 
2、安装createrepo 
--Createrepo用于创建本地源。 

1sudo yum install yum-utils createrepo



 
3、搭建本地源 
--下载cloudera-manager.repo,cloudera-cdh4.repo到/etc/yum.repos.d/目录下 

1cd /etc/yum.repos.d/

2wget http://archive.cloudera.com/cm4/redhat/6/x86_64/cm/cloudera-manager.repo 

3wget http://archive.cloudera.com/cdh4/redhat/6/x86_64/cdh/cloudera-cdh4.repo



 
--将远程源的RPM包同步到本地的httpd服务目录 
1cd /var/www/html/ 

2reposync -r cloudera-manager 

3reposync -r cloudera-cdh4



 
--生成或刷新:RPMS,和一个放依赖关系等信息的文件夹repodata。 
1cd /var/www/html/cloudera-manager 

2createrepo . 

3cd /var/www/html/cloudera-cdh4 

4createrepo .



 
至此,CDH4本地源搭建完成。 
4:本地源的使用 
--修改cloudera-manager.repo中的baseurl修改指向本地局域网的服务器 
将baseurl=http://archive.cloudera.com/cm4/redhat/6/x86_64/cm/4/ 改为: 
baseurl=http://172.16.2.52/cloudera-manager/ 
--修改cloudera-cdh4.repo中的baseurl修改指向本地局域网的服务器 
将baseurl=http://archive.cloudera.com/cdh4/redhat/6/x86_64/cdh/4/ 改为: 
baseurl=http://172.16.2.52/cloudera-cdh4/ 
baseurl的地址是服务器地址+放置RPM包的目录名,结构如下图:里面有一个放RPM包的文件夹RPMS,和一个放依赖关系等信息的文件夹repodata。 
2.cloudera manager安装
--安装 

1sudo yum install cloudera-manager-daemons 

2sudo yum install cloudera-manager-server 

3sudo yum install cloudera-manager-server-db 

4sudo yum install cloudera-manager-agent



 
--启动 
1service cloudera-scm-server start 

2service  cloudera-manager-server-db  start 

3service cloudera-scm-agent start



 
3.cdh4 安装
//安装 装CDH4

1yum install hadoop-0.20-mapreduce-jobtracker hadoop-0.20-mapreduce-tasktracker

2yum install hadoop-hdfs-namenode

3yum install hadoop-hdfs-datanode

4yum install hadoop-0.20-conf-pseudo

5sudo -u hdfs hdfs namenode -format



 
--启动hdfs
1for x in `cd /etc/init.d ; ls hadoop-hdfs-*` ; do sudo service $x start ; done



 
4..安装 hive
参考资料:http://heylinux.com/archives/2456.html
--安装hive

1sudo yum install hive hive-metastore hive-server



 
--安装mysql
1sudo yum install mysql mysql-server mysql-devel

2service mysqld start



 
--安装mysql连接驱动
1sudo yum install mysql-connector-java

2ln -s /usr/share/java/mysql-connector-java.jar /usr/lib/hive/lib/mysql-connector-java.jar



 
--设置root密码
1sudo /usr/bin/mysql_secure_installation



 
根据提示输入密码
0101    [...]    

0202    Enter current password for root (enter for none):    

0303    OK, successfully used password, moving on...    

0404    [...]    

0505    Set root password? [Y/n] y    

0606    New password:hadoophive    

0707    Re-enter new password:hadoophive    

0808    Remove anonymous users? [Y/n] Y    

0909    [...]    

1010    Disallow root login remotely? [Y/n] N    

1111    [...]    

1212    Remove test database and access to it [Y/n] Y    

1313    [...]    

1414    Reload privilege tables now? [Y/n] Y    

1515    All done!



 
--进入mysql 依次执行
01mysql -u root -p hadoophive

02CREATE DATABASE metastore;

03USE metastore;

04SOURCE /usr/lib/hive/scripts/metastore/upgrade/mysql/hive-schema-0.10.0.mysql.sql;

05CREATE USER 'hive'@'%' IDENTIFIED BY 'hadoophive';

06CREATE USER 'hive'@'localhost' IDENTIFIED BY 'hadoophive';

07GRANT  ALL PRIVILEGES ON metastore.* TO 'hive'@'%';

08GRANT  ALL PRIVILEGES ON metastore.* TO 'hive'@'localhost';

09FLUSH PRIVILEGES;

10quit;



 
--启动hive
--修改配置文件hive-site.xml
sudo vim /etc/hive/conf/hive-site.xml参考 hive 配置

01<configuration>

02 

03<!-- Hive Configuration can either be stored in this file or in the hadoop configuration files  -->

04<!-- that are implied by Hadoop setup variables.                                                -->

05<!-- Aside from Hadoop setup variables - this file is provided as a convenience so that Hive    -->

06<!-- users do not have to edit hadoop configuration files (that may be managed as a centralized -->

07<!-- resource).                                                                                 -->

08 

09<!-- Hive Execution Parameters -->

10 

11<property>

12  <name>javax.jdo.option.ConnectionURL</name>

13  <value>jdbc:mysql://localhost:3306/metastore</value>

14  <description>JDBC connect string for a JDBC metastore</description>

15</property>

16 

17<property>

18  <name>javax.jdo.option.ConnectionDriverName</name>

19  <value>com.mysql.jdbc.Driver</value>

20  <description>Driver class name for a JDBC metastore</description>

21</property>

22<property>

23    <name>javax.jdo.option.ConnectionUserName</name>

24    <value>hive</value>

25</property>

26<property>

27     <name>javax.jdo.option.ConnectionPassword</name>

28     <value>hadoophive</value>

29</property>

30<property>

31      <name>hive.metastore.uris</name> 

32      <value>thrift://127.0.0.1:9083</value>

33      <description>IP address (or fully-qualified domain name) and port of the metastore host</description>

34</property>

35</configuration>



 
--启动hive
1service hive-metastore start

2service hive-server start



 

--依次执行

01$ sudo -u hdfs hadoop fs -mkdir /user/hive

02$ sudo -u hdfs hadoop fs -chown hive /user/hive

03$ sudo -u hdfs hadoop fs -mkdir /tmp

04$ sudo -u hdfs hadoop fs -chmod 777 /tmp

05$ sudo -u hdfs hadoop fs -chmod o+t /tmp

06$ sudo -u hdfs hadoop fs -mkdir /data

07$ sudo -u hdfs hadoop fs -chown hdfs /data

08$ sudo -u hdfs hadoop fs -chmod 777 /data

09$ sudo -u hdfs hadoop fs -chmod o+t /data

10$ sudo chown -R hive:hive /var/lib/hive



 
$ sudo vim /tmp/kv1.txt
11,www.baidu.com

22,wwww.google.com

33,wwww.sina.com.cn

44,wwww.163.com

55,wheylinx.com



 
1CREATE TABLE IF NOT EXISTS pokes ( foo INT,bar STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY "," LINES TERMINATED BY "\n";

2show tables;

3desc formatted pokes;

4LOAD DATA LOCAL INPATH '/tmp/kv1.txt' OVERWRITE INTO TABLE pokes;

5select * from pokes;



 
5.安装impala
参考资料:http://heylinux.com/archives/2456.html
--下载资源包

1sudo wget http://archive.cloudera.com/impala/redhat/6/x86_64/impala/cloudera-impala.repo



 

--同步资源库

1cd /var/www/html/

2reposync -r cloudera-impala

3cd /var/www/html/cloudera-impala

4createrepo .



 
--修改cloudera-impala.repo
将baseurl=http://archive.cloudera.com/impala/redhat/6/x86_64/impala/1/改为:
baseurl=http://172.16.2.52/cloudera-impala/
--安装

1sudo yum install impala 

2sudo yum install impala-shell 

3sudo yum install impala-server 

4sudo yum install impala-state-store



 
--添加配置/etc/hadoop/conf/hdfs-site.xml如下
sudo vim /etc/hadoop/conf/hdfs-site.xml


01<property>

02   <name>dfs.client.read.shortcircuit</name>

03   <value>true</value>

04</property>

05<property>

06   <name>dfs.domain.socket.path</name>

07   <value>/var/run/hadoop-hdfs/dn._PORT</value>

08 </property>

09<property>

10   <name>dfs.client.file-block-storage-locations.timeout</name>

11   <value>3000</value>   

12</property>

13<property>

14  <name>dfs.datanode.hdfs-blocks-metadata.enabled</name>

15  <value>true</value>

16</property>



 
--复制文件到/etc/impala/conf/
1sudo cp -rpa /etc/hadoop/conf/core-site.xml /etc/impala/conf/

2sudo cp -rpa /etc/hadoop/conf/hdfs-site.xml /etc/impala/conf/

3sudo cp -rpa /etc/hive/conf/hive-site.xml /etc/impala/conf/



 
--重新启动datanode 及 impala
1sudo service hadoop-hdfs-datanode restart

2sudo service impala-state-store restart

3sudo service impala-server restart



 
--进入impala命令行
1impala-shell



 
5.安装hbase(伪分布)
--安装zookper

1yum install zookeeper-server



 
--启动zookper
1service  zookeeper-server start



 
--安装hbase,hbase-master,hbase-regionserver
1sudo yum install hbase

2sudo yum install hbase-master

3sudo yum install hbase-regionserver



 
--修改配置
sudo vim /etc/security/limits.conf

1hdfs - nofile 32768

2hbase - nofile 32768



 
--修改配置
$sudo vim /etc/pam.d/common-session

1session required pam_limits.so



 
--修改hadoop配置
sudo vim /etc/hadoop/conf/hdfs-site.xml

1<property>

2  <name>dfs.datanode.max.xcievers</name>

3  <value>4096</value>

4</property>



 
--修改hbase配置/etc/hbase/conf/hbase-site.xml


01<configuration> 

02   <property> 

03     <name>hbase.rootdir</name> 

04     <value>hdfs://myhost:8020/hbase</value> 

05   </property> 

06   <property> 

07     <name>hbase.cluster.distributed</name> 

08     <value>true</value> 

09   </property> 

10</configuration>



 
--创建hbase工作目录
1sudo -u hdfs hadoop fs -mkdir /hbase

2sudo -u hdfs hadoop fs -chown hbase /hbase



 
--hdfs重启
1sudo /etc/init.d/hadoop-hdfs-namenode restart

2sudo /etc/init.d/hadoop-hdfs-datanode restart



 
--启动
1sudo service hbase-master start

2sudo service hbase-regionserver start



 
--进入hbase
1hbase shell

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-312266-1-1.html 上篇帖子: Hadoop中的集群配置和使用技巧── 分布式计算开源框架Hadoop入门实践(二) 下篇帖子: eclipse连接远程hadoop集群开发时权限不足问题解决方案
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表