设为首页 收藏本站
查看: 1416|回复: 0

[经验分享] 手动安装cloudera cdh4.2 hadoop + hbase + hive(一)

[复制链接]

尚未签到

发表于 2015-7-12 09:58:42 | 显示全部楼层 |阅读模式

安装版本




hadoop-2.0.0-cdh4.2.0
hbase-0.94.2-cdh4.2.0
hive-0.10.0-cdh4.2.0
jdk1.6.0_38


安装前说明



  • 安装目录为/opt
  • 检查hosts文件
  • 关闭防火墙
  • 设置时钟同步


使用说明

  
安装hadoop、hbase、hive成功之后启动方式为:


  • 启动dfs和mapreduce desktop1上执行start-dfs.sh和start-yarn.sh
  • 启动hbase desktop3上执行start-hbase.xml
  • 启动hive desktop1上执行hive


规划




    192.168.0.1             NameNode、Hive、ResourceManager
192.168.0.2             SSNameNode
192.168.0.3             DataNode、HBase、NodeManager
192.168.0.4             DataNode、HBase、NodeManager
192.168.0.6             DataNode、HBase、NodeManager
192.168.0.7             DataNode、HBase、NodeManager
192.168.0.8             DataNode、HBase、NodeManager


部署过程



系统和网络配置



  •   修改每台机器的名称

    [iyunv@desktop1 ~]# cat /etc/sysconfig/network
    NETWORKING=yes
    HOSTNAME=desktop1

      
  •   在各个节点上修改/etc/hosts增加以下内容:

    [iyunv@desktop1 ~]# cat /etc/hosts
    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    192.168.0.1     desktop1
    192.168.0.2     desktop2
    192.168.0.3     desktop3
    192.168.0.4     desktop4
    192.168.0.6     desktop6
    192.168.0.7     desktop7
    192.168.0.8     desktop8

      
  •   配置ssh无密码登陆 以下是设置desktop1上可以无密码登陆到其他机器上。

    [iyunv@desktop1 ~]# ssh-keygen
[iyunv@desktop1 ~]# ssh-copy-id -i .ssh/id_rsa.pub desktop2
[iyunv@desktop1 ~]# ssh-copy-id -i .ssh/id_rsa.pub desktop3
[iyunv@desktop1 ~]# ssh-copy-id -i .ssh/id_rsa.pub desktop4
[iyunv@desktop1 ~]# ssh-copy-id -i .ssh/id_rsa.pub desktop6
[iyunv@desktop1 ~]# ssh-copy-id -i .ssh/id_rsa.pub desktop7
[iyunv@desktop1 ~]# ssh-copy-id -i .ssh/id_rsa.pub desktop8


  • 每台机器上关闭防火墙:



    [iyunv@desktop1 ~]# service iptables stop


安装Hadoop



配置Hadoop

  
将jdk1.6.0_38.zip上传到/opt,并解压缩。 将hadoop-2.0.0-cdh4.2.0.zip上传到/opt,并解压缩。
  
在NameNode上配置以下文件:



core-site.xml fs.defaultFS指定NameNode文件系统,开启回收站功能。
hdfs-site.xml
dfs.namenode.name.dir指定NameNode存储meta和editlog的目录,
dfs.datanode.data.dir指定DataNode存储blocks的目录,
dfs.namenode.secondary.http-address指定Secondary NameNode地址。
开启WebHDFS。
slaves 添加DataNode节点主机


  • core-site.xml 该文件指定fs.defaultFS连接desktop1,即NameNode节点。



[iyunv@desktop1 hadoop]# pwd
/opt/hadoop-2.0.0-cdh4.2.0/etc/hadoop
[iyunv@desktop1 hadoop]# cat core-site.xml





fs.defaultFS

hdfs://desktop1


fs.trash.interval
10080


fs.trash.checkpoint.interval
10080




  • hdfs-site.xml 该文件主要设置数据副本保存份数,以及namenode、datanode数据保存路径以及http-address。



[iyunv@desktop1 hadoop]# cat hdfs-site.xml




dfs.replication
1


hadoop.tmp.dir
/opt/data/hadoop-${user.name}


dfs.namenode.http-address
desktop1:50070


dfs.namenode.secondary.http-address
desktop2:50090


dfs.webhdfs.enabled
true




  • masters 设置namenode和secondary namenode节点。



[iyunv@desktop1 hadoop]# cat masters
desktop1
desktop2


  • slaves 设置哪些机器上安装datanode节点。



[iyunv@desktop1 hadoop]# cat slaves
desktop3
desktop4
desktop6
desktop7
desktop8


配置MapReduce



  • mapred-site.xml 配置使用yarn计算框架,以及jobhistory的地址。



[iyunv@desktop1 hadoop]# cat mapred-site.xml




mapreduce.framework.name
yarn


mapreduce.jobhistory.address
desktop1:10020


mapreduce.jobhistory.webapp.address
desktop1:19888




  • yarn-site.xml 主要配置resourcemanager地址以及yarn.application.classpath(这个路径很重要,要不然集成hive时候会提示找不到class)



[iyunv@desktop1 hadoop]# cat yarn-site.xml



yarn.resourcemanager.resource-tracker.address
desktop1:8031


yarn.resourcemanager.address
desktop1:8032


yarn.resourcemanager.scheduler.address
desktop1:8030


yarn.resourcemanager.admin.address
desktop1:8033


yarn.resourcemanager.webapp.address
desktop1:8088


Classpath for typical applications.
yarn.application.classpath
$HADOOP_CONF_DIR,$HADOOP_COMMON_HOME/share/hadoop/common/*,
$HADOOP_COMMON_HOME/share/hadoop/common/lib/*,
$HADOOP_HDFS_HOME/share/hadoop/hdfs/*,$HADOOP_HDFS_HOME/share/hadoop/hdfs/lib/*,
$YARN_HOME/share/hadoop/yarn/*,$YARN_HOME/share/hadoop/yarn/lib/*,
$YARN_HOME/share/hadoop/mapreduce/*,$YARN_HOME/share/hadoop/mapreduce/lib/*


yarn.nodemanager.aux-services
mapreduce.shuffle


yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler


yarn.nodemanager.local-dirs
/opt/data/yarn/local


yarn.nodemanager.log-dirs
/opt/data/yarn/logs


Where to aggregate logs
yarn.nodemanager.remote-app-log-dir
/opt/data/yarn/logs


yarn.app.mapreduce.am.staging-dir
/user




同步配置文件

  
修改.bashrc环境变量,并将其同步到其他几台机器,并且source .bashrc



[iyunv@desktop1 ~]# cat .bashrc
# .bashrc
alias rm='rm -i'
alias cp='cp -i'
alias mv='mv -i'
# Source global definitions
if [ -f /etc/bashrc ]; then
. /etc/bashrc
fi
# User specific environment and startup programs
export LANG=zh_CN.utf8
export JAVA_HOME=/opt/jdk1.6.0_38
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=./:$JAVA_HOME/lib:$JRE_HOME/lib:$JRE_HOME/lib/tools.jar
export HADOOP_HOME=/opt/hadoop-2.0.0-cdh4.2.0
export HIVE_HOME=/opt/hive-0.10.0-cdh4.2.0
export HBASE_HOME=/opt/hbase-0.94.2-cdh4.2.0
export HADOOP_MAPRED_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export YARN_HOME=${HADOOP_HOME}
export HADOOP_YARN_HOME=${HADOOP_HOME}
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export HDFS_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export YARN_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export PATH=$PATH:$HOME/bin:$JAVA_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin:$HIVE_HOME/bin

  
修改配置文件之后,使其生效。



[iyunv@desktop1 ~]# source .bashrc

  
将desktop1上的/opt/hadoop-2.0.0-cdh4.2.0拷贝到其他机器上


启动脚本

  
第一次启动hadoop需要先格式化NameNode,该操作只做一次。当修改了配置文件时,需要重新格式化



[iyunv@desktop1 hadoop]hadoop namenode -format

  
在desktop1上启动hdfs:



[iyunv@desktop1 hadoop]#start-dfs.sh

  
在desktop1上启动mapreduce:



[iyunv@desktop1 hadoop]#start-yarn.sh

  
在desktop1上启动historyserver:



[iyunv@desktop1 hadoop]#mr-jobhistory-daemon.sh start historyserver

  
查看MapReduce:



http://desktop1:8088/cluster

  
查看节点:



http://desktop2:8042/
http://desktop2:8042/node


检查集群进程




[iyunv@desktop1 ~]# jps
5389 NameNode
5980 Jps
5710 ResourceManager
7032 JobHistoryServer
[iyunv@desktop2 ~]# jps
3187 Jps
3124 SecondaryNameNode
[iyunv@desktop3 ~]# jps
3187 Jps
3124 DataNode
5711 NodeManager

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85700-1-1.html 上篇帖子: Hadoop测试例子wordcount 下篇帖子: Hadoop on Mac with IntelliJ IDEA
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表