设为首页 收藏本站
查看: 907|回复: 0

[经验分享] Hadoop+Hive(MySQL)+Hbase+zookeeper

[复制链接]

尚未签到

发表于 2018-10-30 07:23:39 | 显示全部楼层 |阅读模式
  一、hadoop安装
  虚拟机(centos7)
  Master:192.168.0.228
  Slave:192.168.0.207
  软件
  apache-hive-1.2.1-bin.tar.gz
  hadoop-2.6.0-cdh5.4.8.tar.gz
  jdk-8u65-linux-x64.tar.gz
  mysql-connector-java-5.1.31-bin.jar
  hbase-0.98.15-hadoop2-bin.tar
  zookeeper-3.4.6.tar
  1.关闭防火墙
  Systemctl disable firewalld.service
  Systemctl stop   firewalld.service
  Setenforce 0
  Vim /etc/selinux/config  永久关闭
  将SELINUX=enforce改为SELINUX=disable
  2.配置主机名
  192.168.0.228: echo “master” > /etc/hostname
  192.168.0.207:  echo “slave” > /etc/hostname
  3.主机间解析
  在两台机器/etc/hosts文件下添加ip地址和主机名
  4.配置SSH互信
  master
  yum  -y install  sshpass
  ssh-keygen 一路回车
  ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.0.220
  slave
  yum  -y install  sshpass
  ssh-keygen 一路回车
  ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.0.201
  如图,OK
  5.安装JDK
  两台机器都需要配置
  tar zxvf jdk-8u65-linux-x64.tar.gz
  mv jdk1.8.0_65  /usr/jdk
  设置环境变量
  Vim /etc/profile
  export JAVA_HOME=/usr/jdk
  export JRE_HOME=/usr/jdk/jre
  export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
  export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
  执行 source  /etc/profile
  测试
  java -version,如图
  6.安装Hadoop
  tar zxvf hadoop-2.6.0-cdh5.4.8.tar.gz
  mv hadoop-2.6.0-cdh5.4.8  /usr/hadoop
  cd  /usr/hadoop
  mkdir -p dfs/name
  mkdir -p dfs/data
  mkdir -p tmp
  6.1编辑配置文件
  Salves
  yarn-env.sh
  Yarn-site.xml
  mapred-site.xml
  hdfs-env.sh
  core-site.xml
  Hadoop-env.sh
  cd /usr/hadoop/etc/hadoop
  vim slaves
  192.168.0.220   #添加slaveIP
  vim hadoop-env.sh / vim yarn-env.sh
  export JAVA_HOME=/usr/jdk   #加入java变量
  Vim core-site.xml
  
  
  fs.defaultFS
  hdfs://192.168.0.228:9000
  
  
  io.file.buffer.size
  131702
  
  
  hadoop.tmp.dir
  file:/usr/hadoop/tmp
  
  
  hadoop.proxyuser.hadoop.hosts
  *
  
  
  hadoop.proxyuser.hadoop.groups
  *
  
  
  Vim hdfs-site.xml
  
  
  dfs.namenode.name.dir
  :/usr/hadoop/dfs/name
  
  
  dfs.datanode.data.dir
  :/usr/hadoop/dfs/data
  
  
  dfs.replication
  2
  
  
  dfs.namenode.secondary.http-address
  192.168.0.228:9001
  
  
  dfs.webhdfs.enabled
  true
  
  
  Vim mapred-site.xml
  
  
  mapreduce.framework.name
  yarn
  
  
  mapreduce.jobhistory.address
  192.168.0.228:10020
  
  
  mapreduce.jobhistory.webapp.address
  192.168.0.228:19888
  
  
  Vim yarn-site.xml
  
  
  yarn.nodemanager.aux-services
  mapreduce_shuffle
  
  
  yarn.nodemanager.auxservices.mapreduce.shuffle.class
  org.apache.hadoop.mapred.ShuffleHandler
  
  
  yarn.resourcemanager.address
  192.168.0.228:8032
  
  
  yarn.resourcemanager.scheduler.address
  192.168.0.228:8030
  
  
  yarn.resourcemanager.resource-tracker.address
  192.168.0.228:8031
  
  
  yarn.resourcemanager.admin.address
  192.168.0.228:8033
  
  
  yarn.resourcemanager.webapp.address
  192.168.0.228:8088
  
  
  yarn.nodemanager.resource.memory-mb
  768
  
  
  把目录拷贝到slave机器上
  scp -r /usr/hadoop root@192.168.0.207:/usr/
  格式化namenode
  ./bin/hdfs namenode -format
  启动hdfs
  ./sbin/start-dfs.sh  ./sbin/start-yarn.sh
  使用jps测试
  访问192.168.0.228:50070
  192.168.0.228:8088
  安装MySQL和Hive
  本地模式:这种模式是将元数据保存在本地数据库中(一般是MySQL)。这样可以支持多用户,多会话。
  MySQL:
  wget http://dev.mysql.com/get/mysql-community-release-el7-5.noarch.rpm
  rpm -ivh mysql-community-release-el7-5.noarch.rpm
  yum -y install mysql-community-server
  systemctl start mysql  启动
  mysqladmin -uroot password ‘password’为root设置密码
  mysql -uroot -ppassword
  Create database hive;  创建hive库
  grant all on hive.* to 'hive'@'localhost' identified by ‘hive’; 授权
  Hive
  tar zxf apache-hive-1.2.1-bin.tar.gz
  mv apache-hive-1.2.1-bin/ /usr/hadoop/hive
  配置变量
  vim /etc/profile
  export HIVE_HOME=/usr/hadoop/hive
  export PATH=$HIVE_HOME/bin:$HIVE_HOME/conf:$PATH
  执行 source /etc/profile
  mv mysql-connector-java-5.1.31-bin.jar /usr/hadoop/hive/lib
  将JDBC驱动包拷贝到hive的lib下
  cd /usr/hadoop/hive/conf
  Cp hive-default.xml.template hive-site.xml
  Vim hive-site.xml 更改配置文件
  Cd /usr/hadoop/hive/bin/
  启动Hive
  安装zookeeper和Hbase
  1.Zookeeper
  Master配置如下:
  tar zxf zookeeper-3.4.6.tar
  mv zookeeper-3.4.6 /usr/hadoop/zookeeper
  更改文件的拥有者
  Chown -R root:root /usr/hadoop/zookeeper
  cd /usr/hadoop/zookeeper
  mkdir data  创建zookeeper数据存储目录
  配置变量 vim /etc/profile
  加入export ZOOKEEPER_HOME=/usr/hadoop/zookeeper
  export PATH=$PATH:$ZOOKEEPER_HOME/bin
  执行 source /etc/profile
  配置文件存放在conf/目录下,将zoo_sample.cfd文件名称改为zoo.cfg,  配置如下:
  Cp zoo_sample.cfd zoo.cfg
  Vim zoo.cfg
  tickTime=2000
  initLimit=10
  syncLimit=5
  dataDir=/usr/hadoop/zookeeper/data
  clientPort=2181
  输入master和slave的ip地址或主机名:
  server.1=192.168.0.228:2888:3888
  server.2=192.168.0.207:2888:3888
  mkdir data/myid    创建myid文件
  Vim myid
  填写zoo.cfg中本机ip前面server.后边的数字
  1
  将文件拷贝器slave节点
  scp -r /usr/hadoop/zookeeper/ root@192.168.0.207:/root/hadoop/
  Slave配置:
  配置变量 vim /etc/profile
  加入export ZOOKEEPER_HOME=/usr/hadoop/zookeeper
  export PATH=$PATH:$ZOOKEEPER_HOME/bin
  执行 source /etc/profile
  Cd /usr/hadoop/zookeeper/data
  mkdir data/myid    创建myid文件
  Vim myid
  填写zoo.cfg中本机ip前面server.后边的数字
  2
  启动:
  [root@master bin]# /usr/hadoop/zookeeper/bin/zkServer.sh start
  输入jps查看,如图
  安装Hbase
  1、tar解压hbase安装包
  2、配置hbase
  a、/conf/hbase-env.sh
  export JAVA_HOME= /usr/jdk
  export HBASE_MANAGES_ZK=false (可以启用hbase自带的zookeeper,这样也   不用单独安装zookeeper了,如单独安装了,配为false)
  b、conf/hbase-site.xml
  该配置采用了hbase自带的zookeeper
  
  
  hbase.rootdir s
  hdfs://master:9000/hbase
  
  
  hbase.cluster.distributed
  true
  
  
  hbase.zookeeper.quorum
  slave1,slave2,slave3
  
  
  dfs.replication
  2
  
  
  
  
  单独安装的zookeeper采用如下配置
  regionservers
  
  hbase.rootdir
  hdfs://master:9000/hbase
  
  
  hbase.cluster.distributed
  true
  
  
  hbase.zookeeper.quorum
  master,slave1,slave2,slave3
  
  
  dfs.replication
  2
  
  
  
  
  hbase.zookeeper.property.dataDir
  
  /home/hadoop/zk
  
  
  
  注意hbase.rootdir配置需要与hadoop的配置一致。
  c、conf/regionservers
  slave1
  slave2
  slave3
  到此hbase的配置已完成,用scp命令复制到slave1~salve3中。
  启动hbase,
  start-hbase.sh
  用jps观看是否启动正常,或通过浏览器查看,master:60010。


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628175-1-1.html 上篇帖子: Hadoop-2.6.0学习笔记汇总 下篇帖子: [Hadoop in Action] 第1章 Hadoop简介
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表