设为首页 收藏本站
查看: 757|回复: 0

[经验分享] Hadoop Database安装手册

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2017-12-6 11:00:33 | 显示全部楼层 |阅读模式
本文描述在Ubuntu 16.04.3 LTS 安装配置hadoop以及hbase。
1、环境准备
1.1 创建用户

root@bdi:/u01# adduser hadoop
Adding user `hadoop' ...
Adding new group `hadoop' (1002) ...
Adding new user `hadoop' (1002) with group `hadoop' ...
Creating home directory `/home/hadoop' ...
Copying files from `/etc/skel' ...
Enter new UNIX password:
Retype new UNIX password:
passwd: password updated successfully

1.2 配置SSH密钥
为了避免后续启动程序的时候提示输入密码,必须设置localhost的ssh互访。

hadoop@bdi:~$ ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):
Created directory '/home/hadoop/.ssh'.
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/hadoop/.ssh/id_rsa.
Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:8a7/pCryrmEaTS0Gy/Vm0IdJjPt2DJGlXsmBRz82jK8 hadoop@bdi
The key's randomart image is:
+---[RSA 2048]----+
|     o.=+        |
|    .o==.*       |
|  . o.=oB *      |
| . +.=.o = o     |
|  o +.*oS o      |
|   + +o oo       |
|  . +. .E . .    |
|   +...  . o     |
|  . .=o.ooo..    |
+----[SHA256]-----+
hadoop@bdi:~$ cd .ssh/
hadoop@bdi:~/.ssh$ ssh-copy-id -i id_rsa.pub localhost
/usr/bin/ssh-copy-id: INFO: Source of key(s) to be installed: "id_rsa.pub"
The authenticity of host 'localhost (127.0.0.1)' can't be established.
ECDSA key fingerprint is SHA256:1tE3j//p5LSl88OgjJBzZQHvOaHayRDoRk0qp3J3ABk.
Are you sure you want to continue connecting (yes/no)? yes
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
hadoop@localhost's password:
Number of key(s) added: 1
Now try logging into the machine, with:   "ssh 'localhost'"
and check to make sure that only the key(s) you wanted were added.

1.3 安装JDK
这里从官方下载的JDK版本为1.8,直接解压即可。

root@bdi:~#  mkdir /usr/java
root@bdi:~#  cd /usr/java
root@bdi:~#  tar -xzf /root/jdk-8u152-linux-x64.tar.gz
编辑/etc/profile,加入以下内容:
export JAVA_HOME=/usr/java/jdk1.8.0_152
export JRE_HOME=${JAVA_HOME}/jre  
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib  
export PATH=${JAVA_HOME}/bin:$PATH
root@bdi:~# java -version
java version "1.8.0_152"
Java(TM) SE Runtime Environment (build 1.8.0_152-b16)
Java HotSpot(TM) 64-Bit Server VM (build 25.152-b16, mixed mode)
root@bdi:~# alternatives --install /usr/bin/java java usr/local/java/bin/java 2
root@bdi:~# alternatives --install /usr/bin/javac javac usr/local/java/bin/javac 2
root@bdi:~# alternatives --install /usr/bin/jar jar usr/local/java/bin/jar 2
root@bdi:~# alternatives --set java usr/local/java/bin/java
root@bdi:~# alternatives --set javac usr/local/java/bin/javac
root@bdi:~# alternatives --set jar usr/local/java/bin/jar

2、Hadoop安装配置
Hadoop当前的稳定版为2.9,下载链接:Hadoop。
2.1 安装

hadoop@bdi:~$ wget https://mirrors.cnnic.cn/apache/ ... hadoop-2.9.0.tar.gz
hadoop@bdi:~$ cd /u01
hadoop@bdi:~$ tar -xzf /home/hadoop/hadoop-2.9.0.tar.gz

Hadoop安装已完成,设置hadoop用户环境变量,加入以下内容:

hadoop@bdi:~$ vi .bashrc
export HADOOP_HOME=/u01/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
hadoop@bdi:~$ source .bashrc
hadoop@bdi:~$ hadoop version
Hadoop 2.9.0
Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r 756ebc8394e473ac25feac05fa493f6d612e6c50
Compiled by arsuresh on 2017-11-13T23:15Z
Compiled with protoc 2.5.0
From source with checksum 0a76a9a32a5257331741f8d5932f183
This command was run using /u01/hadoop/share/hadoop/common/hadoop-common-2.9.0.jar
如果能显示出版本信息,则说明安装成功。

2.2 Hadoop配置
Hadoop的配置文件位于$HADOOP_HOME/etc目录下,下面对各种配置文件进行修改。

    JAVA_HOME环境变量设置
    编辑hadoop-env.sh文件,设置JAVA_HOME环境变量,如下:

    export JAVA_HOME=/usr/java/jdk1.8.0_152

    修改core-site.xml文件
    此文件包含了hadoop实例的端口号,分配给文件系统的内存大小,读写缓存等信息。加入以下内容:

    <configuration>
          <property>
          <name>fs.defaultFS</name>
          <value>hdfs://localhost:9000</value>
          </property>
    </configuration>

    修改 hdfs-site.xml文件
    此文件包含了本地文件系统的同步数据、namenode路径和datanode路径信息。加入以下内容:

    <configuration>
      <property>
          <name>dfs.replication</name>
          <value>1</value>
      </property>
          <property>
          <name>dfs.name.dir</name>
          <value>file:///u01/hadoop/hdfs/namenode</value>
      </property>
      <property>
          <name>dfs.data.dir</name>
          <value>file:///u01/hadoop/hdfs/hdfs/datanode</value>
      </property>
    </configuration>

    修改yarn-site.xml文件
    此文件主要针对hadoop的yarn配置,加入以下内容:

    <configuration>
      <property>
          <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
      </property>
    </configuration>

    修改mapred-site.xml文件

    <configuration>
      <property>
          <name>mapreduce.framework.name</name>
          <value>yarn</value>
      </property>
    </configuration>

    3、验证hadoop安装
    3.1 配置Name Node
    执行hdfs进行格式化操作。

    hadoop@bdi:~$ hdfs namenode -format
    ......
    /************************************************************
    STARTUP_MSG: Starting NodeManager
    STARTUP_MSG:   host = bdi/192.168.120.95
    STARTUP_MSG:   args = []
    STARTUP_MSG:   version = 2.9.0
    ......
    /************************************************************
    SHUTDOWN_MSG: Shutting down NameNode at bdi/192.168.120.95
    ************************************************************/

    3.2 验证hadoop的dfs

    hadoop@bdi:~$ start-dfs.sh

    3.3 验证hadoop的yarn

    hadoop@bdi:~$ start-yarn.sh

    3.4 使用浏览器访问hadoop
    使用浏览器访问地址:http://127.0.0.1:50070
watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=.jpg
3.5 验证集群的所有应用
浏览器访问:http://localhost:8088
watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=.jpg
4 安装Hbase
这里使用的版本是hbase-1.2.6
    hadoop@bdi:~$ wget https://mirrors.cnnic.cn/apache/ ... se-1.2.6-bin.tar.gz
    hadoop@bdi:~$ cd /u01
    hadoop@bdi:~$ tar -xzf /home/hadoop/hbase-1.2.6-bin.tar.gz

    4.1 配置Hbase为单机版模式
    单机版模式配置很简单,首先编辑hbase-env.sh文件,配置JDK的JAVA_HOME环境变量,其次是编辑hbase-site.xml文件,加入以下内容:

<configuration>
<property>
<name>hbase.rootdir</name>
<value>file:///u01/hbase</value>
</property>

<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/u01/hbase/zookeeper</value>
</property>
</configuration>

最后,执行start-hbase.sh启动即可。
4.2 配置Hbase为伪分布模式
修改hbase-site.xml文件,加入以下内容:

<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:9000/hbase</value>
</property>

<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/u01/hbase/hdata</value>
</property>

<property>
  <name>hbase.cluster.distributed</name>
  <value>true</value>
</property>
</configuration>

注意:这里定义的hdfs的端口号要和$HADOOP_HOME/etc/hadoop/core-site.xml文件里的一致。
最后执行start-hbase.sh启动即可。
4.3 检查HDFS的HBASE目录信息
执行图中的命令,如下:

watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=.jpg
4.4 Hbase的web interface
浏览器访问:http://localhost:16010 ,如图所示:
watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=.jpg
参考文献:
                    1、Ubuntu 16.04 Hbase 本地安装配置

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-421189-1-1.html 上篇帖子: hadoop伪分布式部署 下篇帖子: hadoop-2.7.4+hbase-1.3.1+zookeeper-3.4.9搭建分布式集群环境
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表