设为首页 收藏本站
查看: 2116|回复: 0

[经验分享] Hadoop+Hbase 安装配置实录

[复制链接]

尚未签到

发表于 2018-10-31 10:24:54 | 显示全部楼层 |阅读模式
  生产环境:
  3台机器:master(192.168.0.61),slave1(192.168.0.62),slave2(192.168.0.63)
  注意:hostname设置为master/slave1/slave2
  操作系统:rhel5.4 x86_64
  master做为namenonde,将slave1和slave2做为datanode
  1.在master:(在slave1和slave2上操作和以下相同)
  vi /etc/hosts
  192.168.0.61  master
  192.168.0.62  slave1
  192.168.0.63  slave2
  2.用root操作
  3.免密码登录
  #ssh-keygen -t rsa #建立ssh目录,敲回车到底 ,这一步需要先在每台机器上执行。
  在master上
  #scp ~/.ssh/id_rsa.pub root@slave1:/root/.ssh/id_rsa.pub_m 将master上的密钥传到slave1的/home/hadoop下
  在slave1上
  #cat /root/.ssh/id_rsa.pub_m >> ~/.ssh/authorized_keys
  #chmod 644 ~/.ssh/authorized_keys
  反复操作第3步,完成masterslave1 masterslave2的免密码登录
  这样主节点和从节点之间就可以不用密码直接ssh访问,另外,在启动hadoop时需要master ssh master,

  因此,在master的~/.ssh下,也执行下cat>  4.安装JDK到/usr/local下命名为jdk6
  然后:
  编辑三台机器的/etc/profile,增加如下内容
  export JAVA_HOME=/usr/local/jdk6

  export>  export HADOOP_HOME=/hadoop/hadoop
  export HBASE_HOME=/hadoop/hbase
  PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin
  #vi /root/.bashrc
  增加
  export HADOOP_CONF_DIR=/hadoop/hadoop-config
  export HBASE_CONF_DIR=/hadoop/hbase-config
  5、防火墙
  各机器加入iptables策略:
  #iptables -I INPUT -s 192.168.0.0/255.255.255.0 -j ACCPET
  #service iptables save
  -----------------------------------------
  hadoop配置:
  1.下载安装
  #cd /hadoop
  #wget http://labs.renren.com/apache-mirror//hadoop/core/hadoop-0.20.2/hadoop-0.20.2.tar.gz
  #tar -zxvf hadoop-0.20.2.tar.gz
  #ln -s hadoop-0.20.2 hadoop
  由于上述目录中hadoop的配置文件和hadoop的安装目录是放在一起的,这样一旦日后升级hadoop版本的时候所有的配置文件都会被覆盖,因 此将配置文件与安装目录分离,一
  种比较好的方法就是建立一个存放配置文件的目录,/hadoop/hadoop-config/,然后将 /hadoop/hadoop/conf/目录中的core-site.xml,slaves,hadoop-env.sh,masters, hdfs-
  site.xml,mapred-site.xml,这6个文件拷贝到 /hadoop/hadoop-config/目录中,并指定环境变量$HADOOP_CONF_DIR指向该目录。环境变量在/root/.bashrc 中设定。
  #mkdir /hadoop/hadoop-config
  #cd  /hadoop/hadoop/conf/
  #cp core-site.xml slaves hadoop-env.sh masters hdfs-site.xml mapred-site.xml /hadoop/hadoop-config/
  2.修改6个文件
  masters:
  master
  slaves:
  slave1
  slave2
  #切忌不要创建:/hadoop/hadoop/tmp
  hadoop-env.sh:
  export JAVA_HOME=/usr/local/jdk6
  export HADOOP_PID_DIR=/hadoop/hadoop/tmp
  core-site.xml:
  
  
  
  
  
  fs.default.name
  hdfs://master:54310
  
  
  #切忌不要创建:/hadoop/hadoop/name
  #mkdir /hadoop/hadoop/data
  hdfs-site.xml:
  
  
  
  
  
  dfs.name.dir
  /hadoop/hadoop/name/  #hadoop的name目录路径
  
  
  dfs.data.dir
  /hadoop/hadoop/data/  #hadoop的data目录路径
  
  
  dfs.replication
  3      #指定 HDFS 中每个 Block 被复制的次数,起数据冗余备份的作用。在典型的生产系统中,这个数常常设置为3
  
  
  mapred-site.xml:
  
  
  
  
  
  mapred.job.tracker
  hdfs://master:54311/
  
  
  3、格式化namenode
  #cd /hadoop/hadoop/bin
  #./hadoop namenode -format
  #cd /hadoop
  #scp -r ./* root@slave1:/hadoop/
  #scp -r ./* root@slave2:/hadoop/
  到slave1和slave2上,分别重做软链接
  #cd /hadoop
  #rm -rf hadoop
  #ln -s hadoop-0.20.2 hadoop
  4、启动所有hadoop守护进程
  # ./start-all.sh
  说明:
  在bin/下面有很多启动脚本,可以根据自己的需要来启动。
  * start-all.sh 启动所有的Hadoop守护。包括namenode, datanode, jobtracker, tasktrack
  * stop-all.sh 停止所有的Hadoop
  * start-mapred.sh 启动Map/Reduce守护。包括Jobtracker和Tasktrack
  * stop-mapred.sh 停止Map/Reduce守护
  * start-dfs.sh 启动Hadoop DFS守护.Namenode和Datanode
  * stop-dfs.sh 停止DFS守护
  [root@master bin]# jps
  6813 NameNode
  7278 Jps
  7164 JobTracker
  7047 SecondaryNameNode
  出现4个这样的进程,且datanode没有error,同时访问ui正常才算成功。
  ui:http://masterip:50070  --web UI for HDFS name node(s)
  http://masterip:50030  --web UI for MapReduce job tracker(s)
  http://slaveip:50060    --web UI for task tracker(s)
  5、hdfs简单测试
  #cd /hadoop/hadoop/bin
  #./hadoop dfs -mkdir testdir
  #./hadoop dfs -put /root/install.log testdir/install.log-dfs
  将/root/install.log 存储到hdfs中的testdir中,重命名为install.log-dfs
  #./hadoop dfs -ls
  #./hadoop dfs -ls testdir
  ----------------------------------
  1、hbase安装部署
  #cd /hadoop
  #wget http://apache.etoak.com//hbase/hbase-0.20.6/hbase-0.20.6.tar.gz
  #tar -zxvf hbase-0.20.6.tar.gz
  #ln -s hbase-0.20.6 hbase
  #mkdir hbase-config
  #cd /hadoop/hbase/conf/
  #cp hbase-env.sh hbase-site.xml regionservers /hadoop/hbase-config/
  2、配置文件修改
  #mkdir /hadoop/hbase/tmp
  #vim /hadoop/hbase-config/hbase-env.sh
  增加
  export JAVA_HOME=/usr/local/jdk6
  export HBASE_MANAGES_ZK=true
  export HBASE_PID_DIR=/hadoop/hbase/tmp
  #vim hbase-site.xml
  
  
  
  
  hbase.rootdir
  hdfs://master:54310/hbase 注意主机名和端口号要与hadoop的dfs name的对应
  
  
  hbase.cluster.distributed
  true
  
  
  hbase.zookeeper.quorum
  master
  
  
  zookeeper.session.timeout
  60000
  
  
  hbase.zookeeper.property.clientPort
  2222
  
  
  配置hbase服务器名称
  #vi regionservers
  slave1
  slave2
  3、复制hbase文件
  在master上
  #cd /hadoop
  #scp -r  hbase-0.20.6 hbase-0.20.6.tar.gz hbase-config root@slave1:/hadoop/
  #scp -r  hbase-0.20.6 hbase-0.20.6.tar.gz hbase-config root@slave2:/hadoop/
  在slave1和slave2上,分别重做软链接
  #cd /hadoop
  #ln -s  hbase-0.20.6 hbase
  4、测试
  在master上启动
  #cd /hadoop/hbase/bin
  #./hbase shell
  HBase Shell; enter 'help' for list of supported commands.
  Version: 0.20.6, r965666, Mon Jul 19 16:54:48 PDT 2010
  hbase(main):001:0> create 'test','data'
  0 row(s) in 1.1920 seconds
  hbase(main):002:0> list
  test
  1 row(s) in 0.0200 seconds
  hbase(main):003:0> quit
  ----------------------------------------------
  总结:
  在安装hadoop-0.21.0+hbase-0.20.6过程中,出现:org.apache.hadoop.hbase.masternotrunningexception异常。
  使用hadoop-0.20.2+hbase-0.20.6问题解决。
51cto.com/a/luyoujiaohuan/index.html  http://www.net527.com
linux系统思科论坛Cisco


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628848-1-1.html 上篇帖子: hadoop1.x作业提交过程分析(源码分析第二篇) 下篇帖子: Hadoop与FTP、HTTP协议的文件存取性能对比试验
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表