设为首页 收藏本站
查看: 944|回复: 0

[经验分享] 第二章 伪分布式安装hadoop hbase

[复制链接]

尚未签到

发表于 2015-7-14 09:38:51 | 显示全部楼层 |阅读模式
  安装单机模式的hadoop无须配置,在这种方式下,hadoop被认为是一个单独的java进程,这种方式经常用来调试。所以我们讲下伪分布式安装hadoop.
  我们继续上一章继续讲解,安装完先试试SSH装上没有,敲命令,注意:这个安装是hadoop伪分布式的安装,配置集群我在后面讲!!!!!!!!
  ls -a
DSC0000.jpg
  如果没有ssh,输入命令
  ssh     查看
DSC0001.png
  ssh localhost
DSC0002.png
  其实这个代表已经装上了
  如果没有在进行下面的命令:
  sudo  apt-get  install  openssh-server   下载
  mkdir .ssh     自己创建ssh
  chmod 777 .ssh
  代表安装上了ssh,接下来我们要为虚拟机分配一个静态的ip
  一:配置静态IP
  1. sudo -i  获取最高用户级别
  2.nano /etc/network/interface,把IP改成静态的,加上address,netmask,gateway,修改完以后ctrl+o保存,
  然后回车,ctrl+x切换到输入行。
DSC0003.jpg
  3.nano /etc/resolv.conf
DSC0004.jpg
  4.reboot 重新启动
  启动完把网络转成桥接网卡,试试看能不能上网,如果网不能上,你在查看下第3步有没有改成功。
  在这里我们假设可以OK上网了
  做好准备工作,下载jdk-7u3-linux-i586.tar 这个软件包和hadoop-1.1.2-1374045102000.tar软件包
  二:配置JDK
  1.tar zxvf jdk-7u3-linux-i586.tar.gz 解压jdk
  tar zxvf hadoop-1.1.2-1374045102000.tar.gz 解压hodoop
  2.sudo -i
  3.nano /etc/profile,在最下面加入这几句话,保存
DSC0005.jpg
  验证jdk是否安装成功,敲命令
  java
DSC0006.jpg
  
  javac
DSC0007.jpg
  
  这样就代表jdk安装成功了。
  三:配置SSH  免密码登陆
  1。sudo -i
  2.ssh-keygen  -t  dsa  -P  ' '  -f  ~/.ssh/id_dsa
  ssh-keygen代表生成密钥,-t代表指定生成的密钥类型,dsa代表密钥类型,-P代表提供密语
  -f代表生成的密钥文件
DSC0008.jpg
  3.cat  ~/.ssh/id_dsa.pub  >>  ~/.ssh/authorized_keys
  4.ssh localhost   没有让你输入密码就代表ssh装成功了
  或者 ls  .ssh/      看看有没有那几个文件
DSC0009.jpg
  
  四。配置Hadoop
  上面已经解压完hadoop
  1.sudo  -i
  2.nano  /home/tree/hadoop-1.1.2/conf/hadoop-env.sh  指定JDK的安装位置
  在文本最下面加入export JAVA_HOME=/home/tree/jdk1.7.0_03
DSC00010.jpg
  3.nano  /home/tree/hadoop-1.1.2/conf/core-site.xml   修改核心文件
DSC00011.png
  4.nano  /home/tree/hadoop-1.1.2/conf/hdfs-site.xml    修改HDFS配置,配置的备份
  方式默认是3,在单机版本中,需要将其改为1
DSC00012.png
  5.nano  /home/tree/hadoop-1.1.2/conf/mapred-site.xml  MapReduce的配置文件,配置
  jobTracker的地址及端口
DSC00013.jpg
  
  6.chown  -R  tree:tree  /home/tree/hadoop-1.1.2       给用户赋予权限
  7.exit   返回到tree用户
  8.cd /home/tree/hadoop-1.1.2/
  9.bin/hadoop namenode -format    需要格式化Hadoop文件系统HDFS,记住,格式化一次就可以了,以后修改哪里都不需要在格式化了,记住,上面
  配置都正确就可以格式化了
  10.bin/start-all.sh    输入命令,启动所有线程
  bin/stop-all.sh   输入命令,关闭所有线程
  
  验证Hadoop是否安装成功,打开网页,输入:
  http://localhost:50030     (MapReduce的web页面)
DSC00014.jpg
  
  http://localhost:50070     (HDFS的web页面)
DSC00015.jpg
  如果只想启动HDFS (bin/start-dfs.sh)或者MapReduce(bin/start-mapred.sh),输入命令就可以了
  
  一般启动完以后,可以通过jps查看各个状态
   DSC00016.png
  
  
  五:配置HBase
  首先,先到HBase官网上下载http://www.apache.org/dyn/closer.cgi/hbase/  ,下载hbase-0.94.13.tar.gz  版本
  注意:安装hadoop的时候,要注意hbase的版本,如果hadoop与hbase不匹配会影响hbase系统的稳定性。在hbase的lib目录下有对应的hadoop的jar文件,
           如果想使用其它hadoop版本,那么需要将hadoop系统安装目录hadoop-*.*.*-core.jar文件和hadoop-*.*.*-test.jar复制到hbase的lib文件夹下,以
           替换其它版本的hadoop.
  1.tar zxvf hbase-0.94.13.tar.gz    解压HBase
  2. sudo -i  获取最高用户级别
  3.nano /home/tree/hbase-0.94.13/conf/hbase-env.sh   也需要指定JDK位置
  在文本最下面加入export JAVA_HOME=/home/tree/jdk1.7.0_03
DSC00017.png
  4.nano /home/tree/hbase-0.94.13/conf/hbase-site.xml
  配置 hbase-site.xml, 这里将 hbase.rootdir 存放在 HDFS 上,这里端口号一定要和之前设置的 HDFS的 fs.default.name的端口号一致。
  
  这样hbase就配置好了。
DSC00018.jpg
  5. 注意点
由于这样的配置,HBase是依赖与HDFS的文件系统的。所以应当先启动HDFS,之后启动HBase。所以,切记,一定要先启动Hadoop,并且可以通过 http://localhost:50070/dfshealth.jsp 查看HDFS并且可以浏览文件之后再启动HBase。否则 HBase也会出现一切问题,如启动时间过长,Master一直在初始化等等。
  如何启动HDFS命令上面已经讲过了,启动完HDFS以后,页面也正常,再启动HBase
  cd /home/tree/hbase-0.94.13/
  bin/start-hbase.sh
启动完以后,查看运行状态

  • 如果你需要对HBase的日志进行监控你可以查看 hbase.x.x./logs/下的日志文件,可以使用tail -f 来查看。
  • 通过 web方式查看运行在 HBase 下的zookeeper http://localhost:60010/zk.jsp
  • 如果你需要查看当前的运行状态可以通过web的方式对HBase服务器进行查看,输入http://localhost:60010/master-status 如图所示:
DSC00019.jpg DSC00020.jpg
  
  删除文件夹的命令  rm -rf  文件名
  使用: bin/hbase shell 进入HBase命令行模式
DSC00021.jpg
  进入hbase shell,输入help之后,可以获取hbase shell 所支持的命令。
DSC00022.jpg
  
  
  
  
  
  
  
  
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-86513-1-1.html 上篇帖子: 读书笔记-Hadoop实战-4 下篇帖子: Hadoop 学习总结之五:Hadoop的运行痕迹
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表