设为首页 收藏本站
查看: 1260|回复: 0

[经验分享] hadoop 伪分布模式

[复制链接]

尚未签到

发表于 2018-11-1 08:38:38 | 显示全部楼层 |阅读模式
  学习hadoop有一个星期了,先是看了看书,hadoop权威指南,很不错的入门级教材。
  书的内容偏向于基础原理,多读几遍会收获很多。
  本人菜鸟一只,为了把自己的学习心得分享给大家,就在此开始记录一下,希望大神们批评指点,好吧,主题开始:
  hadoop 伪分布模式
  操作系统:Centos6.2
  JDK:jdk1.6.0_30
  hadoop版本:hadoop-0.20.203.0
  --建议不在root下操作,可以新建hadoop用户和组
  1.安装JDK环境
  --在/usr/java/目录下解压并安装,安装好之后配置一下环境变量PATH
  --vi或者gedit /etc/profile 在最后添加java环境
  ----export JAVA_HOME=/usr/java/jdk1.6.0_30

  ----export>  ----export PATH=$PATH:$JAVA_HOME/bin
  --环境配置好之后,在终端里输入java -version ,出现版本信息则表示成功,否则可能是环境路径配置有误,请仔细检查。
  2.ssh验证配置
  --Hadoop 需要使用SSH 协议,namenode 将使用SSH 协议启动 namenode和datanode 进程,伪分布式模式数据节点和名称节点均是本身,必须配置 SSH localhost验证。
  --验证步骤有提示就按回车
  ----$ssh-keygen -t  rsa
  有提示就按回车 然后通过命令行cd .ssh进入目录  执行下面的命令,就会设置好无密码登录了

  ----$cat>  3.host主机的设置
  127.0.0.1 localhost.localdomain localhost
  ::1 localhost6.localhostdomain6 localhost6
  127.0.0.1 namenode datanode01
  4.hadoop安装与配置
  --在用户目录下解压hadoop并进行配置
  ----在conf目下找到hadoop-env.sh,打开编辑器添加下面的jdk安装路径
  #set java env
  export JAVA_HOME=/usr/java/jdk1.6.0_30
  --/conf/配置core-site.xml
  
  fs.default.name
  hdfs://namenode:9000/
  
  
  hadoop.tmp.dir
  /home/hadoop/hadooptmp
  
  -- 配置hdfs-site.xml
  
  dfs.name.dir
  /home/hadoop/hdfs/name
  
  
  dfs.data.dir
  /home/hadoop/hdfs/data
  
  
  dfs.replication
  1
  
  --配置mapred-site.xml
  
  mapred.job.tracker
  namenode:9001
  
  --配置master,slaves文件
  vi master 内容修改为 namenode
  vi slaves 内容修改为 datanode01
  hadoop伪分布模式算是基本配置好,然后测试一下吧
  hadoop namenoede -format 格式化一下
  ./start-all.sh 启动所有守护进程
  然后jps一下 会看到下面的内容
  6179 JobTracker
  6296 TaskTracker
  6367 Jps
  5883 NameNode
  6002 DataNode
  6111 SecondaryNameNode
  这样才算是真正跑起来了
  大家快来试试吧!
  文章比较简略,我也是配置了大半天才成功,现在正在研究Hbase+Hive,就写到这吧。


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-629165-1-1.html 上篇帖子: 重新build hadoop后进入hive客户端异常 下篇帖子: Hadoop---安装Hadoop
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表