设为首页 收藏本站
查看: 4939|回复: 0

[经验分享] Hadoop 配置-启动 过程中遇到的问题

[复制链接]

尚未签到

发表于 2015-7-13 08:23:18 | 显示全部楼层 |阅读模式
  Hadoop开发需要最基本的Hadoop环境,在之后我会将过程中遇到的一系列问题分享一下,借鉴之。(持续更新中)
  我这里搭的环境是 namenode 1台(192.168.0.2),datanode 3台(192.168.0.3,192.168.0.4,192.168.0.5)。
  
  需要注意的问题:
  0. 由于Linux的安全性比Windows管理的要严格的多,所以在配置Hadoop的时候所做的所有工作都在hadoop用户下进行,这个非常重要,会减少以后遇到的问题,很多问题都是没有Linux用户权限造成的,如果没有的话,要在root用户下使用 chown -R hadoop:hadoop dir 将dir文件夹改成hadoo用户(hadoop用户也即我搭建的系统hadoop用户)。这个非常重要!除了一些Linux系统配置文件编辑的时候和停止、启动一些系统服务(如防火墙)的时候需要root用户,其他的时候的操作要使用hadoop用户。重要!
  1. SSH无密码登录一定要提前配置好,个人设置的是namenode和datanode之间都可以通过ssh无密码登录,而不仅仅是namenode登录datanode。
  使用 ssh hadoop@192.168.0.3 (根据自己的配置来进行修改登录名和ip地址)来进行测试,看是否能进行无密码登录,这个ssh无密码登录一定要通过
  2. 防火墙关闭。 service iptables stop
  3. 格式化工作只需要namenode来做,datanode不能做这个工作(否则datanode是不可能启动起来的),格式化工作命令为: bin/hadoop namenode -format。
  4. 可以通过一些命令来查看是否正确启动,而不是“认为”它启动成功了。
  jps             #Java的查看当前启动的线程。如果正常启动,datanode端通常会显示三个,分别是:jps、datanode和tasktracker
  hadoop dfsadmin -report  #在namenode端执行该命令查看已经启动的datanode和tasktracker
  http://master:50070 和 http://master:500701 查看dfs和map-reduce的去年概况
  5. 做实验不可能让电脑一直开着,晚上要关闭这个系统,个人尝试在关闭后是可以再次正常启动的,不过关闭顺序是:先stop-mapred.sh, 然后stop-dfs.sh, 然后再去关闭机器就OK了。
  6. 遇到启动不起来其他slaves上的datanode和tasktracker问题时,需要:
  删除主tmp文件夹下的所有内容(因为这个里面的/dfs/data/current/VERSION中的namespaceID在namenode进行重新格式化的时候会不统一,这样就不能通过namenode来启动这些datanode)
  关闭防火墙 service iptables stop
  然后启动就OK了
  7. 最基本的配置只要完成对conf文件夹下的4个文件5处地方进行修改即可正常启动,如果启动遇到问题,你就是其他的问题,不是配置的问题。
  hadoop-env.sh    修改JAVA_HOME;
  core-site.xml     修改fs.default.name和hadoop.tmp.dir;(我的修改为:hdfs://192.168.0.2:9000和/usr/hadoop/tmp。 注:我的hadoop是安装在/usr/hadoop下)
  hdfs-site.xml     修改dfs.replication;(我的修改为:1)
  mapred-site.xml    修改maprd.job.tracker;(我的修改为:192.168.0.2:9001)
  8. 在cluster建立的过程中,conf/文件夹下的master和slaves要进行修改,根据自己的配置来进行修改。
  我的修改为:
  master:
  192.168.0.2
  slaves:
  192.168.0.3
  192.168.0.4
  192.168.0.5
  9. Hadoop虽然提供了一些人为的File System Shell命令,比如 bin/hadoop fs -mkdir input,最后的这个存放位置,不像Windows下那么复杂的文件夹结构。
  个人觉得很多上传的文件在Hadoop中没什么文件夹概念。所以input文件夹Hadoop会自动将它放在根目录上,不要写成/usr/hadoop/input,这样会出现找不到input文件夹的问题。
  
  
  遇到的问题:
  1. 遇到无法启动datanode(即(1)在datanode上打jps的时候没有datanode和tasktracker进程(2)在namenode进行stop的时候是no namenode to stop提示)的时候,见 上6 .
  2. 遇到无权限进行读写的的时候,见 上0 .
  3. 遇到retrying N time(s)的问题,遇到这种情况可能有很多种原因,网上有一些其他的说明,不过没有启动jobtracker但是要使用map-reduce模块的话也会遇到这样的问题,即要启动 start-mapred.sh,由于以前只启动hdfs然后要进行wordcount的测试程序,没有启动jobtracker就进行了测试,囧~ 所以有必要看看自己是否没有启动jobtracker就使用了它。
  4. 遇到 hdfs://master:dfsport/install_dir/input 不存在问题。可能的原因是:上9 .
  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85932-1-1.html 上篇帖子: hadoop集群搭建总结 下篇帖子: Hadoop学习笔记(三):Combiner funcitons
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表