设为首页 收藏本站
查看: 665|回复: 0

[经验分享] hadoop程序运行

[复制链接]
累计签到:8 天
连续签到:1 天
发表于 2015-7-12 12:23:02 | 显示全部楼层 |阅读模式
  hadoop命令的使用:
  Usage: hadoop [--config confdir] COMMAND
  这里COMMAND为下列其中一个:

namenode -format        格式化DFS文件系统  
secondarynamenode       运行DFS的第二个namenode  
namenode                    运行DFS的namenode  
datanode                    运行一个DFS的datanode  
dfsadmin            运行一个DFS的admin 客户端  
fsck                运行一个DFS文件系统的检查工具  
fs                  运行一个普通的文件系统用户客户端  
balancer            运行一个集群负载均衡工具  
jobtracker          运行MapReduce的jobTracker节点  
pipes               运行一个Pipes作业  
tasktracker     运行一个MapReduce的taskTracker节点  
job                 处理MapReduce作业  
version         打印版本  
jar        运行一个jar文件  
distcp     递归地复制文件或者目录  (采用分布式复制方法,一般用于两个HDFS集群中)
archive -archiveName NAME *  生成一个Hadoop档案       (将har当作一个新的文件系统,《权威指南3.8节》)
daemonlog               获取或设置每个daemon的log级别  
或CLASSNAME              运行名为CLASSNAME的类大多数命令会在使用w/o参数  
时打出帮助信息。

  • hadoop程序的编译:(我是用的hadoop版本为hadoop-0.20.203.0)
  1.注意的是要将hadoop的core包加入到classpath中,命令如下:
  javac -classpath ~/hadoop-0.20.203.0/hadoop-core-0.20.203.0.jar  FileSystemDoubleCat.java
  (这里还有一个疑问:我用通配符添加jar包时一直失败(使用 *.jar),提示找不到类??????)


  • 运行hadoop程序的方法如下:
  1.直接使用hadoop CLASSNAME 【args】 运行,
  ( 注意此时需设置环境变量 HADOOP_CLASSPATH中包含当前类。其中当前目录中应该包含.class文件,这个可以通过在eclipse中的bin文件下取得,或用上面的方法进行编译)
  如:hadoop FileSystemDoubleCat hdfs://localhost:9000/user/kqiao/uploadFile
  2.将程序打包成jar包,然后使用hadoop jar命令运行。
  这只相当于将上面中的.class文件打包,然后运行该jar文件。(注意,如果以集群模式下运行hadoop,则只能使用这种方法,因为需要在各网络节点上分发jar包)并且主程序中要有:
  job.setJarByClass(MaxTemperature.class)这句,用于设定jar类
  命令如下:jar -cvf FileSystemDoubleCat.jar FileSystemDoubleCat.class
                    hadoop jar FileSystemDoubleCat.jar FileSystemDoubleCat hdfs://localhost:9000/user/kqiao/uploadFile
  3.安装eclipse的hadoop插件,直接在eclipse中编辑程序,然后运行
  这应该算是最简单的运行方法了吧。。。。
  在run configuration下完成配置,然后 run on hadoop即可。
  -----------------------------------------------------------------------------------------------------------------------------------
  以后记录我在运行中遇到的问题~
  (1)-D mapred.reduce.tasks=2   或  job.setNumReduceTasks(2) 设置reducer的数量   
  (换了一个hadoop版本,不知道为什么,使用-D  选项设置reducer数量失败了,没有报错,但是reducer保持为1,只能使用job.set来设置?未解决。。)
  (2)如果已经确定有某类的存在,却一直提示找不到该类,一般是因为class_path的设置问题。
  (3)如果自定义的mapper类是主类的内部类时,一定记得将其定义为static。
  (4)hadoop程序,如果有运行错误,主要通过查看job或task的日志解决:看看抛出了什么样的异常,在哪个阶段,哪个任务抛出了异常。
  如果是运行结果与预期不符,则通过查看计数器判断那部分出错,另一方面可以在程序中加入输出语句,System.out.println("****");然后在web页面中的job下查看各个job的task日志,看看 stdout log, stderr log进行分析排序。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-85818-1-1.html 上篇帖子: hadoop的dfs.replication 下篇帖子: [转] Hadoop 2.0 详细安装过程
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表