设为首页 收藏本站
查看: 1048|回复: 0

Hadoop本地模式

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2015-11-11 13:28:58 | 显示全部楼层 |阅读模式
  如何安装和配置Hadoop已经有很多资料可以查了,官方文档http://hadoop.apache.org/common/docs/r0.19.2/cn/quickstart.html。
  

  但是还是经常会出一些问题。本地模式是推荐的开发模式,在Windows上配合Cygwin容易出错。
  

  Hadoop的三种模式:
  

  • 单机模式
  • 伪分布式模式
  • 完全分布式模式
分布式模式增加了NameNode和JobTracker,也就是默认需要连接到一些本地端口(localhost:9000,localhost:9001),不能直接用hadoop命令执行jar文件。需要事先启动HDFS和JobTracer(可以调用start-all.sh)。
Hadoop默认就是单机模式,因为安装完成后修改JAVE_HOME路径即可。该配置在conf\hadoop-env.sh中,写上Java的安装路径即可。安装路径为Windows安装路径也没有问题,Cygwin会做路径的转换访问。如果路径中带有空格,需要用引号把整个路径括起来。例如export JAVA_HOME='E:/Java/jdk16'
然后可以试试快速入门的示例了$ mkdir input
$ cp conf/*.xml input
$ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+'
$ cat output/*

如果没有问题,第三条命令会输出执行的Log:$ bin/hadoop jar hadoop-*-examples.jar grep input output 'dfs[a-z.]+'
12/01/08 13:52:03 INFO jvm.JvmMetrics: Initializing JVM Metrics with processName
=JobTracker, sessionId=
12/01/08 13:52:03 INFO mapred.FileInputFormat: Total input paths to process : 4
12/01/08 13:52:04 INFO mapred.JobClient: Running job: job_local_0001
12/01/08 13:52:04 INFO mapred.FileInputFormat: Total input paths to process : 4
12/01/08 13:52:04 INFO mapred.MapTask: numReduceTasks: 1
12/01/08 13:52:04 INFO mapred.MapTask: io.sort.mb = 100
12/01/08 13:52:04 INFO mapred.MapTask: data buffer = 79691776/99614720
12/01/08 13:52:04 INFO mapred.MapTask: record buffer = 262144/327680
12/01/08 13:52:04 INFO mapred.MapTask: Starting flush of map output
12/01/08 13:52:04 INFO mapred.TaskRunner: Task:attempt_local_0001_m_000000_0 is
done. And is in the process of commiting
12/01/08 13:52:04 INFO mapred.LocalJobRunner: file:/E:/Apache/hadoop/run/hadoop-
0.20.2/input/capacity-scheduler.xml:0+3936
12/01/08 13:52:04 INFO mapred.TaskRunner: Task 'attempt_local_0001_m_000000_0' d
one.
12/01/08 13:52:05 INFO mapred.MapTask: numReduceTasks: 1
12/01/08 13:52:05 INFO mapred.MapTask: io.sort.mb = 100
12/01/08 13:52:05 INFO mapred.MapTask: data buffer = 79691776/99614720
12/01/08 13:52:05 INFO mapred.MapTask: record buffer = 262144/327680
12/01/08 13:52:05 INFO mapred.MapTask: Starting flush of map output
12/01/08 13:52:05 INFO mapred.MapTask: Finished spill 0
12/01/08 13:52:05 INFO mapred.TaskRunner: Task:attempt_local_0001_m_000001_0 is
done. And is in the process of commiting
12/01/08 13:52:05 INFO mapred.LocalJobRunner: file:/E:/Apache/hadoop/run/hadoop-
0.20.2/input/core-site.xml:0+13486
12/01/08 13:52:05 INFO mapred.TaskRunner: Task 'attempt_local_0001_m_000001_0' d
one.
12/01/08 13:52:05 INFO mapred.MapTask: numReduceTasks: 1
12/01/08 13:52:05 INFO mapred.MapTask: io.sort.mb = 100
12/01/08 13:52:05 INFO mapred.JobClient:  map 100% reduce 0%
12/01/08 13:52:05 INFO mapred.MapTask: data buffer = 79691776/99614720
12/01/08 13:52:05 INFO mapred.MapTask: record buffer = 262144/327680
12/01/08 13:52:05 INFO mapred.MapTask: Starting flush of map output
12/01/08 13:52:05 INFO mapred.MapTask: Finished spill 0
12/01/08 13:52:05 INFO mapred.TaskRunner: Task:attempt_local_0001_m_000002_0 is
done. And is in the process of commiting
12/01/08 13:52:05 INFO mapred.LocalJobRunner: file:/E:/Apache/hadoop/run/hadoop-
0.20.2/input/hdfs-default.xml:0+10686
12/01/08 13:52:05 INFO mapred.TaskRunner: Task 'attempt_local_0001_m_000002_0' d
one.
12/01/08 13:52:05 INFO mapred.MapTask: numReduceTasks: 1
12/01/08 13:52:05 INFO mapred.MapTask: io.sort.mb = 100
12/01/08 13:52:05 INFO mapred.MapTask: data buffer = 79691776/99614720
12/01/08 13:52:05 INFO mapred.MapTask: record buffer = 262144/327680
12/01/08 13:52:05 INFO mapred.MapTask: Starting flush of map output
12/01/08 13:52:05 INFO mapred.TaskRunner: Task:attempt_local_0001_m_000003_0 is
done. And is in the process of commiting
12/01/08 13:52:05 INFO mapred.LocalJobRunner: file:/E:/Apache/hadoop/run/hadoop-
0.20.2/input/mapred-site.xml:0+29907
12/01/08 13:52:05 INFO mapred.TaskRunner: Task 'attempt_local_0001_m_000003_0' d
one.
12/01/08 13:52:05 INFO mapred.LocalJobRunner:
12/01/08 13:52:05 INFO mapred.Merger: Merging 4 sorted segments
12/01/08 13:52:05 INFO mapred.Merger: Down to the last merge-pass, with 2 segmen
ts left of total size: 1610 bytes
12/01/08 13:52:05 INFO mapred.LocalJobRunner:
12/01/08 13:52:05 INFO mapred.TaskRunner: Task:attempt_local_0001_r_000000_0 is
done. And is in the process of commiting
12/01/08 13:52:05 INFO mapred.LocalJobRunner:
12/01/08 13:52:05 INFO mapred.TaskRunner: Task attempt_local_0001_r_000000_0 is
allowed to commit now
12/01/08 13:52:05 INFO mapred.FileOutputCommitter: Saved output of task 'attempt
_local_0001_r_000000_0' to file:/E:/Apache/hadoop/run/hadoop-0.20.2/grep-temp-18
85996921
12/01/08 13:52:05 INFO mapred.LocalJobRunner: reduce > reduce
12/01/08 13:52:05 INFO mapred.TaskRunner: Task 'attempt_local_0001_r_000000_0' d
one.
12/01/08 13:52:06 INFO mapred.JobClient:  map 100% reduce 100%
12/01/08 13:52:06 INFO mapred.JobClient: Job complete: job_local_0001
12/01/08 13:52:06 INFO mapred.JobClient: Counters: 13
12/01/08 13:52:06 INFO mapred.JobClient:   FileSystemCounters
12/01/08 13:52:06 INFO mapred.JobClient:     FILE_BYTES_READ=947721
12/01/08 13:52:06 INFO mapred.JobClient:     FILE_BYTES_WRITTEN=866633
12/01/08 13:52:06 INFO mapred.JobClient:   Map-Reduce Framework
12/01/08 13:52:06 INFO mapred.JobClient:     Reduce input groups=49
12/01/08 13:52:06 INFO mapred.JobClient:     Combine output records=49
12/01/08 13:52:06 INFO mapred.JobClient:     Map input records=1776
12/01/08 13:52:06 INFO mapred.JobClient:     Reduce shuffle bytes=0
12/01/08 13:52:06 INFO mapred.JobClient:     Reduce output records=49
12/01/08 13:52:06 INFO mapred.JobClient:     Spilled Records=98
12/01/08 13:52:06 INFO mapred.JobClient:     Map output bytes=1576
12/01/08 13:52:06 INFO mapred.JobClient:     Map input bytes=58015
12/01/08 13:52:06 INFO mapred.JobClient:     Combine input records=53
12/01/08 13:52:06 INFO mapred.JobClient:     Map output records=53
12/01/08 13:52:06 INFO mapred.JobClient:     Reduce input records=49
12/01/08 13:52:06 INFO jvm.JvmMetrics: Cannot initialize JVM Metrics with proces
sName=JobTracker, sessionId= - already initialized
12/01/08 13:52:06 WARN mapred.JobClient: Use GenericOptionsParser for parsing th
e arguments. Applications should implement Tool for the same.
org.apache.hadoop.mapred.FileAlreadyExistsException: Output directory file:/E:/A
pache/hadoop/run/hadoop-0.20.2/output already exists
        at org.apache.hadoop.mapred.FileOutputFormat.checkOutputSpecs(FileOutput
Format.java:111)
        at org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:7
72)
        at org.apache.hadoop.mapred.JobClient.submitJob(JobClient.java:730)
        at org.apache.hadoop.mapred.JobClient.runJob(JobClient.java:1249)
        at org.apache.hadoop.examples.Grep.run(Grep.java:84)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
        at org.apache.hadoop.examples.Grep.main(Grep.java:93)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.
java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAcces
sorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(Progra
mDriver.java:68)
        at org.apache.hadoop.util.ProgramDriver.driver(ProgramDriver.java:139)
        at org.apache.hadoop.examples.ExampleDriver.main(ExampleDriver.java:64)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.
java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAcces
sorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:156)

后面捕获的一个异常是由于输入文件夹以存在,这个是Hadoop的设计哲学。  
         版权声明:本文为博主原创文章,未经博主允许不得转载。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-137928-1-1.html 上篇帖子: Hadoop运行流程分析 下篇帖子: Hadoop+Spark+Hbase部署整合篇
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表