设为首页 收藏本站
查看: 995|回复: 0

[经验分享] 星空下: 编译/部署hadoop 0.23

[复制链接]

尚未签到

发表于 2015-7-14 08:20:01 | 显示全部楼层 |阅读模式
  星空下: 编译/部署hadoop 0.23
编译/部署hadoop 0.23




  /  
  标签:
Hadoop,
YARN
  


  • 下载hadoop 0.23版本,建议使用SVN

    • svn checkout http://svn.apache.org/repos/asf/hadoop/common/tags/release-0.23.0-rc0/



  • 进入release-0.23.0-rc0,查看INSTALL.TXT,提示编译hadoop0.23的前提:


    •   * Unix System
    •   * JDK 1.6
    •   * Maven 3.0
    •   * Forrest 0.8 (if generating docs)
    •   * Findbugs 1.3.9 (if running findbugs)
    •   * ProtocolBuffer 2.4.1+ (for MapReduce)
    • * Autotools (if compiling native code)
    • * Internet connection for first build (to fetch all Maven and Hadoop dependencies)



  • JDK是必须的,安装配置JDK,maven3.0并配置PATH变量
  • 安装ProtocolBuffer
  • 使用以下命令编译:

    • mvn clean install -DskipTests
    • cd hadoop-mapreduce-project
    • mvn clean install assembly:assembly -Pnative

  ----------------------------

[或者直接下载编译好的hadoop版本,以上步骤省略,直接从配置环境变量开始配置]
下载地址:
http://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-0.23.0/hadoop-0.23.0.tar.gz
下载后解压 tar -zxvf hadoop-0.23.0.tar.gz
----------------------------


  • 配置环境变量(使用export)

    • $HADOOP_COMMON_HOME (指向common目录)
    • $HADOOP_MAPRED_HOME   (指向mr目录)
    • $YARN_HOME(与HADOOP_MAPRED_HOME相同)
    • $HADOOP_HDFS_HOME         (指向HDFS目录)
    • $YARN_HOME
    • $JAVA_HOME
    • $HADOOP_CONF_DIR (指向conf目录)
    • $YARN_CONF_DIR(与$HADOOP_CONF_DIR 相同)



  • 配置/编写mapred-site.xml

mapreduce.cluster.temp.dir

No description
true


mapreduce.cluster.local.dir

No description
true


  • 配置/编写yarn-site.xml
[其中的host换成你机器上hostname的输出值,port为端口号,自己定义,不能重复]   
yarn.resourcemanager.resource-tracker.address
host:port
host is the hostname of the resource manager and
port is the port on which the NodeManagers contact the Resource Manager.



yarn.resourcemanager.scheduler.address
host:port
host is the hostname of the resourcemanager and port is the port
on which the Applications in the cluster talk to the Resource Manager.



yarn.resourcemanager.scheduler.class
org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler
In case you do not want to use the default scheduler


yarn.resourcemanager.address
host:port
the host is the hostname of the ResourceManager and the port is the port on
which the clients can talk to the Resource Manager.


yarn.nodemanager.local-dirs

the local directories used by the nodemanager


yarn.nodemanager.address
0.0.0.0:port
the nodemanagers bind to this port
  

yarn.nodemanager.resource.memory-mb
10240
the amount of memory on the NodeManager in GB


yarn.nodemanager.remote-app-log-dir
/app-logs
directory on hdfs where the application logs are moved to


yarn.nodemanager.log-dirs

the directories used by Nodemanagers as log directories


yarn.nodemanager.aux-services
mapreduce.shuffle
shuffle service that needs to be set for Map Reduce to run


  • 创建符号链接:
  [只需创建一次,下次执行不必创建]
$ cd $HADOOP_COMMON_HOME/share/hadoop/common/lib/
$ ln -s $HADOOP_MAPRED_HOME/modules/hadoop-mapreduce-client-app-*-SNAPSHOT.jar .
$ ln -s $HADOOP_MAPRED_HOME/modules/hadoop-mapreduce-client-jobclient-*-SNAPSHOT.jar .
$ ln -s $HADOOP_MAPRED_HOME/modules/hadoop-mapreduce-client-common-*-SNAPSHOT.jar .
$ ln -s $HADOOP_MAPRED_HOME/modules/hadoop-mapreduce-client-shuffle-*-SNAPSHOT.jar .
$ ln -s $HADOOP_MAPRED_HOME/modules/hadoop-mapreduce-client-core-*-SNAPSHOT.jar .
$ ln -s $HADOOP_MAPRED_HOME/modules/hadoop-yarn-common-*-SNAPSHOT.jar .
$ ln -s $HADOOP_MAPRED_HOME/modules/hadoop-yarn-api-*-SNAPSHOT.jar .

  • 启动resourcemanager和nodemanager
  [如有问题,看logs下面的输出,可定位出错原因]
$ cd $HADOOP_MAPRED_HOME
$ bin/yarn-daemon.sh start resourcemanager
$ bin/yarn-daemon.sh start nodemanager

  • 执行example中的例子:
  [hadoop.apache.org上给的命令还是copy0.20版本的,注意example.jar的路径]
$HADOOP_COMMON_HOME/bin/hadoop jar hadoop-mapreduce-examples-0.23.0.jar  randomwriter out   
  看一下我的执行结果:
2011-12-04 16:08:34,907 INFO  mapred.LocalJobRunner (LocalJobRunner.java:statusUpdate(459)) - done with 102406 records.
2011-12-04 16:08:34,907 INFO  mapred.Task (Task.java:sendDone(1008)) - Task 'attempt_local_0001_m_000000_0' done.
2011-12-04 16:08:34,907 INFO  mapred.LocalJobRunner (LocalJobRunner.java:run(232)) - Finishing task: attempt_local_0001_m_000000_0
2011-12-04 16:08:34,908 INFO  mapred.LocalJobRunner (LocalJobRunner.java:run(352)) - Map task executor complete.
2011-12-04 16:08:35,762 INFO  mapreduce.Job (Job.java:monitorAndPrintJob(1227)) -  map 100% reduce 0%
2011-12-04 16:08:35,763 INFO  mapreduce.Job (Job.java:monitorAndPrintJob(1238)) - Job job_local_0001 completed successfully
2011-12-04 16:08:35,785 INFO  mapreduce.Job (Job.java:monitorAndPrintJob(1245)) - Counters: 20
     File System Counters
         FILE: BYTES_READ=251516
         FILE: BYTES_WRITTEN=1086056829
         FILE: READ_OPS=0
         FILE: LARGE_READ_OPS=0
         FILE: WRITE_OPS=0
     org.apache.hadoop.mapreduce.TaskCounter
         MAP_INPUT_RECORDS=1
         MAP_OUTPUT_RECORDS=102406
         SPLIT_RAW_BYTES=113
         SPILLED_RECORDS=0
         FAILED_SHUFFLE=0
         MERGED_MAP_OUTPUTS=0
         GC_TIME_MILLIS=0
         CPU_MILLISECONDS=0
         PHYSICAL_MEMORY_BYTES=0
         VIRTUAL_MEMORY_BYTES=0
         COMMITTED_HEAP_BYTES=62652416
     org.apache.hadoop.examples.RandomWriter$Counters
         BYTES_WRITTEN=1073747349
         RECORDS_WRITTEN=102406
     org.apache.hadoop.mapreduce.lib.input.FileInputFormatCounter
         BYTES_READ=0
     org.apache.hadoop.mapreduce.lib.output.FileOutputFormatCounter
         BYTES_WRITTEN=1085705129
Job ended: Sun Dec 04 16:08:35 CST 2011
The job took 20 seconds.

本文地址:http://nourlcn.ownlinux.net/2011/12/hadoop-023.html

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-86381-1-1.html 上篇帖子: Hadoop RPC源码分析 下篇帖子: 分布式计算开源框架Hadoop入门实践(二)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表