设为首页 收藏本站
查看: 643|回复: 0

[经验分享] Hadoop之日志存放路径

[复制链接]

尚未签到

发表于 2018-10-29 11:32:27 | 显示全部楼层 |阅读模式
  Hadoop的日志有很多种,很多初学者往往遇到错而不知道怎么办,其实这时候就应该去看看日志里面的输出,这样往往可以定位到错误。
  Hadoop的日志大致可以分为两类:
  (1)、Hadoop系统服务输出的日志;
  (2)、Mapreduce程序输出来的日志。
  这两类的日志存放的路径是不一样的。本文基于Hadoop 2.x版本进行说明的,其中有些地方在Hadoop 1.x中是没有的,请周知。
  一、Hadoop系统服务输出的日志
  诸如NameNode、DataNode、ResourceManage等系统自带的服务输出来的日志默认是存放在${HADOOP_HOME}/logs目录下。比如resourcemanager的输出日志为yarn-${USER}-resourcemanager-${hostname}.log,其中${USER}s是指启动resourcemanager进程的用户,${hostname}是resourcemanager进程所在机器的hostname;当日志到达一定的大小(可以在${HADOOP_HOME}/etc/hadoop/log4j.properties文件中配置)将会被切割出一个新的文件,切割出来的日志文件名类似yarn-${USER}-resourcemanager-${hostname}.log.数字的,后面的数字越大,代表日志越旧。在默认情况下,只保存前20个日志文件,比如下面:
01    -rw-r--r-- 1 wyp wyp 124M Mar 14 17:01 yarn-wyp-resourcemanager-master.log  
02    -rw-r--r-- 1 wyp wyp 257M Mar  9 10:02 yarn-wyp-resourcemanager-master.log.1
  
03    -rw-r--r-- 1 wyp wyp 257M Feb  4 09:05 yarn-wyp-resourcemanager-master.log.10
  
04    -rw-r--r-- 1 wyp wyp 257M Feb  1 17:04 yarn-wyp-resourcemanager-master.log.11
  
05    -rw-r--r-- 1 wyp wyp 257M Jan 30 01:04 yarn-wyp-resourcemanager-master.log.12
  
06    -rw-r--r-- 1 wyp wyp 257M Jan 26 04:01 yarn-wyp-resourcemanager-master.log.13
  
07    -rw-r--r-- 1 wyp wyp 257M Jan 22 16:12 yarn-wyp-resourcemanager-master.log.14
  
08    -rw-r--r-- 1 wyp wyp 257M Jan 20 17:14 yarn-wyp-resourcemanager-master.log.15
  
09    -rw-r--r-- 1 wyp wyp 257M Jan 18 19:01 yarn-wyp-resourcemanager-master.log.16
  
10    -rw-r--r-- 1 wyp wyp 257M Jan 15 15:21 yarn-wyp-resourcemanager-master.log.17
  
11    -rw-r--r-- 1 wyp wyp 257M Jan 15 15:00 yarn-wyp-resourcemanager-master.log.18
  
12    -rw-r--r-- 1 wyp wyp 257M Jan 15 14:40 yarn-wyp-resourcemanager-master.log.19
  
13    -rw-r--r-- 1 wyp wyp 257M Mar  5 21:00 yarn-wyp-resourcemanager-master.log.2
  
14    -rw-r--r-- 1 wyp wyp 257M Jan 15 14:20 yarn-wyp-resourcemanager-master.log.20
  
15    -rw-r--r-- 1 wyp wyp 257M Feb 23 00:00 yarn-wyp-resourcemanager-master.log.3
  
16    -rw-r--r-- 1 wyp wyp 257M Feb 20 08:05 yarn-wyp-resourcemanager-master.log.4
  
17    -rw-r--r-- 1 wyp wyp 257M Feb 17 17:04 yarn-wyp-resourcemanager-master.log.5
  
18    -rw-r--r-- 1 wyp wyp 257M Feb 15 01:05 yarn-wyp-resourcemanager-master.log.6
  
19    -rw-r--r-- 1 wyp wyp 257M Feb 12 09:00 yarn-wyp-resourcemanager-master.log.7
  
20    -rw-r--r-- 1 wyp wyp 257M Feb  9 17:08 yarn-wyp-resourcemanager-master.log.8
  
21    -rw-r--r-- 1 wyp wyp 257M Feb  7 01:10 yarn-wyp-resourcemanager-master.log.9
  上面这些都是可以配置的,比如resourcemanager(在${HADOOP_HOME}/etc/hadoop/log4j.properties):
log4j.logger.org.apache.hadoop.yarn.server.resourcemanager.RMAppManager       $ApplicationSummary=${yarn.server.resourcemanager.appsummary.logger}  
log4j.additivity.org.apache.hadoop.yarn.server.resourcemanager
  
    .RMAppManager$ApplicationSummary=false
  

  
log4j.appender.RMSUMMARY=org.apache.log4j.RollingFileAppender
  

  
log4j.appender.RMSUMMARY.File=${hadoop.log.dir}/
  
${yarn.server.resourcemanager.appsummary.log.file}
  

  
log4j.appender.RMSUMMARY.MaxFileSize=256MB(多大切割日志)
  

  
log4j.appender.RMSUMMARY.MaxBackupIndex=20(说明保存最近20个日志文件)
  

  
log4j.appender.RMSUMMARY.layout=org.apache.log4j.PatternLayout
  

  
log4j.appender.RMSUMMARY.layout.ConversionPattern=%d{ISO8601} %p %c{2}: %m%n
  resourcemanager日志存放路径也是可以配置的(在${HADOOP_HOME}/etc/hadoop/yarn-env.sh):
# default log directory & file  
if [ "$YARN_LOG_DIR" = "" ]; then
  
     YARN_LOG_DIR="$HADOOP_YARN_HOME/logs"
  
fi
  只需要修改YARN_LOG_DIR的值,这时候,yarn相关的日志记录都将存放在你配置的目录下。
  二、Mapreduce程序相关的日志
  Mapreduce程序的日志可以分为历史作业日志和Container日志。
  (1)、历史作业的记录里面包含了一个作业用了多少个Map、用了多少个Reduce、作业提交时间、作业启动时间、作业完成时间等信息;这些信息对分析作业是很有帮助的,我们可以通过这些历史作业记录得到每天有多少个作业运行成功、有多少个作业运行失败、每个队列作业运行了多少个作业等很有用的信息。这些历史作业的信息是通过下面的信息配置的:
      
        mapreduce.jobhistory.done-dir
  
        ${yarn.app.mapreduce.am.staging-dir}/history/done
  
   
  

  
   
  
        mapreduce.jobhistory.intermediate-done-dir
  
        ${yarn.app.mapreduce.am.staging-dir}
  
                             /history/done_intermediate
  
   
  

  
   
  
        yarn.app.mapreduce.am.staging-dir
  
        /tmp/hadoop-yarn/staging
  
   
  更多关于Hadoop历史作业的信息,可以参考本博客的《Hadoop历史服务器详解》
  (2)、Container日志包含ApplicationMaster日志和普通Task日志等信息。默认情况下,这些日志信息是存放在${HADOOP_HOME}/logs/userlogs目录下,我们可以通过下面的配置进行修改:
      
        
  
          Where to store container logs. An application's localized log directory
  
          will be found in ${yarn.nodemanager.log-dirs}/application_${appid}.
  
          Individual containers' log directories will be below this, in
  
          directories  named container_{$contid}. Each container directory will
  
          contain the files stderr, stdin, and syslog generated by that container.
  
        
  
        yarn.nodemanager.log-dirs
  
        ${yarn.log.dir}/userlogs
  
   
  熟悉Hadoop相关日志的存放地方不仅对运维Hadoop和观察Mapreduce的运行都是很有帮助的。
  三、Mapreduce程序相关的历史服务器
  Hadoop自带了一个历史服务器,可以通过历史服务器查看已经运行完的Mapreduce作业记录,比如用了多少个Map、用了多少个Reduce、作业提交时间、作业启动时间、作业完成时间等信息。默认情况下,Hadoop历史服务器是没有启动的,我们可以通过下面的命令来启动Hadoop历史服务器
$ sbin/mr-jobhistory-daemon.sh   start historyserver  这样我们就可以在相应机器的19888端口上打开历史服务器的WEB UI界面。可以查看已经运行完的作业情况。历史服务器可以单独在一台机器上启动,主要是通过以下的参数配置:
      
        mapreduce.jobhistory.address
  
        0.0.0.0:10020
  
   
  

  
   
  
        mapreduce.jobhistory.webapp.address
  
        0.0.0.0:19888
  
   
  上面的参数是在mapred-site.xml文件中进行配置,mapreduce.jobhistory.address和mapreduce.jobhistory.webapp.address默认的值分别是0.0.0.0:10020和0.0.0.0:19888,大家可以根据自己的情况进行相应的配置,参数的格式是host:port。配置完上述的参数之后,重新启动Hadoop jobhistory,这样我们就可以在mapreduce.jobhistory.webapp.address参数配置的主机上对Hadoop历史作业情况经行查看。
  很多人就会问了,这些历史数据是存放在哪里的?是存放在HDFS中的,我们可以通过下面的配置来设置在HDFS的什么目录下存放历史作业记录:
      
        mapreduce.jobhistory.done-dir
  
        ${yarn.app.mapreduce.am.staging-dir}/history/done
  
   
  

  
   
  
        mapreduce.jobhistory.intermediate-done-dir
  
        ${yarn.app.mapreduce.am.staging-dir}
  
                             /history/done_intermediate
  
   
  

  
   
  
        yarn.app.mapreduce.am.staging-dir
  
        /tmp/hadoop-yarn/staging
  
   
  上面的配置都默认的值,我们可以在mapred-site.xml文件中进行修改。其中,mapreduce.jobhistory.done-dir参数的意思是在什么目录下存放已经运行完的Hadoop作业记录;mapreduce.jobhistory.intermediate-done-dir的意思是正在运行的Hadoop作业记录。我们可以到mapreduce.jobhistory.done-dir参数配置的目录下看看里面存放的是什么东西:
  [wyp@master /home/wyp/hadoop]# bin/hadoop fs -ls /jobs/done/  
    Found 2 items
  
    drwxrwx---   - wyp supergroup          0 2013-12-03 23:36 /jobs/done/2013
  
    drwxrwx---   - wyp supergroup          0 2014-02-01 00:02 /jobs/done/2014
  

  
    [wyp@master /home/wyp/hadoop]# bin/hadoop fs -ls /jobs/done/2014/02/16
  
    Found 27 items
  
    drwxrwx--- - wyp supergroup 0 2014-02-16 02:02 /jobs/done/2014/02/16/001216
  
    drwxrwx--- - wyp supergroup 0 2014-02-16 02:44 /jobs/done/2014/02/16/001217
  
    drwxrwx--- - wyp supergroup 0 2014-02-16 03:38 /jobs/done/2014/02/16/001218
  
    drwxrwx--- - wyp supergroup 0 2014-02-16 04:20 /jobs/done/2014/02/16/001219
  
    drwxrwx--- - wyp supergroup 0 2014-02-16 05:14 /jobs/done/2014/02/16/001220
  

  
    [wyp@master hadoop]# bin/hadoop fs -ls /jobs/done/2014/02/16/001216
  
    Found 1318 items
  
    -rwxrwx---   3 wyp    supergroup   45541335 2014-02-16 00:11 /jobs/done/2014
  
    /02/16/001216/job_1388830974669_1216161-1392478837250-wyp-insert+overwrite
  
    +table+qt_city_query_ana...e%28Stage-1392480689141-5894-33-SUCCEEDED-wyp.jhist
  
    -rwxrwx---   3 wyp    supergroup     193572 2014-02-16 00:11 /jobs/done
  
    /2014/02/16/001216/job_1388830974669_1216161_conf.xml
  
    -rwxrwx---   3 wyp    supergroup   45594759 2014-02-16 00:11 /jobs/done/2014
  
    /02/16/001216/job_1388830974669_1216162-1392478837250-wyp-insert+overwrite
  
    +table+qt_city_query_ana...e%28Stage-1392480694818-5894-33-SUCCEEDED-wyp.jhist
  
    -rwxrwx---   3 wyp    supergroup     193572 2014-02-16 00:11 /jobs/done
  
    /2014/02/16/001216/job_1388830974669_1216162_conf.xml
  通过上面的结果我们可以得到一下几点:
  (1)、历史作业记录是存放在HDFS目录中;
  (2)、由于历史作业记录可能非常多,所以历史作业记录是按照年/月/日的形式分别存放在相应的目录中,这样便于管理和查找;
  (3)、对于每一个Hadoop历史作业记录相关信息都用两个文件存放,后缀名分别为*.jhist,*.xml。*.jhist文件里存放的是具体Hadoop作业的详细信息,如下:
    {  
       "type": "JOB_INITED",
  
       "event": {
  
          "org.apache.hadoop.mapreduce.jobhistory.JobInited": {
  
             "jobid": "job_1388830974669_1215999",
  
             "launchTime": 1392477383583,
  
             "totalMaps": 1,
  
             "totalReduces": 1,
  
             "jobStatus": "INITED",
  
             "uberized": false
  
          }
  
       }
  
    }
  这是Hadoop JOB初始化的一条信息,通过观察我们知道,*.jhist文件里面全部都是Json格式的数据。根据type进行区分这条Json的含义,在Hadoop中,总共包含了一下几个type:
    "JOB_SUBMITTED",  
    "JOB_INITED",
  
    "JOB_FINISHED",
  
    "JOB_PRIORITY_CHANGED",
  
    "JOB_STATUS_CHANGED",
  
    "JOB_FAILED",
  
    "JOB_KILLED",
  
    "JOB_ERROR",
  
    "JOB_INFO_CHANGED",
  
    "TASK_STARTED",
  
    "TASK_FINISHED",
  
    "TASK_FAILED",
  
    "TASK_UPDATED",
  
    "NORMALIZED_RESOURCE",
  
    "MAP_ATTEMPT_STARTED",
  
    "MAP_ATTEMPT_FINISHED",
  
    "MAP_ATTEMPT_FAILED",
  
    "MAP_ATTEMPT_KILLED",
  
    "REDUCE_ATTEMPT_STARTED",
  
    "REDUCE_ATTEMPT_FINISHED",
  
    "REDUCE_ATTEMPT_FAILED",
  
    "REDUCE_ATTEMPT_KILLED",
  
    "SETUP_ATTEMPT_STARTED",
  
    "SETUP_ATTEMPT_FINISHED",
  
    "SETUP_ATTEMPT_FAILED",
  
    "SETUP_ATTEMPT_KILLED",
  
    "CLEANUP_ATTEMPT_STARTED",
  
    "CLEANUP_ATTEMPT_FINISHED",
  
    "CLEANUP_ATTEMPT_FAILED",
  
    "CLEANUP_ATTEMPT_KILLED",
  
    "AM_STARTED"
  而*.xml文件里面记录的是相应作业运行时候的完整参数配置,大家可以进去查看一下。
  (4)、每一个作业的历史记录都存放在一个单独的文件中。
  mapreduce.jobhistory.intermediate-done-dir配置的目录下主要存放的是当前正在运行的Hadoop任务的记录相关信息,感兴趣的同学可以进去看看,这里就不介绍了。
  如果对Hadoop历史服务器WEB UI上提供的数据不满意,我们就可以通过对mapreduce.jobhistory.done-dir配置的目录进行分析,得到我们感兴趣的信息,比如统计某天中运行了多少个map、运行最长的作业用了多少时间、每个用户运行的Mapreduce任务数、总共运行了多少Mapreduce数等信息,这样对监控Hadoop集群是很好的,我们可以根据那些信息来确定怎么给某个用户分配资源等等。
  细心的同学可能发现,在Hadoop历史服务器的WEB UI上最多显示20000个历史的作业记录信息;其实我们可以通过下面的参数进行配置,然后重启一下Hadoop jobhistory即可。
      
        mapreduce.jobhistory.joblist.cache.size
  
        20000
  
   



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-627950-1-1.html 上篇帖子: Hadoop之安全模式 下篇帖子: Hadoop之小文件存储优化
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表