设为首页 收藏本站
查看: 1204|回复: 0

[经验分享] Hadoop作业性能指标及參数调优实例 (三)Hadoop作业性能參数调优方法

[复制链接]

尚未签到

发表于 2017-12-17 20:18:55 | 显示全部楼层 |阅读模式
  作者: Shu, Alison
  Hadoop作业性能调优的两种场景:
  一、用户观察到作业性能差,主动寻求帮助。
  (一)eBayEagle作业性能分析器
  1. Hadoop作业性能异常指标
  2. Hadoop作业性能调优7个建议
  (二)其他參数调优方法
  二、Hadoop集群报告异常。发现个别作业导致集群事故。
  一、用户观察到作业性能差。主动寻求帮助。
  (一)eBay Eagle作业性能分析器
  对一般作业性能调优,eBay Eagle的作业性能分析器已经能满足用户大部分需求。
  eBayEagle作业性能分析包括两个部分,第一部分是依据定量指标。捕捉性能异常的作业。在本文中,我们不考虑Hadoop集群或者节点故障造成作业性能的普遍下降,因此我们觉得这些性能指标异常仅仅与Hadoop作业有关,能够通过性能调优来改善。
  第二部分是调优建议。依据Hadoop作业性能异常指标推断作业是否须要调优。再综合採用第二部分的建议。第二部分也能够作为Hadoop作业开发的指引。并在后期性能測试中检查。
  1. Hadoop作业性能异常指标
  參阅《Hadoop作业性能指标及參数调优实例(一)Hadoop作业性能异常指标》
  2. Hadoop作业性能调优的7个建议
  參阅《Hadoop作业性能指标及參数调优实例(二)Hadoop作业性能调优7个建议》
  (二)eBay Eagle作业分析器之外,我们仍然发现一些简单实用的參数调优办法。
  §  提高Splitmetainfo文件上限以应对输入文件包括大量小文件及文件文件夹
  演示样例:
  $yarn logs -applicationId application_1431213413583_263303-appOwner abc
  …
  2015-06-02 11:15:37,971 INFO [main]org.apache.hadoop.service.AbstractService: Serviceorg.apache.hadoop.mapreduce.v2.app.MRAppMaster failed in state STARTED; cause:org.apache.hadoop.yarn.exceptions.YarnRuntimeException: java.io.IOException:Split metadatasize exceeded 10000000. Aborting job job_1431213413583_263303
  …
  分析:
  输入文件包含大量小文件或者文件文件夹。造成Splitmetainfo文件超过默认上限。
  解决的方法:
  改动默认作业參数mapreduce.jobtracker.split.metainfo.maxsize =100000000 或者mapreduce.jobtracker.split.metainfo.maxsize = -1 (默认值是1000000)
  §  不要轻易降低系统默认的复制因子
  演示样例:
  $yarn logs -applicationIdapplication_1431213413583_187157 -appOwner abc
  …
  /apache/hadoop/logs/yarn.log.2015-05-26-12:2015-05-2612:43:50,003 INFOorg.apache.hadoop.yarn.server.nodemanager.containermanager.container.Container:Container container_1431213413583_187157_01_003934 transitioned from LOCALIZINGto KILLING
  /apache/hadoop/logs/yarn.log.2015-05-26-12:2015-05-2612:43:50,004 INFOorg.apache.hadoop.yarn.server.nodemanager.containermanager.container.Container:Container container_1431213413583_187157_01_003934 transitioned from KILLING toDONE
  …
  分析:
  Map试图下载分布式缓存中的文件,发生time out,导致作业失败。我们检查了分布式缓存中文件。发现复制数量是3份而不是默认的10份。
  在apache Hadoop 的官网中有关于archive file 在 distributed cache中复制因子的说明[ii]。
  “When working with a large cluster it can beimportant to increase the replication factor of the archive to increase itsavailability. This will spread the load when the nodes in the cluster localizethe archive for the first time.”
  解决的方法:
  添加文件复制数量,把文件放到很多其它的节点上,尽可能实现数据的本地性,以加快文件下载速度。
  不要轻易降低下面參数的默认值:
  dfs.replication=3(默认值)
  mapreduce.client.submit.file.replication=10 (默认值)
  §  添加locateFollowingBlock办法的重试次数
  演示样例:
  Exception in thread "main"java.io.IOException: Unable to close file because the last block does not haveenough number of replicas.
  分析:
  可能是NameNode过于繁忙,locateFollowingBlock方法请求Name Node为文件加入新块错误发生,无法定位下一个块。建议添加locateFollowingBlock方法重试次数參
  解决的方法:
  改动默认作业參数dfs.client.block.write.locateFollowingBlock.retries=15 (默认是5)
  §  适当提高timeout阈值
  演示样例:
  AttemptID:attempt_1429087638744_171298_r_000148_2Timed out after 600 secs
  分析:
  输入数据或计算量很大,造成作业用时太长
  解决的方法:
  改动默认作业參数mapreduce.task.timeout=1200000(默认值是600000)
  §  选择可用资源较多的queue或窗体
  演示样例:
  our map reduce jobs are extremely slow and some ofthem are waiting in the UNASSIGNED state for a long time.
  分析:对应的queue资源用完
  解决:另选一个空暇的queue或者空暇的时间窗体
  §  适当添加内存
  演示样例:
  client抛出异常Exceptionin thread "main"
  Exception: java.lang.OutOfMemoryError thrown fromthe UncaughtExceptionHandler in thread "main"
  分析:Permanent Generation space(Non-heapsize)不够
  解决方法:
  添加PermSize
  exportHADOOP_CLIENT_OPTS="-XX:MaxPermSize=512M $HADOOP_CLIENT_OPT"
  二、Hadoop集群报告异常。发现个别作业导致集群事故
  用户作业性能差不仅影响作业本身,在极端情况下会造成整个Hadoop集群故障。在实践中。以前发生两个Hadoop Pig作业由于数据类型错误,产生大量Stderror日志,将几百个节点空间用完。造成集群事故。 用户本人由于作业仍然在执行。并没有採取不论什么措施。直到作业被系统管理员强制终止。这个事件充分暴露了Hadoop开发员对作业性能差可能产生的严重后果认识不足。
  Hadoop 2的作业日志包括Job History日志和Container日志,当中Job History日志包括作业启动时间、结束时间,每一个作业任务的启动时间、结束时间,各种Counter信息等。
  Container日志包括Application Master日志和普通Task日志,它们均存放在Hadoop安装文件夹下的userlogs文件夹中的application_xxx文件夹下,当中ApplicationMaster日志文件夹名称为container_xxx_000001,普通task日志文件夹名称则为container_xxx_000002。container_xxx_00000,每一个文件夹下包括三个日志文件:stdout、stderr和syslog。作业日志有若干水平:OFF,FATAL, ERROR, WARN,INFO, DEBUG, TRACE and ALL,默认设置是INFO。

  通过异常添加的日志文件,我们找到了Job>  终止作业后。系统管理员发现集群的NON-DFS空间已使用1PB,不得不重新启动100多个节点。
  这个事故发生在eBay Eagle上线前,事后HadoopEagle专门针对NON-DFS空间的高速增长设置了监測和预警机制。
  同一时候我们也建议用户更改日志的默认配置,以降低日志的存储。
  mapreduce.map.log.level=WARN,TLA
  mapreduce.reduce.log.level=WARN,TLA
  日志文件异常添加:
DSC0000.jpg


  watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center">  日志文件内容:
  …
  Failed to parse field: N  for ORGNL_SHPNG_CHRG_RTG_VAL_NUM type short
  java.lang.NumberFormatException: For input string:"N "
  at java.lang.NumberFormatException.forInputString(NumberFormatException.java:48)
  atjava.lang.Integer.parseInt(Integer.java:449)
  atjava.lang.Integer.valueOf(Integer.java:554)
  atcom.ebay.hadoop.platform.pig.TableStorageLoadFunc.parseObject(TableStorageLoadFunc.java:155)
  atcom.ebay.hadoop.platform.pig.TableStorageLoadFunc.getValueTuple(TableStorageLoadFunc.java:130)
  atcom.ebay.hadoop.platform.pig.TableStorageLoadFunc.getNext(TableStorageLoadFunc.java:90)
  atcom.ebay.hadoop.platform.pig.TableStorage.getNext(TableStorage.java:305)
  atorg.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigRecordReader.nextKeyValue(PigRecordReader.java:194)
  atorg.apache.hadoop.mapred.MapTask$NewTrackingRecordReader.nextKeyValue(MapTask.java:530)
  atorg.apache.hadoop.mapreduce.MapContext.nextKeyValue(MapContext.java:67)
  atorg.apache.hadoop.mapreduce.Mapper.run(Mapper.java:144)
  atorg.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:763)
  atorg.apache.hadoop.mapred.MapTask.run(MapTask.java:363)
  atorg.apache.hadoop.mapred.Child$4.run(Child.java:255)
  atjava.security.AccessController.doPrivileged(Native Method)
  atjavax.security.auth.Subject.doAs(Subject.java:396)
  atorg.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1232)
  atorg.apache.hadoop.mapred.Child.main(Child.java:249)
  …

eBay Eagle是eBay自主研发的系统,用于大型Hadoop集群管理,集监控、警示和智能修复功能于一体。eBayEagle即将开源,有望成为Apache的孵化项目。

[ii]http://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-client-core/DistributedCacheDeploy.html

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-425131-1-1.html 上篇帖子: 【Hadoop】基于Hadoop/Hbase/Hive的小型离线服务器日志分析应用 下篇帖子: 大数据与人工智能探索
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表