设为首页 收藏本站
查看: 885|回复: 0

[经验分享] hadoop作业map过程调优使用到的参数笔记

[复制链接]

尚未签到

发表于 2016-12-13 09:24:41 | 显示全部楼层 |阅读模式
  参数:io.sort.mb(default 100)
  当map task开始运算,并产生中间数据时,其产生的中间结果并非直接就简单的写入磁盘。
  而是会利用到了内存buffer来进行已经产生的部分结果的缓存,
  并在内存buffer中进行一些预排序来优化整个map的性能。
  每一个map都会对应存在一个内存buffer,map会将已经产生的部分结果先写入到该buffer中,
  这个buffer默认是100MB大小,
  但是这个大小是可以根据job提交时的参数设定来调整的,
  当map的产生数据非常大时,并且把io.sort.mb调大,
  那么map在整个计算过程中spill的次数就势必会降低,
  map task对磁盘的操作就会变少,
  如果map tasks的瓶颈在磁盘上,这样调整就会大大提高map的计算性能。
  

  参数:o.sort.spill.percent(default 0.80,也就是80%)
  map在运行过程中,不停的向该buffer中写入已有的计算结果,
  但是该buffer并不一定能将全部的map输出缓存下来,
  当map输出超出一定阈值(比如100M),那么map就必须将该buffer中的数据写入到磁盘中去,
  这个过程在mapreduce中叫做spill。
  map并不是要等到将该buffer全部写满时才进行spill,
  因为如果全部写满了再去写spill,势必会造成map的计算部分等待buffer释放空间的情况。
  所以,map其实是当buffer被写满到一定程度(比如80%)时,就开始进行spill。
  这个阈值也是由一个job的配置参数来控制,
  这个参数同样也是影响spill频繁程度,进而影响map task运行周期对磁盘的读写频率的。
  但非特殊情况下,通常不需要人为的调整。调整io.sort.mb对用户来说更加方便。
  

  参数:io.sort.factor
  当map task的计算部分全部完成后,如果map有输出,就会生成一个或者多个spill文件,这些文件就是map的输出结果。
  map在正常退出之前,需要将这些spill合并(merge)成一个,所以map在结束之前还有一个merge的过程。
  merge的过程中,有一个参数可以调整这个过程的行为,该参数为:io.sort.factor。
  该参数默认为10。它表示当merge spill文件时,最多能有多少并行的stream向merge文件中写入。
  比如如果map产生的数据非常的大,产生的spill文件大于10,而io.sort.factor使用的是默认的10,
  那么当map计算完成做merge时,就没有办法一次将所有的spill文件merge成一个,而是会分多次,每次最多10个stream。
  这也就是说,当map的中间结果非常大,调大io.sort.factor,
  有利于减少merge次数,进而减少map对磁盘的读写频率,有可能达到优化作业的目的。
  

  参数:min.num.spill.for.combine(default 3)
  当job指定了combiner的时候,我们都知道map介绍后会在map端根据combiner定义的函数将map结果进行合并。
  运行combiner函数的时机有可能会是merge完成之前,或者之后,这个时机可以由一个参数控制,
  即min.num.spill.for.combine(default 3),当job中设定了combiner,并且spill数最少有3个的时候,
  那么combiner函数就会在merge产生结果文件之前运行。
  通过这样的方式,就可以在spill非常多需要merge,并且很多数据需要做conbine的时候,
  减少写入到磁盘文件的数据数量,同样是为了减少对磁盘的读写频率,有可能达到优化作业的目的。
  

  参数:mapred.compress.map.output(default false)
  减少中间结果读写进出磁盘的方法不止这些,还有就是压缩。
  也就是说map的中间,无论是spill的时候,还是最后merge产生的结果文件,都是可以压缩的。
  压缩的好处在于,通过压缩减少写入读出磁盘的数据量。
  对中间结果非常大,磁盘速度成为map执行瓶颈的job,尤其有用。
  控制map中间结果是否使用压缩的参数为:mapred.compress.map.output(true/false)。
  将这个参数设置为true时,那么map在写中间结果时,就会将数据压缩后再写入磁盘,读结果时也会采用先解压后读取数据。
  这样做的后果就是:写入磁盘的中间结果数据量会变少,但是cpu会消耗一些用来压缩和解压。
  所以这种方式通常适合job中间结果非常大,瓶颈不在cpu,而是在磁盘的读写的情况。
  说的直白一些就是用cpu换IO。
  根据观察,通常大部分的作业cpu都不是瓶颈,除非运算逻辑异常复杂。所以对中间结果采用压缩通常来说是有收益的。
  

  参数:mapred.map.output.compression.codec( default org.apache.hadoop.io.compress.DefaultCodec)
  当采用map中间结果压缩的情况下,用户还可以选择压缩时采用哪种压缩格式进行压缩,
  现在hadoop支持的压缩格式有:GzipCodec,LzoCodec,BZip2Codec,LzmaCodec等压缩格式。
  通常来说,想要达到比较平衡的cpu和磁盘压缩比,LzoCodec比较适合。但也要取决于job的具体情况。
  用户若想要自行选择中间结果的压缩算法,
  可以设置配置参数:mapred.map.output.compression.codec=org.apache.hadoop.io.compress.DefaultCodec或者其他用户自行选择的压缩方式
  

  转载来源:
  http://cloud.csdn.net/a/20110121/290650.html

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-313581-1-1.html 上篇帖子: 搭建hadoop环境时关于配置无密码ssh的常见问题 下篇帖子: 大数据框架hadoop的作业初始化过程(接上编)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表