设为首页 收藏本站
查看: 657|回复: 0

[经验分享] Hadoop集群的配置调优

[复制链接]

尚未签到

发表于 2016-12-10 09:43:14 | 显示全部楼层 |阅读模式
一、背景
HADOOP的配置优化,涉及到多方面,本部分主要针对HADOOP集群的配置优化进行汇总,以供参考。

二、配置
1、hdfs-site.xml配置文件
1)、dfs.block.size:块大小的设置,也就是说文件按照多大的size 来切分块。
一般来说,块的大小也决定了你map 的数量。举个例子:我现在有一个1T 的文件,如果我的块size 设置是默认的64M,那么在HDFS 上产生的块将有1024000/64=16000 块。
如果我们以TextInputFormat 来处理该1T 的文件,那么将会产生16000 个map 来处理。这样的多的map 明显是不合理的。所以,如果我们将block 的size 设置成512M,那么,将1T 的文件作为输入文件,将产生2000 个map,计算的时候效率将提升不少。
因此,block size 的大小是需要根据输入文件的大小以及计算时产生的map 来综合考量的。一般来说,文件大,集群数量少,还是建议将block size 设置大一些的好。

2)、dfs.replication:存放数据文件的份数。
设置为1,就是在集群中存一份。如果设置为2,即做一份备份,也就是说数据在集群中有2
份。还是以1T 的数据为例,如果设置1,集群中就存在1T 的文件,如果设置为2,那么集群占用空间为2T。
当然,这个备份还有个基于机架感知的备份机制(本地存放、同机架存放、异机架存放)如果
不配置机架,默认都在一个机架上,之所以做机架感知的备份就是为了做到异地容灾。因为我现在的集群都在一个机房,就是做了机架配置,也不能做异地容灾。要是机房断电,谁也不能容灾谁。
但是如果你的集群分别存放在2 个机房,还是可以考虑做机架配置,然后将备份数量设置为3。
备份数量有利有弊,备份数量多,节点挂个几个没影响,数据依然完整。但是你的冗余数据会
增加。如果只设置为1,那就是节点一旦有挂掉的,就是block miss。
一般来说,测试情况下建议设置为1,如果实际使用,所有机器都在一个机房,建议配置为2,如果集群分布在不同机房,还是试试配置为3 吧。

2、mapred-site.xml配置文件
1)、mapred.tasktracker.map.tasks.maximum和mapred.tasktracker.reduce.tasks.maximum:
这个2 个参数分别是用来设置的map 和reduce 的并发数量。实际作用就是控制同时运行的task的数量。这2 个参数实际上在配置的时候是需要结合计算节点的硬件配置以及任务调度模式来配置的。
举个例子吧。我现在有5 台机器,1 台master,4 台slave,配置都是2 个4 核CPU,8G 内存,1T 硬盘。我配置任务调度模式是默认的FIFO 模式。在这样的模式下,我配置并发map 为6,并发的reduce 为2。其实这样配置不难看出,map 和reduce 的并发数就等于CPU 的总核数。
网上有牛人建议:如果使用fair 的调度模式,设置成相同,应该是可以的,但是如果是FIFO 模式,建议在map或是reduce 阶段,CPU 的核数没有得到充分的利用,有些可惜,所以,FIFO 模式下,还是尽量配置的map 并发数量多于redcue 并发数量。因此,我说这个参数的配置不仅仅要考虑硬件配置,还需要考虑到Job 的调度模式。需要说明的是,这个配置参数不同的节点可以配置不同。适用于硬件异构的集群。

2)、mapred.child.java.opts
这个参数是配置每个map 或reduce 使用的内存数量。默认的是200M。对于这个参数,我个人认为,如果内存是8G,CPU 有8 个核,那么就设置成1G 就可以了。实际上,在map 和reduce 的过程中对内存的消耗并不大,但是如果配置的太小,则有可能出现”无可分配内存”的错误。所以,Hadoop 开发者第四期Hadoop 集群的配置调优对于这个配置我总结了一个简单的公式:map/reduce 的并发数量(总和不大于CPU 核数)×
mapred.child.java.opts < 该节点机器的总内存。当然也可以等于,不过有点风险而已。

3)、mapred.reduce.tasks
设置reduce 的数量。一般来说在job 里面都会通过conf 来设置reduce 的数量,不采用这个参数。至于reduce 的数量,可以根据自己的reduce 业务逻辑复杂度以及输出的数据量来调整。

3、core-sit.xml配置文件
1)webinterface.private.actions
这个参数实际上就是为了方便测试用。允许在web 页面上对任务设置优先级以及kill 任务。需要注意的是,kill 任务是个缓慢的过程,它需要杀掉所有的任务task 然后才是任务结束。如果task数量多,可能有点慢,需要一些耐心等待。

三、配置信息加载顺序
需要说明一下,配置文件的加载顺序是:先加载默认的配置项(看看default 文件就知道默认配置项了),然后加载site 文件里的配置项,最后加载MR 代码里的配置项。所以,个性化的配置还是放在MR 代码中通过config.set 方法来设置比较合适。

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-312210-1-1.html 上篇帖子: Hadoop调试信息的输出办法 下篇帖子: Hadoop NameNode NFS备份及恢复
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表