设为首页 收藏本站
查看: 963|回复: 0

[经验分享] 数据密集型计算:MapReduce与Hadoop的真正竞争力

[复制链接]

尚未签到

发表于 2016-12-13 09:47:40 | 显示全部楼层 |阅读模式
  互联网络用户的剧增和宽带网络的普及,使得互联网络服务的本质是以海量数据处理为中心的服务。从搜索引擎、视频共享到电子商务,互联网络服务的成功与否在很大程度上依赖于所提供数据的规模和质量,数据处理的及时性、有效数据的比例等。Gordon Bell、Jim Gray和Alex Szalay在2006年1月的Computer杂志上发表的“Petascale computational systems”中指出,计算机科学正在发生变化,以数据密集(Data-intensive)型计算为主要趋势。高性能计算系统必须设计为一个均衡的系统,不仅仅是单纯的处理器性能达到Peta级,而且也包括I/O和网络。数据的局部性(Data Locality)在PB级的数据处理中显得尤为重要,即应该尽量让计算靠近数据存储而不是远程拷贝数据进行计算。Gordon的因特网经济模型表明,在因特网上远程移动1字节数据的代价是昂贵的,这只有在平均每字节数据需要耗费10万个CPU指令周期处理时才是划算的。数据局部性对软件的设计提出了挑战,因为大多数的中间件都未考虑数据移动的昂贵代价和未利用数据的缓存策略。
海量数据处理问题的挑战 海量数据处理能力面对的挑战是:n           面对PB级数据,很难完全在内存中完成处理过程,很大程度上依赖于磁盘I/O,并且需要可扩展的处理能力n           需要降低数据处理的成本,包括利用普通商用PC服务器组成的集群,最小化每单元计算能力、RAM和I/O的成本n           需要保障在大规模计算过程中的可靠性
每18到24个月CPU频率和磁盘传输速率,RAM和磁盘容量会加倍,但是磁盘寻址时间由于音圈电机定位的限制其发展速度却近乎常数(每年不到5%)。 可扩展的海量数据计算必须从依赖于磁盘寻址时间(seek-time)的计算转到依赖于磁盘传输时间(transfer-time),即传统的关系数据库系统技术不再适用。Map/Reduce最早由Google研发人员提出。这种处理方式实际上是在数据存放的时候不建立索引,等实际处理数据的时候再将这些数据读入内存进行排序,并可以将数据分隔在不同的机器上同时进行处理。Map/Reduce把对数据记录的所有操作都归结两个步骤:其中Map对现有数据做一个先期处理,得到一个中间数据集,Reduce再对中间数据集进行去重、过滤等后期处理,最后得到所要的结果。在使用Map/Reduce框架时,待处理的数据先通过顺序读磁盘进行分别处理,在内存中排序后交由合并程序进行后处理,尽量避免了磁盘的随机存取操作,使得海量数据的处理效率得到快速提高。Yahoo的Hadoop开发人员经过试验,在10MB/s传输速率和10ms的磁盘寻道时间的情况下,更新1TB数据中的100M数据,如果使用基于传统B树的关系数据库系统,则随机更新需要1000天,批处理更新需要100天,而使用顺序读取的排序/合并的新型数据处理方法(如Map/Reduce)只需要1天,即效率提高100倍!如果需要处理100T的数据集,在1个节点上,以50MB/s的速度扫描需要23天,而平均故障间隔时间(MTBF)为3年。如果在1000个节点的集群上,33分钟可以完成扫描,但MTBF为1天。这就需要新的框架来实现可靠性的保障,同时这种可靠性也是可扩展和容易管理的。
  转自http://www.huomo.cn

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-313616-1-1.html 上篇帖子: 第七章:小朱笔记hadoop之源码分析-hdfs分析 第三节:hdfs实现分析 下篇帖子: Hadoop Pig学习笔记(一) 各种SQL在PIG中实现
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表