设为首页 收藏本站
查看: 2467|回复: 0

[经验分享] hadoop硬件需求及node计算

[复制链接]

尚未签到

发表于 2018-10-30 13:14:43 | 显示全部楼层 |阅读模式
DSC0000.jpg

  Hadoop Effective Space = (MaxAllocFactor * DiskSize * ( #Disk – RaidDisks ) ) / ReplicationFactor
  MaxAllocFactor = Max recommended allocation, 75% for Hadoop

  DiskSize =>  #Disk = Number of drives
  RaidDisks = Number disk eaten up by RAID, for Hadoop this is 0
  ReplicationFactor = Hadoop recommends three copies of data thus it gets a replication factor of 3.
  计算节点的可用空间:
  假设复制因子为3,同时临时空间要占用25%的硬盘原始空间。基于上述假设,要在主机硬盘空间为2TB的集群上处理10TB数据,所需主机数的计算方法如下:
  1. 用主机存储空间总量除以复制因子
  2TB / 3 = 666 GB
  2. 在此基础上减去25%的临时数据存储空间
  666 GB * 0.75 = 500 GB
  3. 因此,每个硬盘存储空间为2TB的节点只有大约500GB的可用空间
  4. 数据集规模除以该值,结果即为所需的节点数
  10TB / 500 GB = 20
  所以,处理10TB数据的集群最少需要20个节点
  Here are the recommended specifications for DataNode/TaskTrackers in a balanced Hadoop cluster:
  1. 12-24 1-4TB hard disks in a JBOD (Just a Bunch Of Disks) configuration
  2. 2 quad-/hex-/octo-core CPUs, running at least 2-2.5GHz
  3. 64-512GB of RAM
  4. Bonded Gigabit Ethernet or 10Gigabit Ethernet (the more storage density, the higher the network throughput needed)
  Here are the recommended specifications for NameNode/JobTracker/Standby NameNode nodes. The drive count will fluctuate depending on the amount of redundancy:
  1. 4–6 1TB hard disks in a JBOD configuration (1 for the OS, 2 for the FS image [RAID 1], 1 for Apache ZooKeeper, and 1 for Journal node)
  2. 2 quad-/hex-/octo-core CPUs, running at least 2-2.5GHz
  3. 64-128GB of RAM
  4. Bonded Gigabit Ethernet or 10Gigabit Ethernet
  Below is a list of various hardware configurations for different workloads, including our original “balanced” recommendation:
  1. Light Processing Configuration (1U/machine): Two hex-core CPUs, 24-64GB memory, and 8 disk drives (1TB or 2TB)
  2. Balanced Compute Configuration (1U/machine): Two hex-core CPUs, 48-128GB memory, and 12 – 16 disk drives (1TB or 2TB) directly attached using the motherboard controller. These are often available as twins with two motherboards and 24 drives in a single 2U cabinet.
  3. Storage Heavy Configuration (2U/machine): Two hex-core CPUs, 48-96GB memory, and 16-24 disk drives (2TB – 4TB). This configuration will cause high network traffic in case of multiple node/rack failures.
  4. Compute Intensive Configuration (2U/machine): Two hex-core CPUs, 64-512GB memory, and 4-8 disk drives (1TB or 2TB)


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628544-1-1.html 上篇帖子: hadoop+hive+sqoop安装 下篇帖子: 四种方案将OpenStack部署到Hadoop
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表