迈克尔 · 戴尔:2028 年 AI 加速器的总内存需求是 2023 年的 625 倍
浏览12次
点赞0次
收藏0次
4 月 8 日消息,戴尔科技集团创始人、董事长兼首席执行官迈克尔 · 戴尔 (Michael Dell) 当地时间昨日出席美国银行“顶级 CEO 视角”系列访谈时预测,2028 年时 AI 加速器的总内存需求将达到 2023 年的 625 倍。
迈克尔 · 戴尔提到的 625 倍由两个 25 倍相乘而来:英伟达 2023 年推出的 H100 Tensor Core GPU 拥有 80GB 的 HBM 内存,而到 2028 年单加速器的内存容量将达到 2TB;与此同时,加速器的需求总量也将达到五年前的 25 倍。
但前端制程产能提升却相当有限:从零开始建设一座 DRAM 晶圆厂大概需要 4 年的时间,而 2023 年恰好是上一轮存储周期的低点,当时三大原厂遭遇严重亏损,暂停了扩产计划。即使在现在几大 DRAM 巨头也存在 PTSD,扩产计划相对谨慎。而在逻辑半导体方面,台积电在 2023~2024 年也没有拉高资本支出。
强劲的需求与不足的供给共同导致了严重的供应限制,所幸戴尔凭借其广泛的产品线和长期的伙伴关系可在一定程度上化解供应链压力。

迈克尔 · 戴尔认为 AI 产业现阶段仍处于“S 曲线”的高增长阶段;代理化将完全改变企业的运作方式;越来越多的企业会因为“不甘落人后”扩大 AI 领域投资;戴尔的长期稳定需求使其在紧俏组件供应谈判时处于有利地位;而强大的系统部署能力奠定了该企业在 AI 服务器领域的优势。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
AI 中文社