BusinessNews
  • 首页
  • 电子期刊
    • 期刊
    • 投稿指南
  • 新闻动态
  • 制造封装
  • 设计应用
  • 设备材料
  • 产业市场
  • 展会活动
  • 关于我们
    • 关于我们
    • 联系我们

当前位置:

     首页 >设计应用

英伟达AI服务器功耗激增:8年内预计增长100倍

2025-10-21

10月21日消息,行业分析师Ray Wang在X平台上发布推文,指出英伟达的AI服务器功耗正以惊人的速度增长。


从Ampere架构到即将到来的Kyber 架构,英伟达的机架级解决方案功耗预计在短短八年内将增长100倍。


博文介绍,英伟达机架功耗的大幅增长主要受两大因素驱动:一是每个机架集成的GPU数量显著增加;二是每一代GPU的热设计功耗(TDP)也在不断上升。以Hopper架构和最新的Blackwell架构为例,服务器机箱功耗从大约10千瓦增长到近120千瓦。


为了满足行业对算力的不断需求,英伟达在技术上持续突破,但其能耗的增长速度同样令人瞩目。除了硬件本身,NVLink / NVSwitch互连技术、新一代机架设计以及持续高负载的运行模式也是导致能耗攀升的原因。


此外,大型科技公司正在展开一场以“吉瓦”(GW)为衡量标准的算力竞赛。例如,OpenAI和Meta等公司计划在未来几年内新增超过10吉瓦的计算能力,这标志着AI基础设施的规模已达到新的量级。


“吉瓦级”的功耗意味着一个超大规模数据中心消耗1吉瓦的电力,足以供应约100万户美国家庭的用电需求。而当这些巨型数据中心在全球各地建成后,单个设施的耗电量可能相当于一个中等规模国家或美国几个大州的总和。


国际能源署(IEA)在其研究报告中预测,到2030年,仅人工智能一项就可能导致全球电力消耗翻倍,其增长速度几乎是电网扩张速度的四倍。这种大规模数据中心的建设潮可能还会导致周边地区居民用电成本的上升。

本期内容

2025年9月第一期

订阅期刊

过刊查询

赞助商

Copyright© 2025 《半导体视界》     京ICP备2024096519号-3