在芯片技术演进的长河中,“摩尔定律”长期指引着性能增长的航向。然而,在人工智能计算需求爆炸性增长的今天,图形处理器(GPU)芯片单位面积内的功耗已突破100W/cm2,一个更为根本的物理约束,热管理,走到台前并被急剧放大,演变为决定人工智能算力持续增长的关键瓶颈。丁古巧中国科学院上海微系统与信息技术研究所 研究员中科悦达(上海)材料科技有限公司 首席科学家算力狂飙与热量禁锢的矛盾成为芯片研究的关键。人工智能计算,特别是深度学习,其核心是高度并行、数据密集的矩阵运算。这直接驱动了GPU芯片集成数千计算核心、高带宽内存,并以惊人的高达几千瓦的功率运行。这种“暴力计算”模式,本质上是在极小的空间内进行极高的能量转换,其副产品热量的堆积速率已远超传统散热技术的处理能力。问题的根源至少体现在以下两个方面。其一,登纳德缩放定律的终结该定律曾确保晶体管尺寸缩小时芯片单位面积的功耗基本稳定。约在2005年后,电压无法继续降低,此定律失效导致晶体管密度提升的同时芯片单位面积功耗同步飙升。其二,三维堆叠的“热流密度”困境为持续提升集成度,芯片技术从平面走向三维立体,如互补场效应晶体管(CFET)将晶体管垂直堆叠。这虽然增加了逻辑密度,却也将功率耗散集中在更小的三维空间内,形成热流积聚的“热斑”。对于数据中心而言,部署成千上万片此类高功耗芯片,热管理已直接关乎运营成本、计算可靠性和碳排放。芯片散热是持续...
发布时间:
2026
-
01
-
13
浏览次数:5