随着人工智能的飞速崛起及其配套数据中心的广泛部署,数据中心的设计模式正在发生根本性变革。这种变化不仅体现在计算密度和散热需求上,更深入到了电力传输的底层架构。过去,单个机柜的功率仅为几十千瓦,而现在正向数百千瓦迈进,甚至兆瓦级的 AI 计算集群也不再遥不可及。在此背景下,传统的 415/480 VAC 配电方案和低压直流母线架构正变得愈发低效、臃肿,且扩展成本极其高昂。

一种创新的供电方案应运而生:将 800 VDC(直流高压)直接传输至机柜,并在尽可能靠近负载的地方完成最终电压转换。这一转变得到了 AI 训练 GPU 领军企业英伟达的强力倡导。与此同时,EPC 推出的 6 kW、800V 转 12.5V 直流转换器等实际工程样机证明,该方案已不再仅停留在理论层面,而是具备了量产可行性。


传统架构的瓶颈:效率损失

数十年来,数据中心主要服务于云服务和轻量级 AI 任务,电力供应通常采用级联转换拓扑:电网的高压交流电经降压和整流(约 400V)后,转换为中间直流母线(通常为 48-54V),再降压供给处理器和加速器。

然而,当 AI 工作负载导致机柜功率飙升至数百千瓦时,在 48V 电压下传输电流会带来巨大挑战:

  • 电阻损耗剧增:高电流意味着需要极厚的铜质母线和电缆,导致严重的散热压力
  • 空间受限:仅铜材带来的物理体积和重量就成了成本与空间管理的噩梦
  • 转换瓶颈:随着处理器发热量和处理速度的提升,板卡上的空间变得极其宝贵。在极其有限的 GPU 模块尺寸内,必须尽量缩减电力转换组件的占地面积和厚度

传统的服务器机架架构。

为何 800 VDC 是破局关键?

将配电电压提升至 800V,可以显著降低传输电流。在功率相同的情况下,800 VDC 所需的电流仅为 50V 电压下的十六分之一。

  • 优势显著:这意味着可以使用更细的导体、降低电阻损耗、减少发热,并简化机械集成
  • 英伟达引领效应:英伟达在其《AI 工厂技术指南》中建议,将电网电力直接转换为 800 VDC 骨干网并分布到每一排机柜,随后通过高功率 DC-DC 转换器在负载附近降压,从而最大限度减少转换级数和能量损耗

氮化镓驱动的 6 kW 转换器方案

为了验证这一愿景,EPC 开发了一款基于氮化镓的 6 kW 直流转换器,直接将 800 VDC 降压至 12.5 VDC。该设计利用了氮化镓低损耗、高开关频率的特性。

  • 模块化设计:采用输入串联、输出并联(ISOP)的 LLC 拓扑,将系统拆分为 8个相同模块。
  • 紧凑体积:整机占地面积约 5000 平方毫米,厚度不足 8 毫米,非常适合高密度的 GPU 服务器布局。
  • 高效率:满载效率接近 97%。考虑到数据中心的规模,即使是微小的效率提升,也能转化成巨额的运营成本节省。

LLC 拓扑的技术优势

在该方案中,半桥 LLC 谐振变换器成为高功率、高频转换的首选。

  • 软开关技术:利用谐振槽实现软开关操作,大幅降低了开关损耗。
  • 高功率密度:相比于硬开关转换器,LLC 拓扑具有更优的热性能和更高的功率密度,是 800V 母线电压下机柜级转换器的理想选择。

800 VDC 转 12.5 VDC ISOP 转换器配置框图,包含单个 LLC 级电路细节

生态链的影响与未来挑战

英伟达全面拥抱 800 VDC,意味着整个生态系统——包括电力电子、机柜优化、备用能源管理以及安全系统的全面洗牌。

  • 优势:更简单的电力链减少了故障点,降低了维护需求,缩小了设备占地面积。
  • 挑战:高压直流系统对绝缘、故障检测和电弧抑制提出了严苛要求。目前,连接器、断路器等组件的标准化仍在进行中。

总结:AI 基础设施的新范式

向 800 VDC 的过渡是 AI 爆发式增长引发的系统性变革。随着机柜功率持续攀升,采用 800 VDC 将从一种“创新尝试”转变为“功能必然”。高压直流骨干网、高密度氮化镓转换器和极简转换路径,将成为未来十年 AI 数据中心设计的标准配置,以应对日益严峻的能源需求和电力负荷压力。


来源:EPC宜普电源

*声明:本文由作者原创。文章内容系作者个人观点,宽禁带半导体技术创新联盟转载仅为了传达一种不同的观点,不代表本联盟对该观点赞同或支持,如果有任何异议,欢迎联系我们。


路过

雷人

握手

鲜花

鸡蛋
返回顶部