英伟达力推数据中心800V革新,需要大量碳化硅/氮化镓
第三代半导体风向 · 2025-05-24
插播:英诺赛科、能华半导体、致能科技、万年晶半导体、京东方华灿、镓奥科技、鸿成半导体及中科无线半导体等企业已参编《2024-2025 氮化镓(GaN)产业调研白皮书》,参编咨询请联系许若冰(hangjiashuo999)。
最近,英伟达发起了数据中心的第二次电源架构革命,并与英飞凌和纳微达成了相关合作,意图进一步降低数据中心电源能耗。
据“行家说三代半”了解,这次电源架构的革新将需要采用大量的碳化硅和氮化镓器件,规格包括6500V、3300V、2300V、1200V和650V的碳化硅器件,以及650V和1200V的氮化镓器件。
英伟达800V HVDC架构示意图 来源:纳微半导体
5月20日,英伟达在其官网宣布,“从2027年开始,英伟达将率先向800V HVDC 数据中心电力基础设施过渡。
同一天,英飞凌也宣布,他们正与英伟达合作,开发基于全新架构的800V高压直流(HVDC)系统,英飞凌将该系统提供硅、碳化硅和氮化镓器件解决方案。
5月22日,纳微半导体也宣布,他们与英伟达合作开发下一代800V HVDC架构,以支持为英伟达GPU供电的“Kyber”机架级系统,该系统由GaNFast和GeneSiC电源提供技术支持。
据英伟达披露,其800V HVDC系统的合作伙伴主要包括:
芯片厂商:英飞凌、MPS、纳微、罗姆、意法和德州仪器;
电源厂商:台达电、昂宝、Flex Power、Lead Wealth(比亚迪子公司)和麦格米特;
数据中心电力系统:伊顿Eaton、施耐德和维谛技术(Vertiv)。
在人工智能的推动下,数据中心建设再掀起热潮,但数据中心耗电量惊人,被称为“不冒烟的工厂”,以中国数据中心为例,2021年耗电量突破2372亿千瓦时,约等于2个三峡电站的发电量。
为此,近年来,数据中心产业链上下游企业正在推动数据中心电源架构的变革。其中,第一次变革发生在2017年,谷歌在开放式计算项目中提出将数据中心的低压侧电源从12V转向48V。以12kW电源为例,由于电源转换损耗降低至1/16,整体系统效率提升30%。
而谷歌这次电源架构革命也为低压氮化镓器件打开了数据中心的大门。
现有54V低压直流的问题:占空间、铜线多、效率低
据英伟达介绍,他们这次发起的数据中心的第二次电源架构革命,目标是将数据中心从目前的54V低压直流转变为800V高压直流。
英伟达解释道,人工智能AI工作负载的指数级增长正在增加数据中心的电能需求,但传统的54V的机架内配电系统是专为数千瓦(KW) 级机架设计,通常需要笨重的铜母线将电力从机架式电源架输送到计算托盘。
但是随着机架功率超过200千瓦,甚至达成兆瓦 (MW) 级,54V的机架内配电系统开始面临物理极限:
空间限制
如今的英伟达GB200 NVL72 或英伟达GB300 NVL72最多配备8个电源架,来为MGX 计算和交换机架供电。
如何使用相同的54 V直流配电系统,就意味着在兆瓦级规模下,电源架将占用高达64 U的 Kyber机架空间,从而没有空间用于计算。
为此,英伟达特别开发了一款 800V 侧柜,来为单个Kyber机架中的576个 Rubin Ultra GPU 供电。或者需要采用另一种方法——每个计算机架使用专用的电源。
大量铜线
在单个1 MW机架中使用54 V直流电,需要多达200公斤的铜母线。而单个1千兆瓦 (GW) 数据中心的机架母线就可能需要多达50万吨的铜。显然,目前的配电技术无法满足未来 GW 级数据中心的需求。
54 V直流数据中心架构的用铜量 来源:行家说三代半
电源转换效率低下
这是因为整个电力链中反复的交流/直流转换不仅能源效率低下,还会增加故障点。
从下图可知,电网电力进入配电室,配电室里的变压器将高压电转换为415V交流电,415V 交流电穿过数据大厅,输送至设备排,最终到达IT机架,再由电源单元转换为54 V/12 V直流电,为GPU供电。
英伟达800V高压直流:
铜减少45%、效率提高5%、维护成本降70%
为此,英伟达提出了800V HVDC 架构,通过整体重新设计来解决未来数据中心兆瓦级机架所面临的挑战。
根据英伟达的介绍,传统的54V架构是在IT机架那里进行交流转直流,而他们的800V高压直流架构的主要变化是发生在初始阶段——13.8kV的交流电从电网输送到数据中心配电室,并在那里集中转换为800 V高压直流电。然后,800V高压直流电从配电室经数据中心大厅输送到设备排,然后输送到IT机架,为GPU供电。
根据纳微示意图,从13.8kV高压交流转换为800V直流环节,需要大量的碳化硅MOSFET器件,包括6500V、3300V、2300V和1200V器件。而在800V直流转54V/12V环节,需要采用到650V和100V的氮化镓器件,以及650V和1200V的碳化硅器件。
英伟达认为,通过使用工业级整流器,在数据中心前端将13.8 kV交流电直接转换为800V高压直流电,可以省去大部分中间转换步骤,从而能够最大限度地减少了电能损失。
根据英飞凌的示意图,从13.8kV高压交流转换为800V直流需要1次AC-DC转换,以及3次DC-DC转换,需要大量的碳化硅器件。而在800V直流转换为12V/6V低压直流需要3次DC-DC转换,对氮化镓器件有许多的需求。
他们认为800V HVDC架构第二个好处是可以显著减少电源链中所需的带风扇电源 (PSU) 数量。更少的 PSU 和风扇可提高系统可靠性、降低散热量并提升能效,使高压直流配电成为现代数据中心更有效的解决方案,并显著减少组件总数。
首先,在配电中使用800V母线槽并将415 V交流电切换至800 V直流电,可使相同尺寸导线的传输功率增加85%。这是因为更高的电压降低了电流需求,降低了电阻损耗,并提高了电力传输效率。
其次,在更低电流下,更细的导线可以承载相同的负载,从而将铜需求量减少45%。此外,直流系统消除了交流电特有的低效率问题,例如趋肤效应和无功功率损耗,从而进一步提高了效率。通过采用800V直流配电,设施可以获得更高的电力容量、更好的能源效率并降低材料成本。
第三,通过采用直接800V直流输入,计算机架可以高效地处理电力输送,而无需依赖集成的AC/DC转换级。这些机架接受两根800 V导线馈电,并利用计算机架内的DC/DC转换来驱动GPU设备。由于省去了机架级 AC/DC转换元件,从而可释放宝贵的空间以容纳更多计算资源,从而实现更高密度的配置并提高冷却效率。与需要额外电源模块的传统 AC/DC 转换相比,直接800V输入简化了设计并提高了性能。
总体来看,与当前的54 V直流系统相比,800V直流系统有几个好处:
一是端到端效率提高了5%。
二是由于AI工作负载每个查询需要100倍到1000倍的计算量,该架构可实现可持续增长,同时通过提高效率、可靠性和系统架构改进将总拥有成本 (TCO) 降低高达 30%。
三是由于PSU故障减少且组件维护人工成本降低,维护成本可降低高达70%。
四是通过消除 IT 机架内的AC/DC PSU,从而降低冷却费用。
英伟达表示,800V高压直流输电数据中心的全面投产将于2027年与NVIDIA Kyber机架级系统同步进行,确保无缝扩展,以应对日益苛刻的AI模型。
本文发自【行家说三代半】,专注第三代半导体(碳化硅和氮化镓)行业观察。
其他人都在看:
新增2条8英寸SiC产线,有望年底通线
超33亿元!19家SiC企业获得融资
Wolfspeed美股盘后大跌60%?到底是怎么回事?
行家说三代半 向上滑动看下一个
行家说三代半 写留言 ,选择留言身份