愛迪生輸掉的“電力之戰”,140年後被AI翻盤了

由 DeepTech深科技 發佈於 科技

'26-03-25

1880 年代的美國,煤氣燈還沒從街頭退場,兩種截然不同的電力系統就已經在爭奪未來。這段歷史後來被拍成了電影,就是 2017 年那部由馬丁·斯科塞斯擔任執行製片、“卷福”等人主演的《電力之戰》(The Current War),那場發生在十九世紀末的技術路線之爭,至今仍是商業史上最經典的案例之一。


一邊是愛迪生,1882 年他在紐約珍珠街建成了全世界第一個商用配電系統,用 110V 直流電點亮了曼哈頓下城區的幾百盞白熾燈。愛迪生堅信直流電纔是正道,投入重金鋪設了整套配電網絡。問題在於,直流電的電壓很難改變。低壓直流在導線中傳輸時電流大、損耗高,傳個一兩公里電壓就跌得不成樣子。愛迪生的方案本質上只能服務於發電站周圍幾個街區的客戶。


另一邊是喬治·威斯汀豪斯。他買下了尼古拉·特斯拉的交流電專利,包括那臺改變歷史走向的交流感應電機。交流電的關鍵優勢在於變壓器:一個簡單的銅線圈加鐵芯,就能把電壓從幾百伏升到幾萬伏。電壓升高意味着同樣功率下電流變小,導線上的損耗也隨之驟降。發電廠可以先升壓、遠距離輸送、到了用戶端再降壓使用。


這個優勢是壓倒性的。1893 年芝加哥世博會上,威斯汀豪斯用交流電點亮了整個展場,宣告了“電流戰爭”的終局。愛迪生輸了。此後一百三十多年,交流電統治了從家庭插座到工廠產線的幾乎所有用電場景,數據中心也不例外。


圖丨1893 年芝加哥世博會(來源:Paleofuture)


但到了 2025 年,這個統治開始鬆動。


NVIDIA 在當年 5 月的 Computex 大會上公佈了一套全新的 800V 高壓直流(HVDC)供電架構,計劃從 2027 年起替代數據中心內沿用多年的 54V 直流配電。幾個月後的 OCP(開放計算項目)全球峯會上,配套技術白皮書正式發佈。白皮書落地前後不到半年,英飛凌、德州儀器、意法半導體、臺達、維諦(Vertiv)、施耐德、伊頓等供電鏈條上幾乎所有關鍵角色同步宣佈了各自的 800V 產品計劃。產業鏈用不到一年的時間完成了集體轉向。驅動力其實很簡單:交流配電在 AI 數據中心裏正撞上硬邦邦的物理極限。


圖丨當前數據中心供電架構(上)與 NVIDIA 800 VDC 架構對比(下)(來源:NVIDIA)


今天絕大多數數據中心的供電鏈路仍然遵循同一套模式:交流市電引入,經變壓器降壓,通過 UPS(不間斷電源)做一輪整流再逆變,送進機架後由服務器自帶的電源模塊(PSU)再做一次 AC-DC 轉換,才最終變成芯片能用的直流電。這條鏈路上至少經歷三到四次電壓轉換,每轉一次就要丟掉一些能量。行業公認的數字是,整條 AC 配電鏈的端到端效率在 85% 到 90% 之間。換句話說,從電網買來的電,有十分之一到七分之一還沒碰到芯片就變成了熱。


這個效率損失在傳統數據中心時代尚可容忍,因爲那時一個機架也就 10 到 15 千瓦,轉換損耗產生的廢熱還在冷卻系統的承受範圍內。而這一波 AI 浪潮徹底打破了這個平衡。NVIDIA 現有的 GB200 NVL72 機架功率已逼近 120 千瓦,而 2027 年計劃量產的 Rubin Ultra 平臺瞄準的是單機架 500 千瓦到 1 兆瓦的量級。在這種功率密度下,交流配電的問題已經不再是“不夠好”,而是在物理上已經行不通。


第一道牆是銅。功率等於電壓乘以電流。54V 配電要扛住 1 兆瓦負載,電流接近兩萬安培。需要多粗的銅排來承載這個電流?NVIDIA 自己給出的答案是每機架 200 公斤。如果建一座 1 吉瓦級的數據中心,僅機架內的銅排就需要 20 萬公斤。把電壓提高到 800V 後,同等功率下電流降低約 15 倍,而導體所需的截面積與電流的平方成正比,這意味着銅材用量可以下降一個數量級以上。


第二道牆是空間。以當前的 GB300 NVL72 系統爲例,一個機架內要塞進最多 8 個電源架來供電。如果未來的兆瓦級機架還沿用 54V 架構,NVIDIA 估算電源設備將佔滿 64 個 U 位,整個機架全是電源,沒有任何空間留給計算設備。這已經不是效率問題了,而是根本裝不下。NVIDIA 在 GTC 2025 上展示的替代方案是一個 800V 獨立的電源邊櫃“sidecar”,可以爲同一機架內 576 塊 Rubin Ultra GPU 供電,把電源徹底搬出計算空間。


第三道牆是散熱。在 AC 供電鏈路中,每臺服務器內部都要獨立完成交流到直流的轉換,轉換效率通常在 90% 到 95% 之間,剩下的部分全變成熱量散在機架裏。二十臺服務器擠在一個機架中,光電源轉換就能產生一兩千瓦的廢熱。


高壓直流架構的思路則完全不同:把 AC-DC 轉換集中到機架外部甚至建築外部的大型整流設備中完成,然後直接用 800V 直流配送到機架。集中轉換的效率更高(規模效應),而且廢熱產生在機房之外,不再加重機房內冷卻系統的負擔。即便只提升 1 個百分點的效率,對一座 100 兆瓦的數據中心來說也意味着 1 兆瓦的節省,這足以驅動好幾個服務器機架。


NVIDIA 給出的綜合預期是:端到端能效提升最多 5%,維護成本降低最多 70%,總擁有成本下降最多 30%。


但光有 NVIDIA 的架構設計還不夠。800V 直流要真正跑起來,需要一整套從電網到芯片的供電產業鏈做出響應。2025 年下半年到 2026 年初,這條產業鏈在以前所未有的衝刺速度在重組。


在功率半導體層面,英飛凌宣佈與 NVIDIA 合作開發 800V 供電平臺的全鏈路方案,利用其碳化硅(SiC)和氮化鎵(GaN)器件實現高頻高效的電壓轉換,單級轉換效率可達 98%。


德州儀器在 2026 年 3 月的 GTC 大會上展示了完整的 800V DC 電源架構,核心是一個兩級轉換設計:從 800V 直接降到 6V 中間母線,再從 6V 轉換爲 GPU 所需的亞 1V 核心電壓,其中 800V 到 6V 這一級的轉換效率達到 97.6%。


圖丨德州儀器 800V DC 電源架構(來源:Texas Instrument)


意法半導體則拿出了 12 千瓦和 20 千瓦兩款功率交付板,其 12 千瓦板在 800V 到 50V 的轉換中實現了 97.5% 的峯值效率和 2500 W/in³的功率密度。納微半導體(Navitas)更進一步,用 GaN 技術實現了 800V 到 6V 的單級直接轉換,省去了傳統的 48V 中間母線。


在系統集成層面,臺達發佈了 660 千瓦的 800V DC 列間電源機架並內置 480 千瓦的電池備份單元。維諦宣佈其 800V DC 生態系統產品線將在 2026 年下半年商用,對接 NVIDIA 的 Rubin Ultra 平臺。


施耐德公佈了自己的 800V sidecar 方案,支持 NVIDIA、Google 和 Meta 等多家客戶,並承諾在 NVIDIA 每一代新平臺之前提前推出配套電源和散熱方案。伊頓也在同期發佈了專爲 AI 數據中心設計的 800V DC 參考架構。


在更底層的機架標準上,變化同樣在發生。DCD 近日的一篇報道引述了 Legrand 公司高級產品管理總監 Calvin Nicholson 的說法,描繪了 Open Compute 標準下電源架(power shelf)的演進軌跡:最早的 OCP 電源架是 18 千瓦,現在已經升級到 33 千瓦,下一代正在開發的是 72 千瓦。


Legrand 這兩年在 Open Compute 生態中投入很深,開發了多種母排和電源架方案,還收購了一家冷卻公司,加上此前收購的後門熱交換器公司,正在把機架、母排、電源和散熱整合成一套完整的系統交付給客戶。


Nicholson 在採訪中談到了行業轉型的阻力:運營關鍵基礎設施的人天然厭惡風險,交流電用了一百多年,大家知道怎麼部署、怎麼維護、怎麼保證安全。一旦切換到直流,一切都是新的,不同的機櫃、不同的母排、不同的安全規程。


客戶通常的做法是先把機櫃、母排和電源架拿回去在實驗室裏反覆測試,確認滿足應用需求之後纔會部署到生產環境。這是一個保守但合理的流程,因爲涉及安全培訓和運維規範的全面更新。更讓客戶頭疼的是,他們的很多供應商正忙着追超大規模客戶(hyperscaler),沒有人坐下來幫他們理解這些新技術。


在這場全球性的供電架構轉換中,中國的位置比較獨特。一方面,中國在遠距離高壓直流輸電領域的積累全球領先。國家電網和南方電網已建成超過 40 條特高壓輸電通道,其中包括世界首條±800 千伏特高壓柔性直流工程和±1,100 千伏特高壓直流線路,後者可以在 0.01 秒內將新疆的電力送到 3,300 公里外的安徽。中國是全球唯一全面掌握全系列特高壓技術並大規模商用的國家。這種在電力電子領域長期積累的工程能力和人才儲備,爲數據中心 HVDC 的發展提供了基礎條件。


另一方面,在數據中心直流供電的實踐上,中國實際上早於海外走了一步。2007 年,江蘇電信就開始試點 240V 高壓直流供電。此後,以 BAT 爲代表的互聯網巨頭在自建數據中心中廣泛採用“一路市電 + 一路 HVDC”的雙路架構。2019 年,阿里巴巴聯合臺達和中恆電氣推出了“巴拿馬電源”方案,從中壓 10 千伏交流一步直轉 240V 直流,省去了傳統架構中的多級中間設備,系統效率達到 97.5%,佔地面積縮減近 50%。


截至 2024 年,臺達銷售的巴拿馬電源在線運行數量已超過 500 套。百度、騰訊和三大運營商也都在各自的數據中心中部署了 HVDC 方案。目前國內 HVDC 市場中,中恆電氣佔據 30% 到 40% 的份額,是阿里巴巴巴拿馬電源的核心供應商。


不過,國內當前主流的 HVDC 電壓等級仍是 240V,與 NVIDIA 推動的 800V 方案之間存在代際差距。2025 年 8 月,臺達聯合中訊郵電諮詢設計院發佈了中國首部《數據中心 800V 直流供電技術白皮書》,開始推動國內向更高電壓等級演進。2026 年初,字節跳動在最新一輪 AI 數據中心招標中首次引入 800V HVDC 方案,計劃將高壓直流在新建園區中的滲透率提升至 30% 到 40%,並同步啓動樓宇級、數十兆瓦規模的 800V 試點。


另據報道,除了阿里、騰訊外,國內其他雲廠商也已開始小批量部署 HVDC。中恆電氣、科士達、麥格米特、禾望電氣等企業也在加速 800V 產品的研發,其中部分企業已作爲維諦、施耐德等海外巨頭的核心分包商進入全球供應鏈。


回到全球視角,800V HVDC 的落地時間表正在逐漸清晰,但路線並非只有一條。微軟、Google 和 Meta 在 2025 年的 OCP EMEA 峯會上聯合推出了“Mount Diablo”項目,採用±400V 方案而非 NVIDIA 力推的 800V,更強調短期可行性和對現有電動車行業成熟供應鏈的利用。


圖丨Mount Diablo 將電源與計算分離(來源:Microsoft)


Meta 的±400V 方案預計 2026 年一季度率先落地。NVIDIA 的 800V 方案則錨定 2027 年,配合 Rubin Ultra 平臺的量產時間節點。兩條路線不算互斥,±400V 更像是一個過渡方案,而 800V 是面向兆瓦級機架的終局架構。更遠的未來,固態變壓器(SST)將中壓電網輸入一步轉換爲 800V 直流,連獨立的整流環節都可以省去,進一步逼近供電效率的物理極限。


這一切在一年前還只是白皮書上的願景。2026 年 3 月的 GTC 大會上,參展商展臺上已經擺滿了可以觸摸的 800V 電源模塊、母排和 sidecar 原型機。臺達的 800V HVDC 電源機架設計功率達 570 千瓦,施耐德的 800V sidecar 已經進入工程驗證階段。NVIDIA 在技術博客中寫道:我們不只是在造更快的 GPU,而是在重新設計整個供電堆棧。


愛迪生大概沒有料到,爲他的直流電翻盤的,不是什麼新物理學,而是一塊又一塊越來越渴電的 AI 芯片。


參考資料:

1.https://spectrum.ieee.org/living-heart-project-virtual-twins

2.https://www.datacenterdynamics.com/en/marketwatch/the-future-of-rack-power-for-high-density-environments/

3.https://thefusionreport.substack.com/p/why-data-centers-are-switching-to


運營/排版:何晨龍

Scroll to Top