甲骨文推出全球最大AI超算,作為OpenAI「星際之門」算力核心
甲骨文在2025年AI World大會上發布OCI Zettascale10超級集群。
在拉斯維加斯舉辦的AI World 2025大會上,甲骨文高調推出了一臺號稱全球最大規模的云端AI超級計算機——OCI Zettascale10。

這個龐然大物橫跨多個數據中心,由多達80萬塊NVIDIA GPU芯片構成,峰值計算性能被宣稱可達驚人的16 ZettaFLOPS(即每秒1021次以上浮點運算)。
如此天文數字意味著平均每塊GPU可貢獻約20 PetaFLOPS算力,接近英偉達最新一代Grace Hopper(Blackwell架構GB300)芯片的水平。
甲骨文此舉無疑是在急速升溫的AI算力軍備競賽中放出「大招」,試圖在云端AI基礎設施版圖上占據一席之地。
OpenAI巨型集群的動力之源
這套Zettascale10系統已經成為OpenAI龐大算力需求的幕后功臣。
據悉,甲骨文與OpenAI在德州阿比林(Abilene)共建了「星際之門」旗艦AI超級計算集群,而OCI Zettascale10正是其算力骨干。
OpenAI基礎設施部門副總裁Peter Hoeschele表示,甲骨文定制的RoCE高速網絡架構在「千兆瓦級」規模下最大化了整體性能,同時將大部分能耗都用在了計算上。
換言之,甲骨文研發的這套RDMA over Converged Ethernet網絡(代號Acceleron)將海量GPU緊密連接成一個整體,使得OpenAI的大模型訓練能夠在如此龐大的芯片陣列上高效運轉。
正因有了與OpenAI的深度合作背書,Zettascale10一亮相便自帶「實戰」光環,它已經在為當今業界最嚴苛的一些AI工作負載提供動力。
Acceleron網絡架構揭秘
如此規模的GPU「巨陣」要高效運轉,奧秘就在于甲骨文獨創的Acceleron RoCE網絡架構。
簡單來說,Acceleron讓每塊GPU的網絡接口卡(NIC)都充當一個小型交換機,一次可連接到多個隔離的網絡交換平面。
這種多平面、扁平化的網絡設計大幅降低了GPU之間的通信延遲,并確保即使某一路由出現故障時,訓練作業也能自動切換到其它路徑繼續運行,不至于被迫中斷。
相比傳統三級交換結構,Acceleron減少了網絡層級,使GPU對GPU的直連延遲更加一致,整體性能更具可預測性。
此外,該架構引入了線性可插拔光學模塊(LPO)和線性接收光學組件(LRO)等新技術,在不降低400G/800G帶寬的前提下削減了網絡的能耗與冷卻成本。
甲骨文稱這種創新網絡既提高了效率又降低了成本,讓客戶可以用更少的電力完成同樣的AI訓練任務;
NVIDIA公司高管Ian Buck也認可道,正是這種全棧優化的「計算結構」(compute fabric)提供了將AI從實驗推進到工業化所需的基礎。
峰值神話與現實考驗
甲骨文計劃在2026年下半年正式向客戶提供Zettascale10集群服務,目前這一系統已開始接受預訂。
然而,對于16 ZFLOPS的驚人算力,不少業內觀察者持保留態度。
該數據尚未經獨立機構驗證,而且很可能是基于理論峰值算力而非持續實效得出。
據業內報道,甲骨文宣稱的16 ZFLOPS有可能利用了極低精度的AI計算指標(例如FP8甚至4比特稀疏運算)來實現。
實際的大模型訓練通常需要使用更高精度(如BF16或FP8)的數值格式以保證模型收斂效果,因此16 ZFLOPS這個數字更多體現了甲骨文硬件在理想情況下的上限潛力,而非日常工作負載下可持續交付的性能。
這臺「云端巨無霸」真正的實戰表現還有待時間檢驗,只有等到系統明年投入使用,各種基準測試與用戶實際反饋才能揭曉它能否如宣稱般高效且可靠。
云端AI競賽的挑戰與展望
甲骨文并非孤軍奮戰。
當前,微軟、谷歌、亞馬遜等云計算巨頭也在爭相構建各自的大規模AI集群,它們或采購海量GPU,或研發自家AI加速硬件,云端AI算力版圖正迅速擴張。
甲骨文此次押下重注推出Zettascale10,一方面鞏固了與OpenAI的戰略聯盟,另一方面也是向業界宣示其在AI時代不容忽視的新實力。
然而在市場前景上,甲骨文依然面臨如何吸引客戶的問題。
為此,該公司還發布了新的「多云通用積分」計劃,允許運營商用統一的預付積分在甲骨文云及AWS、Azure、Google等多家云服務間自由調配甲骨文數據庫和OCI服務。

這項舉措旨在降低客戶遷移門檻、提高平臺黏性,為甲骨文云生態爭取更大的用戶基礎。
OCI Zettascale10的出現展示了云服務商為滿足AI空前算力需求所做的大膽探索。
等到明年這套系統真正落地,我們才能知道甲骨文能否憑借這一云端「巨無霸」在激烈的AI基礎設施競賽中搶得先機,并兌現其關于高效、規模和可靠性的承諾。




























