輝達GB200 量產版現身鴻海科技日。陳俐妏攝
輝達(NVIDIA)今天宣布已將 NVIDIA Blackwell 加速運算平台設計的基礎要素貢獻給開放運算計畫(OCP)使用,並擴大 NVIDIA Spectrum-X支援 OCP 標準的程度。輝達創辦人暨執行長黃仁勳表示,NVIDIA 從跟 OCP 合作十年的基礎出發,與產業領導廠商共同努力,。輝達推動開放標準,協助全球各地的組織充分發揮加速運算技術的潛力,打造未來的 AI 工廠。
NVIDIA 在今年的 OCP 全球高峰會上,將與 OCP 社群分享 NVIDIA GB200 NVL72 系統機電設計的關鍵組成,包括機架架構、運算與交換器托盤機構、液冷與熱環境規格,以及 NVIDIA NVLink™ 纜線盒的體積容量,以支援更高的運算密度與網路頻寬。
NVIDIA 已經橫跨多個硬體世代做出多次正式貢獻給 OCP,其中包括 NVIDIA HGX™ H100 基板設計規格,以幫助生態系提供來自全球電腦製造商更多的產品選擇,還有擴大人工智慧(AI)的應用範圍。
此外,NVIDIA Spectrum-X 乙太網路平台更加符合 OCP 社群所制定的規格,可讓企業部署 OCP 認可的設備,發揮 AI 工廠的效能潛力,又能保留原本的投資及保持軟體一致性。
電腦製造商採用建立在 NVIDIA MGX™ 模組化架構上的 GB200 NVL72,便能以快速且符合成本效益的方式建立大量資料中心基礎設施設計。
這款機架規模設計的液冷系統,連接 36 顆NVIDIA Grace CPU 和 72 顆 NVIDIA Blackwell GPU。當中的72顆GPU的NVIDIA NVLink 網域,可以當成一個大型 GPU 進行運作,在上兆個參數的大型語言模型進行即時推論作業時,速度比 NVIDIA H100 Tensor 核心 GPU 快上 30 倍。
現加入新一代 NVIDIA ConnectX-8 SuperNIC 的 NVIDIA Spectrum-X 乙太網路平台,支援 OCP 的交換機抽象層介面(Switch Abstraction Interface,SAI)與 Software for Open Networking in the Cloud(SONiC)標準。這樣一來客戶便能使用 Spectrum-X 的動態路由和基於遙測的壅塞控制技術,加速橫向擴充式 AI 基礎設施的乙太網路效能。
ConnectX-8 SuperNIC 具有速度高達 800Gb/s 的加速網路,以及針對大規模 AI 工作負載進行最佳化的可程式化資料包處理引擎。適用於 OCP 3.0 的 ConnectX-8 SuperNIC 將於明年推出,協助組織建立高度靈活的網路。
此外,還有不少合作夥伴也在 Blackwell 平台上進行創新與建置,其中包括 Meta,該公司計畫將其搭載 GB200 NVL72 的 Catalina AI 機架架構貢獻給 OCP。這樣提供電腦製造商靈活的選擇以建立高運算密度系統,且能滿足資料中心不斷成長的效能與能源效率需求。