伺服器大廠美超微(Supermicro)日前宣布,擴大其NVIDIA Blackwell架構產品系列,推出全新4U與2-OU(OCP)液冷NVIDIA HGX B300系統,並已開始大量出貨。新平台採用Supermicro資料中心建構組件解決方案(Data Center Building Block Solutions, DCBBS)架構,專為超大規模資料中心與AI工廠打造,提供前所未有的GPU密度、能源效率與快速部署能力。

美超微擴大其NVIDIA Blackwell架構產品系列,推出全新4U與2-OU(OCP)液冷NVIDIA HGX B300系統。�美超微/提供
Supermicro總裁暨執行長梁見後表示,全球AI基礎設施需求正以驚人速度成長,而新一代液冷式HGX B300系統正是為此而生。「我們打造業界最緊湊的HGX B300解決方案,可在單一機架支援最高144個GPU,並透過經認證的直接液冷技術大幅降低電力與散熱成本。這體現Supermicro協助客戶加速AI工廠建置的核心理念:更快上市、更高每瓦效能,以及從設計到部署的完整整合。」
全新的2-OU(OCP)HGX B300系統基於21吋OCP Open Rack V3(ORV3)規格,可在單一機架容納最多18個節點、144個GPU,實現極致密度並節省機房空間。系統採用盲插式冷卻液歧管、模組化GPU/CPU托盤架構與先進液冷技術,搭載8個NVIDIA Blackwell Ultra GPU(每顆最高1,100W TDP),能以更低能耗支援大型AI訓練與推論工作負載。
透過NVIDIA Quantum-X800 InfiniBand交換器與Supermicro 1.8MW機架列間式冷卻液分配單元(CDU),客戶可輕鬆擴充至大型叢集架構;例如8個運算機架、3個網路機架與2個CDU即可組成含1,152個GPU的超級叢集單元。
對應OCP版本,Supermicro同步推出4U前置I/O液冷HGX B300系統,適用於傳統19吋EIA機架。該系統採用Supermicro DLC-2直接液冷技術,可冷卻高達98%的系統熱能,為密集AI訓練與推論叢集提供更佳能源效率、可維護性與更低噪音。
兩款平台皆搭載2.1TB HBM3e GPU記憶體,能以系統層級支援更大規模模型訓練。透過整合NVIDIA ConnectX-8 SuperNIC與NVIDIA Quantum-X800 InfiniBand或Spectrum-4 Ethernet,網路處理量可提升至兩倍、最高800Gb/s,進一步加速代理式AI、基礎模型訓練與多模態推論等工作負載。
Supermicro表示,新系統的設計以客戶在TCO、可維護性與能源效率的需求為核心。DLC-2液冷技術可協助資料中心降低最高40%電力消耗,並以45°C溫水運行減少用水量,無需冷卻水塔與壓縮機。Supermicro亦提供L11與L12機架級驗證,協助企業與政府客戶加速部署。
此次新品進一步擴大Supermicro的NVIDIA Blackwell平台陣容,包括NVIDIA GB300 NVL72、HGX B200與RTX PRO 6000 Blackwell伺服器版本。所有系統均通過NVIDIA完整認證,並整合NVIDIA AI Enterprise與NVIDIA Run:ai,協助客戶從單一節點到完整AI工廠快速建構基礎設施。�