超微AMD日前宣布合作夥伴Zyphra在大規模AI模型訓練方面達成重大里程碑,成功開發出ZAYA1,為首個完全採用AMD Instinct MI300X GPU、AMD Pensando網路技術與ROCm開放軟體堆疊訓練的大規模混合專家(Mixture-of-Experts, MoE)基礎模型。此成果展現AMD在高效能運算與AI領域的領導地位,並為產業提供更具效率與可擴展性的解決方案。

AMD Instinct MI300X GPU。擷取超微官網
Zyphra測試結果顯示,ZAYA1在推理、數學與編碼等基準測試中,效能超越Llama-3-8B與OLMoE,並與Qwen3-4B及Gemma3-12B相媲美。AMD Instinct MI300X GPU的192GB高頻寬記憶體,讓Zyphra能以更簡化的資源配置完成大規模訓練,無須仰賴昂貴的專家或張量分片技術,並透過最佳化分散式I/O,將模型儲存時間加快逾10倍,顯著提升訓練效率與可靠性。
AMD人工智慧事業群人工智慧與工程全球副總裁Emad Barsoum表示,AMD在加速運算領域的領導地位,正為Zyphra等創新者挹注動能,持續突破AI的極限。這項里程碑展示了AMD Instinct GPU與Pensando網路技術在訓練複雜大規模模型方面的強大能力與靈活性。
Zyphra執行長Krithik Puthalath則指出,ZAYA1體現這項理念,很高興成為首家在AMD平台上展示大規模訓練的公司。這個成果彰顯模型架構與晶片系統共同設計的力量,期待在建構下一代多模態基礎模型的進程中,深化與AMD及IBM的合作。
基於既有合作基礎,Zyphra與AMD及IBM緊密合作,設計並部署搭載AMD Instinct GPU與Pensando網路互連技術的大規模訓練叢集。該系統結合IBM Cloud的高效能網路與儲存架構,為ZAYA1的大規模預訓練奠定基礎,展現跨企業協作的成果。�