OCP2025 APAC Summit- UALINK Overview
- simpletechtrend
- 8月9日
- 讀畢需時 3 分鐘
UALink 1.0:為 AI 與 HPC 打造的開放式 Scale-Up 高速互連 — OCP2025 APAC Summit
在 OCP2025 APAC Summit 上,UA-Link 主席 Curtis Bowman 深入介紹了 UALink 1.0 規範,這是一個專為 AI 與 HPC(高性能運算)工作負載設計的 開放式 scale-up fabric。隨著 AI 模型與資料集規模暴增,單卡 GPU 記憶體已無法滿足需求,UALink 提供了一種可將多顆加速器整合為單一大規模虛擬加速器的解決方案。它具備 低延遲、高頻寬、低功耗 的特性,並採用 完全開放的標準,允許任何 CPU、GPU、加速器與交換機加入,避免被單一廠商鎖定。
內容
1. 為何需要 UALink
AI 記憶體需求爆炸:大型 AI 模型的參數與資料集超過單顆 GPU 記憶體上限,需要透過高效互連讓多顆 GPU/加速器協同運作。
現有方案不足:PCIe 與 CXL 等標準無法滿足延遲與頻寬需求;現行市場標準 NVLink 屬於 NVIDIA 專有,且封閉性限制產業創新。
目標:建立一個具備高性能、可擴展、完全開放的 scale-up interconnect 標準。
2. 架構與技術特點
開放協議
任何 CPU、任何加速器、任何交換機都可參與。
擁有協議層、交易層、資料鏈路層的 UALink 自有設計,下層採 IEEE 802.3 DJ 200G PHY,與既有電纜、連接器、重定時器完全相容。
可擴展性
支援 8–1,000 顆加速器(以銅纜互連)。
提供虛擬 pod 功能,可拆分資源給不同租戶。
高性能與低延遲
單鏈路 200 Gbps/lane,可達 800 Gbps。
協定優化後延遲僅 210–260 ns,遠低於乙太網的 650 ns–1.3 μs。
記憶體通道與封包高效交錯,支援多目標請求與回應同封傳輸。
帶寬效率高達 93%(乙太網約 65–90%)。
功耗與面積優勢
單埠邏輯面積僅 1.5 mm²(乙太網約 10 mm²)。
降低交換機與加速器功耗,提升整機能源效率。
功能擴展
支援 in-network collectives,將部分運算卸載至網路層。
規劃 UALink chiplets,方便廠商快速整合 I/O 能力。


3. 生態系統與發展路線

產業支持:超過 100 家成員,包括晶片設計商、雲服務商、ODM 與 IP 提供商(如 AWS、Apple 等)。
技術傳承:基於 AMD Infinity Fabric,結合會員技術輸入進行優化。
未來版本:
即將支援 128G PCIe PHY。
新增網路運算功能與交換機支援,最快明年初推出樣品。
提供兼容性認證計畫,確保多廠商實作互通。
4. 與 NVIDIA NVLink Fusion 的比較
NVLink Fusion:需使用 NVIDIA CPU/GPU 與 NVIDIA 交換機,封閉性高,外部廠商無法影響其演進方向。
UALink:完全開放、跨廠商互通,並允許社群共同決策功能演進。
結論
UALink 1.0 的推出,為 AI 與 HPC 提供了一條 擺脫單一廠商鎖定、同時滿足高頻寬、低延遲與可擴展性的互連路徑。它站在既有乙太網與高速互連技術的基礎上,透過針對加速器間負載儲存操作的深度優化,達成遠超現有開放標準的效能表現。未來,隨著更高速 PHY、網路內運算與 chiplet 整合落地,UALink 有望成為 開放式 scale-up fabric 的產業標準。





留言