top of page

OCP Global Summit 2025_AMD_A Fully Open and Collaborative AI Ecosystem

前言

在 OCP Global Summit 2025 上,AMD 分享了他們對 AI 基礎設施的觀點,主題是 「A Fully Open and Collaborative AI Ecosystem」。AMD 強調,AI 市場正在以驚人的速度成長,推動資料中心進入新一輪基礎設施升級。核心訊息很清楚:唯有透過開放與合作,才能真正釋放 AI 的潛力


內容

AI 市場的爆炸性成長

AMD 提到,2023 年 AI 市場規模約 450 億美元,到 2028 年可能突破 5000 億美元,年複合成長率高達 60%,而推論(Inference)甚至達到 80%。這些數字雖然驚人,但仍可能低估了 AI 帶來的總體需求。


開放生態系的重要性

AMD 認為,每一次資訊產業的重大突破都來自「開放」:從 Linux、TCP/IP,到行動生態系。AI 也不例外。AMD 要推動的不只是開放硬體(UCIE、CXL、UALink、UEC),還包括軟體(ROCm、PyTorch、Triton)。這與 NVIDIA 封閉的 CUDA 生態形成鮮明對比。


硬體與互連標準

在互連方面,AMD 展示了完整的策略:

  • Scale-out:支持 UEC (Ultra Ethernet Consortium),推進以太網 AI 負載能力。

  • Scale-up:主導 UALink,將自家 Infinity Fabric 捐出來作為基礎。

  • ESON:允許 UALink over Ethernet,實現跨層級兼容。

  • Helios Rack:基於 Open Rack Wide,整合 EPYC CPU、MI300 GPU、CXL、UALink、PCIe 6.0,打造模組化開放架構。


軟體與 ROCm 生態

ROCm 已有十年歷史,從 HPC 擴展到 AI。2024 年 MI300X 已創造 50 億美元營收。2025 年起,AMD 將進一步開放 ROCm,支援更多 AI 框架,並計畫將 ROCm 帶到 Ryzen + Radeon PC 平台,讓更多開發者能快速上手。


機密運算與 CPU 生態

AMD 也提出 Confidential Computing 的重要性,並將安全性擴展到 GPU 與加速器,結合 Caliptra 與 OCP attestation。

同時,AMD 與 Intel 聯手組成 x86 Advisory Group,推動 AI 指令集標準化,確保 x86 架構在 AI 時代持續維持主導地位。


總結

AMD 在 OCP 2025 傳達的訊息是:Open vs Closed

  • 在硬體上,用 UEC、UALink、Helios Rack 來構築開放基礎。

  • 在軟體上,用 ROCm 與開源框架挑戰 NVIDIA CUDA 的封閉。

  • 在安全與 CPU 生態上,則透過 Confidential Computing 與 Intel 合作維護 x86 的延續性。

AMD 的戰略不是搶下領先地位,而是成為 產業急需的「第二選擇」,避免 NVIDIA 的單一生態壟斷,進而確保市場的平衡與競爭。


延伸觀點

  1. 技術影響

    • AMD 的 Helios Rack 與 UALink 策略,展現了在 模組化與互連標準化 上的野心。這與 Broadcom 的 ESUN 與 NVIDIA 的 Spectrum-X 不同,形成三大陣營對決。

  2. 供應鏈觀察

    • AMD 把 Infinity Fabric 捐給 UALink,等於釋出核心 IP 來換取生態支持。這對 網路晶片廠(Broadcom、Marvell)、光模組廠(InnoLight、Lumentum) 都是新機會。

    • ROCm 的普及若能成功,可能動搖 CUDA 的壟斷,也會帶動更多 EDA、雲端廠商 加入合作。

  3. 市場趨勢

    • Hyperscaler 客戶正尋找 避免被單一廠商綁定 的選項,AMD 的「開放」定位可能讓他們成為戰略性採購對象。

    • 長期來看,若 ROCm + PC 平台能吸引開發者,AMD 有機會逐步削弱 NVIDIA 的軟體優勢,建立真正的雙強格局。

最新文章

查看全部
OCP Global Summit 2025_NVIDIA_Shaping the Future of Open Infrastructure for AI

前言 在 OCP Global Summit 2025 上,NVIDIA 分享了他們如何透過開放基礎設施推動 AI 的未來發展。演講中強調,AI 已經進入  Gigascale 時代  —— 全球各地的資料中心以「GW(Gigawatt)」等級建設,從單一晶片、伺服器,到跨資料中心的超級集群,都需要全新的架構與創新。NVIDIA 在這個過程中不僅是 GPU 的提供者,更是完整 AI 基礎設施生態的

 
 
 
OCP Global Summit 2025_Broadcom_Networking for AI Scaling

前言 在這場 OCP Global Summit 2025 的演講中,Broadcom 聚焦於  AI 擴展時代的網路基礎 。隨著單一公司一次性宣布超過 26 GW 的資料中心計畫,AI 訓練與推論的基礎設施需求已經進入前所未有的規模。Broadcom 提出的核心觀點是: 唯有 Ethernet 能同時支撐 Scale-up、Scale-out 與跨資料中心的 Scale-across 。 內容

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page