top of page

OCP Global Summit 2025_Intel_Scaling AI at the Speed of Openness: From Silicon to Systems

前言

在這場 OCP Global Summit 2025 中,Intel 聚焦於一個關鍵主題:「如何以開放、模組化與異質化的基礎架構推動 AI 基礎設施的擴展」。面對生成式 AI、推理與 Agentic AI 帶來的計算與網路挑戰,Intel 提出了從 矽(silicon)到系統(systems) 的完整願景。這場分享不僅回顧了過去 OCP 社群推動資料中心標準化的經驗,也強調 Intel 未來將如何以「開放策略」重返 AI 基礎架構舞台。


內容

1. 從開放協作到 AI 新時代

Intel 首先回顧了過去與 OCP 社群的合作,例如 DCMHS (Data Center Modular Hardware System) 在過去三年內推動開放式資料中心架構,讓不同晶片供應商、OEM 與雲端業者能共同定義模組化規格 Scaling AI at the Speed of Open…。現在,AI 的出現讓產業再次面臨「數十年一遇的變革」,Intel 認為必須建立同樣開放且模組化的平台來支撐 AI 的規模化發展。


2. Intel 的 AI 策略:全面擁抱開放

Intel 明確表示將「加倍投資 AI」,並採取開放策略:

  • AIPC:讓 AI 功能進入 PC 與日常工作裝置。

  • CPU + GPU + 加速器:從與 NVIDIA 的合作到自家 GPU 與專用 AI 加速器,Intel 要確保其技術能靈活嵌入所有 AI 系統。

  • 重點聚焦推理與 Agentic AI:Intel 不再追求全方位通吃,而是專注於能帶來「效能/成本最佳化」的 AI 推理與代理應用Scaling AI at the Speed of Open…。


3. 推理與 Agentic AI 的挑戰

Intel 指出,未來 AI 不只是單一大模型,而是由多模型、工具調用(Tool Calls)、資料處理與安全機制所組成的複雜代理系統。這些工作負載對硬體需求各異:

  • Prefill 階段 → 需要高計算力的 GPU/加速器

  • Decode 階段 → 需要高記憶體頻寬

  • 環境/沙箱測試 → 需要 CPU

  • 安全與防護 → 需要 CPU 或 DPU

因此,單一垂直整合的同質系統難以持續擴展,必須走向 異質化、開放化的架構 Scaling AI at the Speed of Open…。


4. 軟體是關鍵抽象層

在異質架構中,如何隱藏底層硬體差異是最大挑戰。Intel 提出「統一軟體堆疊」的概念,確保開發者不需修改程式碼,無論使用 PyTorch、HuggingFace 或 LangChain,都能直接運行於異質系統上。這將透過 編譯器與工作負載編排器 自動將不同子任務分配至最適合的硬體 Scaling AI at the Speed of Open…。


5. 新產品:Crescent Island GPU

Intel 公布了下一代資料中心 GPU——代號 Crescent Island,將於 2026 下半年提供樣品:

  • 專為推理與代理工作負載最佳化

  • 採用 LPDDR 以降低功耗

  • 兼具計算力、記憶體容量與頻寬的平衡設計

  • 完全可程式化,支援廣泛 AI 應用Scaling AI at the Speed of Open…

這款 GPU 將補足 Intel 在異質架構中的角色,尤其在 Prefill 階段表現突出。


6. x86 生態系的標準化努力

Intel 強調 CPU 在 Agentic AI 中依舊不可或缺,因此推動 x86 生態系標準化

  • 與 AMD 等廠商合作,確保 中斷處理 (FRED) 與 AVX10 指令集 在所有 x86 平台上具一致性。

  • 透過這樣的合作,降低軟體相容性問題,讓企業能更輕鬆部署 AI 應用Scaling AI at the Speed of Open…。


7. 以開放網路串聯異質架構

在系統層級,Intel 提倡透過 開放以太網路 (Ethernet) 串接不同硬體組件,並結合 OCP 社群定義的標準化機櫃與散熱方案,打造真正可擴展的 AI 基礎設施 Scaling AI at the Speed of Open…。


總結

Intel 在 OCP Global Summit 2025 的分享凸顯了「開放」與「異質性」的重要性。隨著 Agentic AI 與推理成為主流,單一垂直整合的封閉式架構難以因應成本與靈活性挑戰。Intel 提出的願景是:

  • 以軟體堆疊隱藏硬體異質性

  • 持續推出針對推理最佳化的 GPU 與 CPU

  • 與產業共同推進 x86 與開放網路標準


延伸觀點

從更廣的產業角度來看,Intel 的策略是一種「現實務實的選擇」。雖然 NVIDIA 在 AI 訓練市場佔據優勢,但推理與 Agentic AI 的經濟效益將在未來數年成為主戰場。Intel 透過 CPU 的普及性與新一代 GPU 的推出,搭配開放式架構,有機會在「效能/成本比」這個維度上切入市場。

這種 heterogeneous + open networking 的趨勢,與矽光子 (SiPh) 與光互連技術的發展高度契合。當推理工作負載需要更大規模的 token throughput,如何在 低延遲、高頻寬、低功耗 的條件下實現跨節點通訊,將會是 Intel、Broadcom、NVIDIA 乃至整個 OCP 社群的共同挑戰。

最新文章

查看全部
OCP Global Summit 2025_Dell_Scaling Data Center Infrastructure

前言 在 OCP Global Summit 2025 上,Dell 分享了他們如何透過  OCP 標準與模組化設計 ,推動資料中心在 AI 與 HPC 時代的基礎設施演進。從 DC-MHS 到 Open Rack v3,再到液冷解決方案,Dell 強調  標準化 + 模組化 + 液冷創新 是應對 GPU 高速演進與超高功耗的核心策略 Scaling Data Center Infrastruct

 
 
 
OCP Global Summit 2025_Microsoft_Infrastructure for a New Era: Powering AI at Frontier Scale

前言 在 OCP Global Summit 2025 上,Microsoft 分享了如何透過  Azure 基礎設施與 OCP 標準 ,推動 AI 運算進入前所未有的規模。他們強調,AI 的發展已經進入「中場階段」,不再只是展示潛力的 Lap One,而是需要  紀律、效率與責任  的長期擴展 Infrastructure for a New Era Po…。 內容 Azure 擴展與 Fair

 
 
 
OCP Global Summit 2025_Oracle_Building Zettascale AI Clusters with OCI: Scaling Together with Open Ecosystem for the Next Gen AI Cluster

前言 Oracle 在 OCP Global Summit 2025 上帶來了關於  如何以 OCI(Oracle Cloud Infrastructure)建構 Zettascale 級別 AI 超級集群  的演講。隨著 AI 基礎設施的快速擴展,Oracle 強調  速度、規模與開放標準  是下一代資料中心的三大核心關鍵,並透過 OCP 社群推動標準化,來降低供應鏈與部署風險 Building

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page