top of page

HOT CHIPS 2025: Ayar Labs 的 UCIe Optical I/O Retimer,為 AI Scale-up 打開新的互連層級

AI Scale-up 的本質問題其實是互連,而不是算力

在大型 AI 訓練與推論系統中,效能不再只由單顆 GPU 或 ASIC 決定,而是取決於整個系統是否能像一顆「更大的電腦」那樣協同運作。

  • 模型規模持續擴大,單顆晶片已無法承載完整運算

  • Scale-up 架構需要讓多顆 GPU 以低延遲、高頻寬方式緊密協作

  • 傳統電氣互連在距離、功耗與頻寬上逐漸碰到極限

  • Pluggable optics 雖然解決距離問題,但功耗、成本與延遲仍偏高

Ayar Labs 的核心判斷是:如果 Scale-up 是未來 AI 系統的關鍵,那麼互連必須從「系統外部」走向「封裝內部」。


為什麼 UCIe 成為光學互連進入封裝的關鍵接口

UCIe 的出現,為 chiplet 與異質整合建立了一個標準化的電氣介面,但它原本設計的前提仍然是短距離電氣連線。

  • UCIe 解決的是 die-to-die 的電氣互連一致性問題

  • 在大型系統中,UCIe 本身的距離仍然受限於封裝與板級設計

  • 若要跨封裝、跨板甚至跨機櫃,仍然需要光學互連

Ayar Labs 的策略不是取代 UCIe,而是延伸 UCIe。

  • 保留 UCIe 作為 SoC 與 chiplet 的標準接口

  • 在 UCIe 與系統之間加入光學 retimer

  • 讓 UCIe 的邏輯世界,可以無縫延伸到光學連線

這使得 Scale-up 架構在軟體與系統層面幾乎不需要重新定義。


什麼是 Optical I/O Retimer,而不是 Optical Switch

Ayar Labs 特別強調其產品定位為 Optical I/O Retimer,而非交換器,這背後反映的是非常清楚的系統設計邏輯。

  • Retimer 的角色是重定時與協議維持,而非流量調度

  • 資料從 UCIe 進入後被完整重新取樣與校準

  • 光學連線只是延伸資料通道,而非引入新的封包語意

這種設計有幾個關鍵好處。

  • SoC 不需要理解光學層的存在

  • 系統行為在邏輯上仍然符合 UCIe 預期

  • 延遲可被精準控制在數十奈秒等級

對 AI Scale-up 而言,這比功能更複雜的光學交換架構更實用。


為什麼 Ayar Labs 選擇 micro-ring 作為核心光學元件

與 Celestial AI 採取 EAM 路線不同,Ayar Labs 明確押注 micro-ring 技術,這與其產品定位高度相關。

  • Micro-ring 具備極高的波長密度

  • 非常適合在單根光纖上實現多波長傳輸

  • 在相同封裝面積內可提供更高的總頻寬

Ayar Labs 的關鍵在於系統級工程,而非單一元件特性。

  • 透過高速熱調諧與閉環控制,解決溫度敏感問題

  • 將熱響應速度提升到可追蹤 AI 晶片的瞬態熱變化

  • 實測顯示可承受等效每秒數百攝氏度的熱漂移

這讓 micro-ring 在實際 AI 封裝環境中,從「難以控制」變成「可工程化」。


Retimer 架構如何解耦電氣與光學世界

Ayar Labs 的 Optical Retimer 架構,本質上是在系統中插入一個「協議防火牆」。

  • SoC 端只需要面對熟悉的 UCIe 電氣接口

  • 光學端可以自由演進,不影響 SoC 設計

  • 不同世代的光學技術可透過同一 UCIe 邏輯介面接入

這種解耦對系統設計非常重要。

  • 降低 SoC 設計風險

  • 讓光學互連成為可替換、可升級的模組

  • 有利於生態系發展,而非單一供應商綁定

這也是 Ayar Labs 強調「retimer 而非 switch」的根本原因。


在 AI Scale-up 中,為什麼 Retimer 比 Switch 更關鍵

在 Scale-up 場景中,資料模式與網路交換場景本質不同。

  • 資料流高度結構化,來源與目的地明確

  • 追求極低延遲與高度同步,而非動態路由

  • 封包重新排序與緩衝反而會引入抖動

Retimer 的優勢正好切中這些需求。

  • 固定延遲,行為可預期

  • 不引入額外排隊與流控機制

  • 非常適合 GPU-to-GPU 與 memory pooling 架構

這使得 Optical Retimer 成為 Scale-up 的理想互連元件。


Ayar Labs 技術路線的系統級價值

從 Hot Chips 2025 的內容來看,Ayar Labs 並不是在推銷單一光學技術,而是在建構一個可擴展的系統框架。

  • 光學互連不再只用於機櫃或資料中心層級

  • 而是正式進入封裝與 chiplet 生態

  • 與 UCIe 的結合,降低導入門檻

這條路線對於 AI 硬體生態系尤其重要。

  • 有助於標準化而非碎片化

  • 為未來多供應商架構留下空間

  • 讓 Scale-up 不再被封裝距離限制


Simple Tech and Trend 的觀點

Ayar Labs 提供的不是一條激進的「光學取代一切」路線,而是一個工程上務實、系統上可落地的過渡方案。

  • Retimer 是連接電氣與光學世界的關鍵節點

  • UCIe 是現實世界中最可行的切入點

  • Scale-up 光學化可以逐步發生,而非一次翻轉

這場分享清楚說明了一件事:AI 系統的下一步,不只是更大的晶片,而是更聰明的互連。

最新文章

查看全部
HOT CHIPS 2025: Celestial AI 的 Photonic Fabric Module 如何重新定義 SoC I/O 架構

SoC 面臨的真正瓶頸已不在算力,而在 I/O 過去十多年,半導體產業不斷透過堆疊算力來提升系統效能,這條路在 AI 時代依然成立,但開始出現明顯的結構性限制。 不論是 CPU、GPU 或 AI 加速器,設計核心都是持續增加運算單元、快取容量與內部頻寬 隨著晶片面積放大,運算單元可以向晶片中央擴展,但 I/O 只能配置在晶片邊緣 晶片面積成長速度遠快於周長成長,導致 I/O 資源無法與算力同步擴展

 
 
 
Marvell 2025 Industry Analyst Day深度解讀

前言:這不是一場普通的 Analyst Day 2025 年 12 月 9 日,Marvell Technology 在美國聖塔克拉拉舉辦的 Industry Analyst Day,表面上是一場常見的「對分析師說明公司前景」的活動,但實際上,它更像是一份向市場公開的「轉型聲明書」。 幾個關鍵背景先釐清: Marvell 在 2026 會計年度第三季交出 年增 37%、營收 20.75 億美元的成

 
 
 
GPU 時代不再獨大?解析 AWS Trainium 4、NVLink Fusion 與下一代 AI 互連標準

1. 前言:AI 時代的算力新戰爭正在開始 過去十年,我們習慣把「AI=GPU」,彷彿訓練大型模型就是 NVIDIA 的專屬領域。 從 GPT-3、Stable Diffusion,到近年的多模態模型與 Agentic AI,NVIDIA 幾乎壟斷了整個算力供應鏈。 但 2025 年開始,局勢不一樣了。 AI 模型越來越巨大、越來越多模態、推論量也因 AI Agent 爆炸式成長, 「算力」不再是

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page