top of page

HOT CHIPS 2025: Lightmatter 的 Passage M1000,為什麼 3D Photonic Interposer 是 AI 系統的必然選項

當 AI 系統繼續放大,真正的瓶頸開始出現在封裝層級

隨著 AI 模型規模與系統算力持續擴張,問題早已不只是單顆晶片效能,而是整個系統如何被有效地「組裝」在一起。

  • 單顆 GPU 或 ASIC 無法承載完整模型與資料流

  • 系統效能高度依賴晶片之間的互連頻寬與延遲

  • 封裝不再只是把晶片放在一起,而是系統效能的一部分

  • 傳統封裝與互連方式逐漸接近物理極限

Lightmatter 的核心判斷是,如果 AI 系統要持續擴展,封裝架構本身必須被重新設計。


為什麼傳統 2D interposer 正在接近極限

目前主流的先進封裝,大多仍建立在二維平面的 interposer 架構上。

  • 訊號與 I/O 資源主要沿著晶片邊緣配置

  • 頻寬擴展高度依賴 perimeter 長度

  • 走線密度與訊號交錯問題愈來愈嚴重

  • 功耗與延遲隨著距離快速上升

即使導入 Co-Packaged Optics,本質上仍然是二維平面的延伸,並沒有真正改變「邊緣受限」的結構。


Passage M1000 的核心概念:真正的 3D 光子 interposer

Lightmatter 在 Hot Chips 2025 發表的 Passage M1000,並不是一個傳統意義上的光學模組,而是一個 3D photonic interposer。

  • 光子層成為封裝結構的核心,而非附加元件

  • 計算 die 以 face-down 方式直接鍵合在光子層上

  • 光學 TX/RX 成為晶片下方的內建資源

  • I/O 不再集中在邊緣,而是可在整個晶片平面分布

這樣的設計,從根本上改變了封裝與互連的角色定位。


為什麼「3D」是關鍵,而不只是光學

Lightmatter 強調的是 3D,而不只是 photonics,原因在於架構層級的限制無法只靠材料改變解決。

  • 二維架構的瓶頸在於邊緣與平面走線

  • 3D 架構可以引入垂直方向的 I/O 與頻寬

  • 光學提供距離與能效,3D 提供密度與擴展性

Passage M1000 的價值,在於同時解決這兩個問題,而不是只優化其中一個。


Passage M1000 帶來的系統能力

從系統層級來看,Passage M1000 提供的是一個全新的互連平台,而非單一產品。

  • 封裝頻寬可達百 Tbps 等級

  • 支援上千條 SerDes 與光學通道

  • 可直接對接高密度光纖連接

  • 支援可重構的 optical circuit switching

這使得 AI 系統在互連拓撲上,不再被固定的電氣連線方式限制。


為什麼這條路線不追求短期量產

Lightmatter 並沒有將 Passage M1000 定位為立即大規模量產的方案,這是一個非常誠實且關鍵的訊號。

  • 3D 光子 interposer 的製造與良率門檻極高

  • 封裝成本遠高於現有 2.5D 或 CPO 架構

  • 系統導入需要高度客製化設計

但這並不代表它不重要,恰恰相反,這代表它瞄準的是下一個不可避免的階段。


Passage M1000 對超大規模 AI 系統的意義

在超大規模 AI 系統中,傳統的「更多機櫃、更多交換器」策略開始失效。

  • 系統延遲累積,影響同步效率

  • 能耗快速上升,邊際效益下降

  • 拓撲設計愈來愈複雜

3D photonic interposer 提供了一條不同的路。

  • 將更多互連能力拉回封裝內部

  • 讓系統像一顆更大的晶片運作

  • 降低對外部交換層級的依賴

這正是 Passage M1000 想要展示的未來方向。


與 Celestial AI、Ayar Labs 路線的差異

如果將這三家公司放在同一張光互連地圖上,可以清楚看出差異。

  • Celestial AI 將光學引入 SoC 內部

  • Ayar Labs 用 retimer 延伸現有電氣生態

  • Lightmatter 則重寫封裝本身的結構

Passage M1000 是三者中最激進、也最長期的路線。


Simple Tech and Trend 的觀點

Lightmatter 展示的不是下一代產品,而是下一個物理與架構邊界。

  • 當二維封裝無法再承載系統成長

  • 當互連成為效能與能耗的主要限制

  • 3D photonic interposer 將從研究題目變成工程選項

Passage M1000 代表的是一個清楚的訊號:AI 系統的未來,勢必要從平面走向立體。

最新文章

查看全部
HOT CHIPS 2025: Ayar Labs 的 UCIe Optical I/O Retimer,為 AI Scale-up 打開新的互連層級

AI Scale-up 的本質問題其實是互連,而不是算力 在大型 AI 訓練與推論系統中,效能不再只由單顆 GPU 或 ASIC 決定,而是取決於整個系統是否能像一顆「更大的電腦」那樣協同運作。 模型規模持續擴大,單顆晶片已無法承載完整運算 Scale-up 架構需要讓多顆 GPU 以低延遲、高頻寬方式緊密協作 傳統電氣互連在距離、功耗與頻寬上逐漸碰到極限 Pluggable optics 雖然解

 
 
 
HOT CHIPS 2025: Celestial AI 的 Photonic Fabric Module 如何重新定義 SoC I/O 架構

SoC 面臨的真正瓶頸已不在算力,而在 I/O 過去十多年,半導體產業不斷透過堆疊算力來提升系統效能,這條路在 AI 時代依然成立,但開始出現明顯的結構性限制。 不論是 CPU、GPU 或 AI 加速器,設計核心都是持續增加運算單元、快取容量與內部頻寬 隨著晶片面積放大,運算單元可以向晶片中央擴展,但 I/O 只能配置在晶片邊緣 晶片面積成長速度遠快於周長成長,導致 I/O 資源無法與算力同步擴展

 
 
 
GPU 時代不再獨大?解析 AWS Trainium 4、NVLink Fusion 與下一代 AI 互連標準

1. 前言:AI 時代的算力新戰爭正在開始 過去十年,我們習慣把「AI=GPU」,彷彿訓練大型模型就是 NVIDIA 的專屬領域。 從 GPT-3、Stable Diffusion,到近年的多模態模型與 Agentic AI,NVIDIA 幾乎壟斷了整個算力供應鏈。 但 2025 年開始,局勢不一樣了。 AI 模型越來越巨大、越來越多模態、推論量也因 AI Agent 爆炸式成長, 「算力」不再是

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page