top of page

HOT CHIPS 2025: Celestial AI 的 Photonic Fabric Module 如何重新定義 SoC I/O 架構

SoC 面臨的真正瓶頸已不在算力,而在 I/O

過去十多年,半導體產業不斷透過堆疊算力來提升系統效能,這條路在 AI 時代依然成立,但開始出現明顯的結構性限制。

  • 不論是 CPU、GPU 或 AI 加速器,設計核心都是持續增加運算單元、快取容量與內部頻寬

  • 隨著晶片面積放大,運算單元可以向晶片中央擴展,但 I/O 只能配置在晶片邊緣

  • 晶片面積成長速度遠快於周長成長,導致 I/O 資源無法與算力同步擴展

  • 在大型 AI SoC 中,即使算力仍能增加,資料進出晶片的能力卻開始成為效能瓶頸

這個問題不是設計選擇,而是物理幾何帶來的必然結果。


為什麼單靠電氣 I/O 已經無法解決問題

電氣互連在短距離內仍然有效,但在高頻寬、長距離的條件下,限制會被快速放大。

  • 隨操作頻率提升,電氣 I/O 的功耗呈非線性上升

  • 訊號完整性與雜訊容忍度下降,系統穩定性變得更難維持

  • 封裝與走線設計愈來愈複雜,設計成本與風險同步上升

  • 即使導入先進製程、封裝與 SerDes 技術,也只能延後問題發生

Celestial AI 的判斷很直接:如果瓶頸來自物理尺度本身,繼續在電氣互連上做優化,已經不是長期解法。


Celestial AI 的根本思路:I/O 不該只存在於晶片邊緣

多數光互連方案的出發點,是把光學模組盡量靠近晶片邊緣,以縮短電氣連線距離。Celestial AI 則選擇重新定義整個 I/O 架構。

  • Photonic Fabric Module 並不是單純的 co-packaged optics

  • Silicon photonics 被深度整合進 interposer,而非只是外圍模組

  • 光學 I/O 可以部署在晶片內部,接近 cache、memory controller 或內部 fabric

  • I/O 不再被迫沿著 perimeter 排列,而是成為可自由配置的架構資源

這代表 SoC 的 I/O 版圖不再由物理邊緣決定,而是由系統架構需求決定。


為什麼 Celestial AI 選擇 EAM 而不是 micro-ring

在光學調變器的選擇上,Celestial AI 採取了非常務實的工程取向,而非追求實驗室條件下的極限效率。

  • Micro-ring 的優勢在於高能效與波長密度

  • 但其高度依賴共振條件,對溫度變化極度敏感

  • 在高 TDP AI SoC 中,需要持續的波長調諧與控制,增加系統複雜度與風險

相較之下,Electro-Absorption Modulator 更符合系統級需求。

  • 不依賴共振結構,對溫度變化容忍度高

  • 驅動與控制電路較簡單,整合成本較低

  • 在大規模系統中行為可預期,穩定性高

在超大型 AI 系統中,穩定性往往比理論上的極限能效更重要。


Photonic Fabric Module 在架構層面的意義

Photonic Fabric Module 解決的不是單一連線速度,而是 SoC 如何持續擴展的根本問題。

  • I/O 頻寬可以隨晶片面積一起擴展,不再受限於邊緣周長

  • 長距離電氣互連被光學取代,有助於降低功耗並改善訊號完整性

  • 為多 die 與異質整合 SoC 提供更大的設計自由度

從封裝角度看,這是一種進階整合;從架構角度看,這是設計哲學的轉變。


與傳統 Co-Packaged Optics 的差異

傳統 Co-Packaged Optics 主要解決的是前面板密度與模組功耗問題,但仍然保留 I/O 邊緣化的結構。

  • 光學資源集中在封裝邊緣

  • I/O 仍然是受限於 perimeter 的資源

  • 無法從根本解決 I/O scaling 問題

Celestial AI 的 Photonic Fabric Module 則採取完全不同的方向。

  • 將光學資源分散到整個晶片平面

  • 讓 I/O 成為內部架構的一部分,而非附屬元件

  • 更接近 in-die Optical I/O 的概念


Simple Tech and Trend 的觀點

Celestial AI 並不是在為當下資料中心提供立即可量產的解法,而是在為下一個 SoC 架構世代鋪路。

  • 當電氣 I/O 無法再支撐算力擴展,光學進入晶片內部將成為必然

  • Photonic Fabric Module 提供了一個工程上可行、架構上合理的方向

  • I/O 不再只是晶片邊緣的附屬資源,而是系統設計的核心組成

這場 Hot Chips 2025 的分享,展示了光互連如何從「封裝選項」,走向「架構基礎」。

最新文章

查看全部
Marvell 2025 Industry Analyst Day深度解讀

前言:這不是一場普通的 Analyst Day 2025 年 12 月 9 日,Marvell Technology 在美國聖塔克拉拉舉辦的 Industry Analyst Day,表面上是一場常見的「對分析師說明公司前景」的活動,但實際上,它更像是一份向市場公開的「轉型聲明書」。 幾個關鍵背景先釐清: Marvell 在 2026 會計年度第三季交出 年增 37%、營收 20.75 億美元的成

 
 
 
法說精華:Broadcom(AVGO)|FY25 Q4

摘要 Broadcom 在 AI 與 VMware 雙引擎 推動下,交出歷史級成績單。FY25 全年營收 $64B(YoY +24%) ,其中 AI 半導體 $20B(YoY +65%) 、 Q4 營收 $18B(YoY +28%) ,AI 半導體單季 $6.5B(YoY +74%) 。公司 AI 訂單能見度大幅拉升, AI backlog 高達 $73B(未來 18 個月) , 涵蓋 XPUs、

 
 
 
GPU 時代不再獨大?解析 AWS Trainium 4、NVLink Fusion 與下一代 AI 互連標準

1. 前言:AI 時代的算力新戰爭正在開始 過去十年,我們習慣把「AI=GPU」,彷彿訓練大型模型就是 NVIDIA 的專屬領域。 從 GPT-3、Stable Diffusion,到近年的多模態模型與 Agentic AI,NVIDIA 幾乎壟斷了整個算力供應鏈。 但 2025 年開始,局勢不一樣了。 AI 模型越來越巨大、越來越多模態、推論量也因 AI Agent 爆炸式成長, 「算力」不再是

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page