top of page

SEMICON2025_Silicon Photonics Summit_Broadcom


前言

隨著 AI 模型不斷擴展,單一伺服器或單一機架已經無法滿足龐大的運算需求。當 GPU 集群規模越來越大,傳統 銅線互連(copper interconnect) 在頻寬、功耗與距離上的限制逐漸浮現,成為 AI 基礎建設的瓶頸。

在 SEMICON 2025 矽光子高峰會上,Broadcom 的講者指出,未來要支撐數萬甚至數十萬顆 GPU 的 AI 訓練,光學解決方案(optical interconnects)將取代銅線,成為 Scale-up 與 Scale-out 的核心技術。本演講特別聚焦在 CPO(Co-Packaged Optics, 光電共封裝) 的演進,並探討如何在成本、功耗、可靠性之間找到平衡。


內容

1. 銅線的限制

目前銅線互連大致情況如下:

  • 100G/lane:可支援約 2 機架距離

  • 200G/lane:雖提升速率,但訊號完整性下降,傳輸距離僅能延伸至 7 公尺,僅能支援 少數機架

隨著速度增加,銅線的功耗、訊號衰減與佈線複雜度大幅上升,成為 AI 規模化的障礙

2. 光學互連與 CPO 的解決方案

Broadcom 提出的答案是 光學引擎與光電共封裝(CPO)

  1. 傳統 CPO

    • 已能滿足部分 Scale-up 需求,但採用率有限。

  2. 中階 CPO(Intermediate CPO)

    • 功耗更低,具備更高性價比,預期將在未來幾年加速普及。

  3. 進階 CPO(Advanced CPO)

    • 更進一步降低功耗至 5 pJ/bit 以下

    • 成為支撐下一代 51.2T 交換機 與大規模 GPU 集群的核心技術。

簡單來說,CPO 的演進路徑就是:傳統 → 中階 → 進階,逐步降低功耗與成本,推動規模化採用。

3. 成本與可靠性挑戰

雖然光學互連在頻寬與功耗上具備優勢,但要大規模導入,仍需克服以下挑戰:

  • 成本(Cost):光學模組成本仍高於銅線,需要透過量產與封裝創新降低。

  • 尺寸(Form Factor):需要更小型化的光學引擎,支援高密度封裝。

  • 可靠性(Reliability):光學連接器需確保在灰塵、應力等環境下仍能維持低插入損耗。

  • 互通性(Interoperability):確保不同廠商與系統間的標準一致,避免生態系碎片化。

Broadcom 特別提到 光學連接器在灰塵測試中的可靠性,證實即使在「巴黎塵埃(Parisian dust)」環境中,光連接器仍能維持在規範範圍內。這顯示 光互連的可靠度已逐漸達到實際部署需求

4. 未來展望:邁向 51.2T 與更高規模

Broadcom 展示了如何透過 CPO 技術支援 51.2 Tbps 交換機

  • 高密度光學引擎:支援 1×8 通道配置,降低佈線與功耗。

  • 最佳化封裝:兼顧熱管理與可靠性。

  • 新材料與製程:持續降低功耗,達到 6 pJ/bit 以下

這些進展將推動 AI 訓練與推論集群 從單一機架,邁向 跨數十機架乃至跨資料中心 的規模。


總結

Broadcom 在 SEMICON 2025 的演講中清楚闡述了銅線的瓶頸與光互連的優勢,並提出 CPO 技術路線圖:從 傳統 → 中階 → 進階,逐步降低功耗與成本,最終支撐 51.2T 交換機與大規模 GPU 集群

在成本、可靠性與互通性逐步克服後,光學互連將成為 AI 超級電腦與資料中心的關鍵基礎。Broadcom 的戰略重點,是確保光互連不僅僅是技術突破,而是能真正實現 商業規模化與廣泛應用 的解決方案。

最新文章

查看全部
SEMICON2025_Silicon Photonics Summit_NVIDIA

前言 隨著人工智慧(AI)規模持續擴張, 資料中心已經從單純伺服器的集合體,轉變為「運算單元」本身 。NVIDIA 在 SEMICON 2025 的演講中,強調 網路(Network)就是資料中心的核心 :不論是單一伺服器、GPU...

 
 
 
SEMICON2025_Silicon Photonics Summit_TSMC

前言 隨著人工智慧(AI)、雲端運算與高效能計算(HPC)的快速發展,資料中心對於頻寬與能效的需求急速上升。傳統電子訊號傳輸(electrical interconnect)逐漸遇到瓶頸,不論是在速度、能耗,或是面積利用率上,都難以持續支撐規模化的資料流量。 在 ...

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page