top of page

ECOC 2025 技術焦點:AI 時代的光通訊—我們將走向何方?


前言

AI 的快速崛起徹底改變了光通訊產業的發展邏輯。過去透過線性趨勢預測的方式已經失效,取而代之的是爆發式的帶寬需求與快速更迭的產品世代。Cignal AI 在 ECOC 2025 的演講中,分析了 資料中心與電信光學市場的新常態,並探討 可插拔光學的主導地位 與 新興技術的挑戰


詳細投影片請見以下QRCODE或是

ree

內容

1. AI 帶來的新常態

  • 非線性成長:傳統的線性模型無法預測 AI 驅動的光學需求,模組出貨量暴增。

  • 數據

    • 2024 年出貨 2250 萬個高速模組。

    • 2025 年預估達 3900 萬個。

  • 速率演進

    • 400G 仍持續成長。

    • 800G 模組需求暴增(+75%)。

    • 1.6T 已開始展示,3.2T 預估 2029 年浮現。


2. 成本驅動:50 美分/Gbps

  • 產業長期目標:50 cents per gig

  • 現況:模組雖然供不應求,但價格仍每半年下降約 10%。

  • 預測:原先預計 2027 年達成,現有望提前至 2026 年。

3. 資料中心 vs. 電信市場

  • Datacom 光學

    • 2025 年市場規模超過 150 億美元,2029 年達 240 億美元

    • 規模遠超電信領域。

  • Telecom 光學

    • 2025 年市場約 50 億美元,2029 年達 80 億美元

    • 成長動能來自 可插拔相干光模組 (pluggable coherent)


4. 可插拔光學的主導地位

  • 資料中心內部:高速 pluggable 模組(400G、800G、1.6T)。

  • 資料中心互連 (DCI)

    • 2024:成長來自 400ZR / ZR+

    • 2026:800ZR 成為跨資料中心 AI 負載的關鍵技術。

    • 2027-2028:1600ZR 開始部署,長途傳輸也走向可插拔化。

  • 趨勢:IP-over-DWDM 取代傳統轉發器,50% 以上的光傳輸支出將投入可插拔模組。


5. 新興技術觀察

  • 光電路交換 (OCS)

    • Google 實測顯示:40% 降低功耗、30% 減少成本、30% 提升吞吐量。

    • 市場規模:預估 2029 年達 16 億美元

    • 挑戰:目前主要客戶仍集中於 Google,其他應用正在拓展中。

  • 共封裝光學 (CPO)

    • 優勢:潛在低功耗、高可靠性。

    • 障礙:維護困難、供應商鎖定風險,缺乏先行部署者。

    • 觀點:「CPO 是必然的,但不是即將發生的」(inevitable, not imminent)。

  • Coherent Lite

    • 目標:在 10 km LR 應用中挑戰 IMDD。

    • 限制:IMDD-LR 市場規模有限,目前僅小眾應用。

    • 前景:有望在 3.2T 世代 成為更廣泛應用的技術,需提前建立供應鏈。


總結

Cignal AI 的分析指出:

  1. AI 改變了遊戲規則:光學需求進入新常態,傳統線性預測失效。

  2. 成本曲線持續下滑:50 cents per gig 有望提前實現,價格壓力驅動產業快速演進。

  3. Datacom 遙遙領先 Telecom:資料中心市場規模是電信的 3 倍以上。

  4. 可插拔光學成為核心:不僅主導資料中心內部,還將取代電信長途網路的傳統架構。

  5. 新技術漸進滲透:OCS、CPO、Coherent Lite 各自有潛力,但仍在探索階段,未來 3~5 年才會看到真正的產業化。

整體而言,AI 時代的光學產業正進入「高速演進 + 成本壓力 + 新技術試探」的複合期。真正的關鍵在於,誰能在可靠性、功耗與成本三者間找到最佳平衡,並在開放生態中搶佔先機。

最新文章

查看全部
HOT CHIPS 2025: Google Ironwood TPU Rack,當 AI 系統開始為「長期可擴展性」而設計

Google 為什麼一開始就談「系統」,而不是 TPU 晶片 在這場 case study 中,Google 並沒有把焦點放在 Ironwood TPU 本身,而是從整個 TPU 系統與 super pod 的演進談起,這反映了 Google 一貫的設計思維。 TPU 從一開始就是「系統級產品」 晶片只是系統中的一個元件 架構設計必須同時對應現在與未來的工作負載 設計週期以「多年可用」為前提 對

 
 
 
HOT CHIPS 2025: Meta Catalina(NVL72),當 AI 系統開始為「既有資料中心」而設計

Meta 為什麼要自己做 NVL72,而不是直接照表操課 在這場 case study 中,Meta 並不是單純展示一個 NVIDIA NVL72 的客製版本,而是清楚說明一件事: AI 系統設計,必須服從現實的資料中心條件。 Meta 已在資料中心規模部署 AI 超過十年 多數既有資料中心並非為高密度液冷而生 AI 擴展速度,已經快過新資料中心的建設速度 系統若無法快速落地,就沒有意義 Cata

 
 
 
HOT CHIPS 2025: NVIDIA GB200 / GB300 NVL72,從機械與散熱角度看 AI Rack 為何已經不是「伺服器的集合」

NVIDIA 為什麼要先談 MGX,而不是直接談 GB200 在這場 case study 中,NVIDIA 並沒有一開始就介紹 GB200 或 GB300,而是先從 MGX 架構談起,這其實點出了問題的本質。 AI 系統已不再是單一伺服器設計問題 不同客戶在 CPU、GPU、DPU、NIC、管理方式上都有細微差異 即使只改一個模組,也會牽動整個系統重設 反覆客製導致 time-to-market

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page