top of page

ECOC 2025 技術焦點:AI 時代的光通訊—我們將走向何方?


前言

AI 的快速崛起徹底改變了光通訊產業的發展邏輯。過去透過線性趨勢預測的方式已經失效,取而代之的是爆發式的帶寬需求與快速更迭的產品世代。Cignal AI 在 ECOC 2025 的演講中,分析了 資料中心與電信光學市場的新常態,並探討 可插拔光學的主導地位 與 新興技術的挑戰


詳細投影片請見以下QRCODE或是

ree

內容

1. AI 帶來的新常態

  • 非線性成長:傳統的線性模型無法預測 AI 驅動的光學需求,模組出貨量暴增。

  • 數據

    • 2024 年出貨 2250 萬個高速模組。

    • 2025 年預估達 3900 萬個。

  • 速率演進

    • 400G 仍持續成長。

    • 800G 模組需求暴增(+75%)。

    • 1.6T 已開始展示,3.2T 預估 2029 年浮現。


2. 成本驅動:50 美分/Gbps

  • 產業長期目標:50 cents per gig

  • 現況:模組雖然供不應求,但價格仍每半年下降約 10%。

  • 預測:原先預計 2027 年達成,現有望提前至 2026 年。

3. 資料中心 vs. 電信市場

  • Datacom 光學

    • 2025 年市場規模超過 150 億美元,2029 年達 240 億美元

    • 規模遠超電信領域。

  • Telecom 光學

    • 2025 年市場約 50 億美元,2029 年達 80 億美元

    • 成長動能來自 可插拔相干光模組 (pluggable coherent)


4. 可插拔光學的主導地位

  • 資料中心內部:高速 pluggable 模組(400G、800G、1.6T)。

  • 資料中心互連 (DCI)

    • 2024:成長來自 400ZR / ZR+

    • 2026:800ZR 成為跨資料中心 AI 負載的關鍵技術。

    • 2027-2028:1600ZR 開始部署,長途傳輸也走向可插拔化。

  • 趨勢:IP-over-DWDM 取代傳統轉發器,50% 以上的光傳輸支出將投入可插拔模組。


5. 新興技術觀察

  • 光電路交換 (OCS)

    • Google 實測顯示:40% 降低功耗、30% 減少成本、30% 提升吞吐量。

    • 市場規模:預估 2029 年達 16 億美元

    • 挑戰:目前主要客戶仍集中於 Google,其他應用正在拓展中。

  • 共封裝光學 (CPO)

    • 優勢:潛在低功耗、高可靠性。

    • 障礙:維護困難、供應商鎖定風險,缺乏先行部署者。

    • 觀點:「CPO 是必然的,但不是即將發生的」(inevitable, not imminent)。

  • Coherent Lite

    • 目標:在 10 km LR 應用中挑戰 IMDD。

    • 限制:IMDD-LR 市場規模有限,目前僅小眾應用。

    • 前景:有望在 3.2T 世代 成為更廣泛應用的技術,需提前建立供應鏈。


總結

Cignal AI 的分析指出:

  1. AI 改變了遊戲規則:光學需求進入新常態,傳統線性預測失效。

  2. 成本曲線持續下滑:50 cents per gig 有望提前實現,價格壓力驅動產業快速演進。

  3. Datacom 遙遙領先 Telecom:資料中心市場規模是電信的 3 倍以上。

  4. 可插拔光學成為核心:不僅主導資料中心內部,還將取代電信長途網路的傳統架構。

  5. 新技術漸進滲透:OCS、CPO、Coherent Lite 各自有潛力,但仍在探索階段,未來 3~5 年才會看到真正的產業化。

整體而言,AI 時代的光學產業正進入「高速演進 + 成本壓力 + 新技術試探」的複合期。真正的關鍵在於,誰能在可靠性、功耗與成本三者間找到最佳平衡,並在開放生態中搶佔先機。

最新文章

查看全部
OCP Global Summit 2025_NVIDIA_Shaping the Future of Open Infrastructure for AI

前言 在 OCP Global Summit 2025 上,NVIDIA 分享了他們如何透過開放基礎設施推動 AI 的未來發展。演講中強調,AI 已經進入  Gigascale 時代  —— 全球各地的資料中心以「GW(Gigawatt)」等級建設,從單一晶片、伺服器,到跨資料中心的超級集群,都需要全新的架構與創新。NVIDIA 在這個過程中不僅是 GPU 的提供者,更是完整 AI 基礎設施生態的

 
 
 
OCP Global Summit 2025_Scaling the AI Infrastructure to Data Center Regions_Meta

前言 在這次 OCP Global Summit 2025 上,Meta 分享了他們在 AI 基礎設施擴展上的最新挑戰與解決方案。作為擁有 34 億用戶的平台,Meta 不僅要確保 AI 技術能在廣泛的應用中提供價值,還要處理龐大規模下的基礎設施壓力。從 LLaMA 模型的演進到跨資料中心的巨型集群建設,這場演講完整展現了 AI 時代下基礎設施擴展的難度與創新。 內容 Meta 一開始強調,AI

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page