top of page

付費文章:2025 年度產業深度報告-光通訊產業相關

AI 基礎設施的「光速」重構:當互連成為新算力,誰是下一個兆元賽道的贏家?

⚠️ 閱讀須知與版權聲明

【非投資建議】 本報告所載之內容僅代表作者個人之產業觀察與技術邏輯分析,旨在提供研究參考與思維啟發,並不構成任何形式的投資、買賣或法律建議。投資人應獨立判斷、審慎評估,並自負投資風險。

【版權所有,禁止轉載】 本內容為「付費專屬文章」,凝聚了大量的產業調研與數據分析心力。未經作者書面正式授權,請勿將本文之全部或部分內容進行轉載、節錄、截圖傳播或以任何形式公開發布。尊重原創與智慧財產權,是支持我持續產出深度內容的最大動力。

【支持作者與追蹤趨勢】 如果你喜歡這類系統級的產業分析,歡迎造訪我的網站 Simple Tech Trend,或是在 IG 與 Threads 上追蹤我的帳號:simple_tech_trend,獲取最即時的科技洞察與觀點。

你的支持是我持續深入研究的最大動力。除了本篇文章,我還有其他針對關鍵技術與產業趨勢的付費深度報告,歡迎透過以下連結進一步了解與訂閱:

·         光通訊供應鏈全圖





Executive Takeaway


2025 年,AI 基礎設施正式跨過了一個關鍵門檻。

產業的核心限制不再是「算力夠不夠」,而是 算力能否被有效利用

當 GPU 的理論效能(FLOPS)持續倍增,但模型訓練的實際效率卻開始受制於延遲、頻寬、功耗與散熱,互連(Interconnect)第一次取代運算本身,成為 AI 系統的第一瓶頸

這也是為什麼,2025 年開始,AI 產業的敘事重心從「搶 GPU」轉向了「重構系統」。

本報告的核心觀點是:AI 的算力單位已經發生結構性轉移

  • 在過去,算力的基本單位是「伺服器」

  • 在 2024 年,是「GPU 節點」

  • 而在 2025 年,算力正式升級為「機櫃(Rack)與 Fabric

這個轉變,並不是概念,而是已經被部署驗證的現實。

NVIDIA 的 GB200 / GB300 NVL72、Google 的 TPU v7 Ironwood、AWS 與 Meta 的客製化 AI 機櫃,都在傳達同一件事:

單一伺服器已無法承載 AI 的效能密度,AI 系統必須以機櫃甚至資料中心為設計起點。

在這個新架構下,「有效算力」不再只取決於晶片本身,而是由三個系統層因素共同決定:

  1. 互連是否能跟上算力密度的提升

  2. 功耗與散熱是否允許長時間滿載運行

  3. 網路拓撲是否能根據 AI 流量型態動態重構

這正是為什麼 2025 年成為光通訊與先進互連技術的轉折點。

  • Scale-Up(機櫃內),銅纜仍然是低延遲與成本的最佳解,但已明顯逼近物理極限,光學 I/O、CPO 開始進入實際設計討論。

  • Scale-Out(機櫃間),800G 成為主流、1.6T 開始送樣,光模組不再只是頻寬升級,而是系統功耗管理的一部分。

  • Scale-Across(跨資料中心),Google 已經用 OCS 證明,可重構光學拓撲能顯著降低功耗與資本支出,並提升整體吞吐效率。

這些變化共同指向一個結論:

光學不再只是 I/O 元件,而是系統設計的核心變數。

對產業競爭格局而言,這也意味著價值正在重新分配。

2025 年之後,真正具備長期優勢的,不一定是算力最高的晶片商,而是能夠:

  • 定義 Rack 與 Fabric 規格

  • 控制 SerDes、Switch、DSP、互連協議

  • 並將光學、電力、散熱整合為可量產系統的玩家

這也是為什麼 NVIDIA 選擇開放 NVLink Fusion、Broadcom 與 Marvell 積極卡位 1.6T 與 CPO、Astera Labs 與 Credo 在看似不起眼的互連層快速崛起,而光學供應鏈的瓶頸正從需求端轉向製造與量產能力。

展望 2026 年,本報告認為有三個高確定性趨勢已經成形:

  1. AI 架構將全面進入「Rack-level thinking」

  2. 互連與光學的滲透率將持續高於整體 AI 市場成長率

  3. 真正的 Alpha,將出現在 GPU 之外的系統層供應鏈

這篇報告的目的,不是預測單一技術會取代另一種技術,而是提供一個判斷框架,幫助讀者理解:

在 AI 工廠時代,算力、互連、光學與散熱如何被重新定價,以及誰最有機會成為下一個兆元賽道的受益者。



前言:AI 的第二樂章——從「算力堆疊」到「系統重構」

0.1 核心觀點:為什麼 2025 年是 AI 基礎設施的分水嶺?

果在 2023 與 2024 年,AI 產業的主旋律是「搶購 GPU」,那麼 2025 年我們正式進入了第二樂章:「AI 工廠(AI Factory)的系統重構」。

過去,資料中心的算力單位是「伺服器」;現在,算力單位變成了「機櫃(Rack)」,甚至是「整個資料中心」,。這一轉變的根本原因在於,單顆 GPU 的算力成長速度(FLOPS)遠遠快於互連頻寬的成長速度,導致「互連(Interconnect)」取代了「運算」成為限制 AI 模型訓練效率的最大瓶頸。

 

2025 年,我們見證了三大結構性改變:

.....


0.2 關鍵數據一覽:資本支出的「軍備競賽 2.0」


第一章:架構革命——「機櫃」即「電腦」 (System Architecture)

1.1 NVIDIA NVL72 / GB200:120kW 的極限機電工程

1.2 Google Ironwood TPU Rack:為「長期擴展」而生的 3D Torus

ž    與 NVIDIA 追求單一機櫃極限密度不同,Google 在 Hot Chips 上展示的 Ironwood TPU Rack(TPU v7),體現了另一種設計哲學:系統的可預測性與長期擴展性。

ž    3D Torus 的堅持: Google 延續了其獨有的 3D Torus(三維環面) 互連拓撲。一個 Ironwood 機櫃包含 64 顆 TPU,構成一個 4x4x4 的立方體單元。這種架構讓晶片與晶片直接對話(ICI, Inter-Chip Interconnect),不依賴單一層巨大的交換器(如 NVSwitch),天然支援模型並行(Model Parallelism),,。

1.3 Meta Catalina:現實主義的 AI 機櫃

1.4 散熱的終局:液冷重塑權力結構


第二章:光通訊的爆發——打破物理極限 (Optical Interconnects)

本章深入解析 2025 年光通訊產業的結構性轉折。當電訊號在銅線上的傳輸距離縮短至 1 公尺以內,光學技術被迫從「機房連接」走入「晶片封裝」,引發了 CPO、LPO 與 OCS 的路線之爭。

2.1 互連的三個戰場:Scale-Up, Scale-Out, Scale-Across

在 AI 時代,「網路」的概念被重新定義。根據 NVIDIA 與 OIF(光互連論壇)的最新分類,互連被切割為三個對頻寬、延遲與距離要求截然不同的戰場,且每個戰場的技術贏家各不相同。

....

2.2 關鍵技術路線之爭:CPO vs. LPO vs. OCS

2025 年,三種技術路線不再是理論爭辯,而是進入了「能夠解決什麼問題」的實戰驗證。

.....

2.3 矽光子 (SiPh) 的最後一哩路


第三章:巨頭的棋局——晶片與連接的合縱連橫 (Company Strategy)

當算力單位從「晶片」上移至「機櫃」與「Fabric」,產業競爭的本質也隨之改變。誰掌握了系統的「入口」與「高速公路」,誰就能定義 AI 工廠的規格。

3.1 NVIDIA (輝達):從晶片商到 AI 工廠的「總營造商」

3.2 Broadcom (博通):$73B 積壓訂單的底氣

3.3 Marvell (邁威爾):光互連的破局者

3.4 關鍵連接推手 (Connectivity Enablers)

3.5 光元件雙雄:Lumentum & Coherent


第四章:2025 關鍵里程碑盤點 (Company Milestones)

本章匯總關鍵玩家在 2025 年完成的技術突破、戰略轉向與產品發布。這些不只是新聞標題,而是定義 2026 年競爭格局的基石。

4.1 AI 系統架構師 (System Architects)

4.2 連結與運算骨幹 (Connectivity & Custom Silicon)

Broadcom (博通):非 NVIDIA 陣營的「軍火庫」

Broadcom 的 730 億美元 AI Backlog,代表的不是需求熱度,而是系統級依賴。

Marvell (邁威爾):光互連的破局者

Marvell 在 2025 年,明確把未來押在「封裝內光互連」。

4.3 關鍵互連推手 (Interconnect Specialists)

Astera Labs:AI 機櫃的訊號守護者

Astera Labs 的價值,在於它控制了 AI Rack 中最容易出問題的地方。

Credo:銅纜的最後防線

Credo 證明了:在物理極限之下,精準定位比追逐頻寬更重要。


4.4 光通訊與製造 (Optics & Manufacturing)

Lumentum:產能即戰力


第五章|2026 年展望

從「建置」走向「運作」:AI 工廠的第一年壓力測試

5.1 1.6T 的元年,不只是頻寬升級

5.2 Scale-Up Optics 正式進入封裝設計討論

5.3 OCS 的擴散,將重塑「網路」的定義

5.4 448G 電氣介面:工程師真正的惡夢

本章總結|2026 年真正的試金石

2026 年不會再獎勵「最激進的架構」,而會獎勵「最能長時間穩定運作的系統」。

這一年,市場將第一次清楚分辨:

ž    哪些架構只是「能跑 Demo」

ž    哪些架構真的能跑一年、三年、五年

而這,也將直接決定資本、訂單與供應鏈話語權的重新分配。


How to Read This Report|本報告閱讀指引


這不是一篇用來快速瀏覽的文章。

它是一份系統級分析報告,設計目的不是讓你「看完」,而是讓你在不同情境下反覆使用

為了幫助你在最短時間內抓到重點、並在需要時快速回到關鍵判斷,建議依照以下方式閱讀。

一、如果你只有 10 分鐘

👉 建立整體判斷框架

請優先閱讀以下三個部分:

Executive Takeaway(摘要)

→ 這裡濃縮了整篇報告的核心結論與判斷邏輯。

第三章結尾的策略總結句

→ 幫助你理解:誰正在掌握 AI 工廠的系統入口。

第四章各公司標題下的「一句結論」

→ 即使不看細節,也能快速掃描 2025 年已被驗證的贏家與定位。

這樣閱讀完,你應該已經能回答三個問題:

AI 基礎設施「真正的瓶頸」是什麼

哪些技術路線已經走出簡報

誰在 2026 年之前站在正確的位置上

二、如果你關心「技術與架構」

👉 從工程現實理解產業變化

建議重點閱讀:

第一章|架構革命

→ 理解為什麼 Server 已不再是算力單位,Rack 才是。

第二章|光通訊的爆發

→ 釐清 Scale-Up / Scale-Out / Scale-Across 三個戰場的差異,以及光與銅各自的物理極限。

閱讀這兩章時,建議特別注意文中反覆出現的關鍵字:

延遲、功耗、距離、穩定性、可維護性

這些詞彙,正是未來幾年系統設計真正的約束條件。

 

三、如果你關心「公司策略與競爭位置」

👉 用系統入口,而不是產品線來看公司

請重點閱讀:

第三章|巨頭的棋局

→ 這一章不是在比較產品效能,而是在比較「誰控制了系統的關鍵節點」。

第四章|2025 關鍵里程碑

→ 這裡只列出「已經發生、且不可逆」的事實,幫助你區分策略與實績。

 

四、如果你關心「2026 年與投資判斷」

👉 尋找結構性,而不是循環性機會

請完整閱讀:

第五章|2026 年展望

這一章的重點不是預測市場規模,而是回答:

哪些技術壓力在 2026 年會被放大

哪些瓶頸會率先轉化為訂單

哪些供應鏈角色,將在 GPU 之外創造 Alpha

建議將第五章與第四章對照閱讀,效果最佳。

 

五、如何反覆使用這份報告?

這份報告適合被用在以下情境:

ž    評估 新一代 AI 架構或產品方向

ž    理解 光通訊 / 互連相關新聞背後的真正意義

ž    作為 投資、策略會議、內部簡報的背景材料

ž    當市場敘事出現分歧時,回來檢視「哪些已被工程驗證」

ž    如果未來一年你發現自己不只看一次這份內容,那代表它完成了它的任務。

 

最後提醒

這不是一份要你同意所有觀點的報告,而是一套幫助你建立判斷的方法。

如果這份報告能讓你在面對下一個 AI 基礎設施新聞時,

更快分辨「雜訊」與「結構性訊號」,

那它的價值,已經被實現。

最新文章

查看全部
高頻光通訊材料轉折點:InP基板擴產、稀土政策與PD封裝的三重挑戰

隨著 AI 訓練規模與數據中心頻寬需求飆升,高速光模組材料與封裝技術正面臨前所未有的挑戰。IIInP 基板作為 200G PD 與高速 LD 的關鍵材料,受制於稀土政策與產能轉換,正在重塑全球供應鏈格局。本文將深入解析InP晶圓廠 的擴產策略 、 稀土政策對三五族材料的衝擊 ,並結合  模組廠與 PD 封裝趨勢 ,提供對未來 800G/1.6T 光模組產業的全景觀察與決策啟示。 🔍 重點摘要(K

 
 
 
CPO 光模組的未來與真相:從矽光封裝、系統設計到台廠供應鏈的全面解密

🔍 前言|Pluggable 的黃金年代,正在被誰顛覆? 隨著 AI 模型訓練規模暴漲,資料中心架構正從單純的 scale-up 演進為複雜的 scale-out 架構,資料傳輸的瓶頸愈發顯著。Co-Packaged Optics(CPO)被視為一種潛在解方,有望透過光引擎與 ASIC 的緊密整合,解決系統功耗與佈線損耗問題。 但理論的優勢,遇上實務操作往往是一場現實修煉。從 Pluggable

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page