OCS(Optical Circuit Switching,全光交換):AI 資料中心的下一場光革命
- simpletechtrend
- 2天前
- 讀畢需時 5 分鐘
過去兩年,AI 的爆發讓「資料中心的瓶頸」這句話第一次聽起來不再只是老生常談。問題不在 GPU、不在 HBM、不在 PCIe,而是在最底層的那張網:交換架構(Switching Architecture)。AI 集群愈做愈大,從原本一個機房塞滿 GPU,變成許多機房串成一座 AI 超級工廠。而每當规模增加 4 倍,網路交換器的布線、耗能與延遲就會以指數方式爆炸。
這讓整個產業都看到同一件事:
下一代 AI 網路的核心,不是更快的 SerDes,而是更聰明的拓撲+更低功耗的交換方式。
OCS(Optical Circuit Switching,全光交換)於是受到注意。
為什麼大家開始認真看 OCS?
我認為原因在於:
光不應該被強制轉成電再轉回光。
傳統交換機(即 OEO 交換)會做的事包括:
光 → 電
在晶片內處理交換
電 → 光
這聽起來合理,但當數據量大到 AI 等級,就變成三個大問題:
1. 電交換是瓶頸
所有流量都要經過交換晶片,因此:
SerDes 速率拉不上去時,你的網路升級全部卡死
晶片功耗大到不合理
交換設備變得又大又熱又貴
2. OEO real-time 處理成本太高
1000+ 個機櫃,數萬個反覆進出的 data flow,每次都要經過 OEO 轉換,這成本是線性的,但流量是指數。
3. 效能無法隨集群擴大
大家都知道 GPU scaling 在走 diminishing return,但很少人注意到:
網路是讓 diminishing return 提前發生的主因。
OCS 的出現,就像把其中一條鐵軌換成無摩擦軌道。
OCS 的本質:跳過 O/E/O 的「光路重構」技術
它不是 “更快的交換機”
也不是 “新型光模組”
OCS 是:
一種用光路直接接光路 的方式
每一條連線都是「專屬光路」
速率、協議、調變格式都不重要
換句話說:
你把光纖 A 接到光纖 B,中間不碰電。
這也意味著:
完全速率無關(Rate-Agnostic)
→ 800G / 1.6T / 3.2T 甚至更高都不用換 OCS
Truly Low Power
→ 沒 DSP、沒 SERDES、沒交換晶片
高度可擴展
→ 想加端口?你只是在接更多的光纖
→ 不需要重新部署 Spine 層
延遲極低且穩定
→ 沒封包處理、沒有 buffer、沒有 ASIC pipeline
OCS 的四大技術路線
這是大量工程細節,但我用最簡單的方式整理:
1. MEMS:成熟但存在極限
反射鏡轉動,切換 ~25ms
插損低、規模大、率先商用
Google TPU v4 / v5 / Ironwood 採用
→ 短期最成熟的 OCS,但長期瓶頸明顯。
2. 液晶(LC / DLC):極高可靠度
來自 WSS 技術
可靠度世界排名第一
切換速度較慢(~100ms)
→ 適合需要高可靠、高穩定的大規模 Spine。
3. 壓電(Piezo / DLBS):物理極限更強
完全無機構件
插損最低、反射損耗最小
擴展到超高端口時難度增加
→ 長線非常有潛力,但挑戰是 scaling。
4. 矽光波導(Si Photonics):未來最值得看
切換速度最快(<100 µs)
可透過 SOA 補償插損
成本下降潛力最大(CMOS 工藝)
→ 非常有可能是最終的解決方案。
OCS 真正爆發的原因:三張 AI 網路同時卡住
AI 不是一張網,而是三種網:
Scale-Up(機櫃內/Pod 內)
Scale-Out(資料中心內)
Scale-Across(資料中心之間)
OCS 同時在這三張網找到自己的位置。
1. Scale-Up:TPU 的 3D Torus 不靠 OCS 撐不起來
看 Google TPU 的拓撲演進就知道 OCS 的必要性。
TPU v4
4096 顆 TPU
48 台 136-port MEMS OCS
3D Torus 拓撲依靠 OCS 重構光路
延遲、功耗均顯著下降
Ironwood
9216 顆 TPU(超過兩倍規模)
要求 OCS 端口翻倍
架構完全沿用 OCS,而非 CPO
這說明一件事:
Google 不是“試用” OCS,而是把它變成 TPU 的系統設計一部分。
2. Scale-Out:資料中心 Spine 層的重新設計
Google 在 Jupiter 網路中植入 Apollo OCS,結果震撼全產業:
延遲降低 10%
吞吐提升 30%
整體功耗降低 40%
成本降低 30%
光交換在大規模 Data Center 的效果,遠比想像中明顯。
而這不是 “部分流量優化”
是 Google 在實際運行中得出的結論:
Spine 層放 OCS = 整棟 DC 網路壓力減輕
對 hyperscaler 來說,這是不可忽視的誘因。
3. Scale-Across:NVIDIA 推出的第三張網(跨資料中心)
NVIDIA 在 Spectrum-XGS 中提出新觀念:
Scale-Across 是 AI 時代的第三張關鍵網路。
當多個資料中心要變成「一個 AI 集群」時:
需要大量 DCI(長距離光連線)
需要可動態重構拓撲
需要跨區域同步低延遲
這些需求與 OCS 的特性幾乎完美對應:
DCI 需求 | OCS 特性 |
高帶寬 | 不看速率,端口可擴展 |
動態拓撲 | 光路即時重構 |
長距離 | 低損耗、可搭配 C 波段 |
環境異質 | 協議完全無關 |
Coherent 更宣布:
→ 2026 推出 DCI 專用 C-band OCS
這代表:
Scale-Across 將是下一個 OCS 大爆發市場。
OCS vs CPO:不是敵人,而是 AI 網路雙核心
這是目前大家最常誤解的部分。
錯誤想法:OCS 會取代 CPO
正確觀點:CPO 與 OCS 是互補的
NVIDIA 的數據最清楚:
網路架構 | 功耗 |
可插拔 | 83 pJ/bit |
可插拔 + OCS | 50 pJ/bit |
CPO | 48 pJ/bit |
CPO + OCS | 31 pJ/bit(最低) |
這證明:
CPO 負責高速、短距離交換(Rack / TOR / Leaf)
OCS 負責拓撲重構與 Spine / DCI
兩者合體 → 才是 AI SuperFabric 的終局形態。
供應鏈觀察:哪些產業鏈位置值得關注?
我將整個供應鏈拆成三層:
Layer 1:核心開關技術
MEMS
全球幾乎被一兩家掌握(如 Calient、Lumemtum)
液晶(LC / DLC)
Coherent 技術最成熟
壓電(DLBS)
Polatis + 凌雲光子聯合強推
矽光波導
iPronics
中國的德科立也快速追上(提供 32×32、SOA 自研能力)
未來十年最值得關注的路線:SiPh OCS
Layer 2:光學/被動元件
包括:
光纖陣列
FAU
透鏡陣列
偏振元件
光楔(YVO₄)
耦合組件
WDM(Z-block)
Layer 3:整機/系統級 OCS
Calient / Polatis(成熟)
Coherent(液晶系統)
TeraHop(旭創旗下)
光庫(代工切入)
德科立(SiPh OCS 原型)
這一層未來成長速度會非常快,尤其是:
hyperscaler 自建 OCS
中國 AI 資料中心投入全光網路
最後:OCS 的本質不是「更快」,而是「更簡單」
AI 時代的網路演進正在從:
電交換 → 光電混合 → 全光網路(All-Optical Network)
OCS 不是一個 “更快的交換機”
而是一個:
讓網路拓撲重新變得有彈性、低功耗、可 scale 的新架構核心。
如果你在做:
AI Infrastructure
GPU/TPU/ASIC 集群
Hyperscale Data Center 架構
光通訊模組 / SiPh
Cloud Networking
那 OCS 這個名詞在未來五年會越來越常出現在你的會議與 roadmap 裡。
總結
OCS 是下一代 AI 資料中心的基礎設施,角色類似 GPU 之於 AI。它不會取代所有東西,但會重新定義所有東西的邏輯。
它會是 TPU / AI ASIC 的必須品
它會重塑 Spine 層
它會是下一代 DCI 的標準選項
它會與 CPO 並存,甚至成為最佳拍檔
它會推動光學供應鏈重新洗牌
它會成為 SiPh 產業的新戰場


