top of page

Marvell 2025 Industry Analyst Day深度解讀

前言:這不是一場普通的 Analyst Day

2025 年 12 月 9 日,Marvell Technology 在美國聖塔克拉拉舉辦的 Industry Analyst Day,表面上是一場常見的「對分析師說明公司前景」的活動,但實際上,它更像是一份向市場公開的「轉型聲明書」。

幾個關鍵背景先釐清:

  • Marvell 在 2026 會計年度第三季交出

    年增 37%、營收 20.75 億美元的成績。

  • 但財報只是故事的封面,真正關鍵在於:

    公司未來的成長引擎,要放在哪裡。

這場大會傳遞出的訊息非常直接:

Marvell 不想再當一間做一堆「還不錯」產品的網通 IC 廠, 而是要成為 AI 資料中心基礎設施的「架構師」。

核心轉折在兩個維度:

  1. 企業戰略與資本配置:

    把資源從成長穩定但偏線性的汽車業務,轉向高風險、高爆發的光學互連與客製化運算晶片。

  2. 技術與產品佈局:

    積極押注光學互連、1.6T 乙太網、客製化 XPU,以及 CXL 記憶體架構。



  • Marvell 究竟在賭什麼

  • Celestial AI 收購案背後的真正意義

  • 為何光學互連會變成 AI 時代的「硬通貨」

  • 它如何在 Broadcom、NVIDIA 之間找到自己的位置

1. Marvell 的戰略大轉彎:從多元化到 AI 基礎設施純粹玩家

Marvell 的轉型並非一日之寒。

從過去幾年的收購與產品調整,可以看到一條清楚的軌跡:

  • 收購 Inphi:補上高階光學互連與 DSP 能力

  • 收購 Innovium:補足資料中心交換機晶片

  • 2025 年以前:仍是「網通 + 儲存 + 一些新興領域」的綜合型 IC 公司

直到 2025 年,整個故事出現質變。


1.1 資本配置的關鍵動作:賣車用、買光學

這次轉型最具象的行動,是下面這兩件事的先後發生:

  1. 將汽車乙太網業務,以 25 億美元全現金賣給 Infineon。

    • 為公司帶來約 18 億美元稅前收益。

    • 讓資產負擔更輕、現金部位明顯提升。

  2. 隨即宣布以約 32.5 億美元收購 Celestial AI。

    • 這是一家仍處於「技術成長期」、尚未大規模商業化的新創。

    • 技術聚焦在封裝內光學互連與 Photonic Fabric。

從資本運用的觀點來看,這是一個非常鮮明的訊號:

Marvell 願意放棄一個長期穩定、增長可預期的汽車市場, 把籌碼全部堆到一個「高不確定,但一旦成功就具有指數級回報」的光學互連技術上。

長週期、分散客戶、驗證期冗長的汽車市場,

被換成節奏快、技術迭代快、客戶高度集中的 AI 雲端資料中心。

這不是「分散風險」,而是很明確的「集中風險」。


1.2 AI 時代的基礎設施定義:資料中心就是一台電腦

Marvell 執行長 Matt Murphy 在這次大會中提出一個關鍵觀念:

在 AI 時代,單一伺服器不再是觀察單位, 一整座資料中心,才是一台「超級電腦」。

這樣的架構下,真正困難的問題從「一顆 GPU 有多強」變成:

  • 如何讓數萬顆 GPU / XPU 像單一邏輯實體一樣運作

  • 如何在不同機櫃、不同機房、甚至不同地理位置之間,把模型訓練與推論串起來

在這個框架下,Marvell 把自己的市場機會拆成三個維度:

  • Scale-Up:

    機櫃內、伺服器內的 GPU ↔ GPU、XPU ↔ XPU 互連

  • Scale-Out:

    機櫃與機櫃之間的乙太網介面,從 400G、800G 走向 1.6T

  • Scale-Across:

    資料中心與資料中心之間,基於相干光的長距離 DCI(Data Center Interconnect)

這個切法背後的核心論述是:

不論最終贏家是 NVIDIA、客製化 ASIC、還是多家並存, 每一顆 AI 晶片,都需要大量高頻寬、低延遲的互連。 Marvell 想做的,是成為所有陣營的「互連軍火商」。

2. Celestial AI 收購案:光學互連終局戰的重磅下注

這次 Analyst Day 的技術重心,毫無意外落在 Celestial AI 上。

因為它代表的是:

Marvell 不只是要「賣光模組」,而是要「重新定義封裝內、晶片間的互連物理層」。


2.1 銅線走到哪裡了?

先回到物理層面。

目前高階 AI server 內部,GPU ↔ GPU 多半還是走銅:

  • 被動銅纜 DAC

  • 高速 PCB 走線

  • 主動式 AEC 作為過渡方案

但當速率從 112G/lane 往 224G/lane 走時,銅會遇到幾個硬極限:

  • 集膚效應使得高頻成分被嚴重衰減

  • 介電損耗上升,使得可接受距離大幅縮短

  • 為了維持訊號品質,線材要變粗、接頭要更複雜、佈線空間更吃緊

Marvell 在會中明講:在 224G/lane 之後,被動銅纜的有效距離可能掉到 1 公尺甚至更短。

這意味著:

  • 你很難用純銅互連去支撐「跨機櫃的大型 GPU 集群」。

  • 伺服器和伺服器之間要維持高頻寬、低延遲,就必須大幅引入光。

傳統 pluggable optics 雖然可以提供光學傳輸,但問題在於:

  • 功耗高

  • 體積大

  • 面積與功率密度有限,不適合做大規模 GPU ↔ GPU scale-up

這正是 Celestial AI 切入的空缺。


2.2 Photonic Fabric 與 OMIB:把光學互連變成「封裝內基礎設施」

Celestial AI 的 Photonic Fabric,本質上是一套「封裝內、晶片級別」的光互連架構。

其中 OMIB(Optical Multi-Chip Interconnect Bridge)是一個關鍵概念:

  • 傳統 CPO 多半把光引擎放在封裝邊緣,仍然受限於「邊長」

  • OMIB 的設計,允許光互連從 die 的各種位置引出

  • 換句話說,它不是在封裝外「拉一條光纖」連兩顆 ASIC

    而是讓光路可以在封裝內,作為 die-to-die 的高速 backbone 互連

實際意義包括:

  • 帶寬密度:在同樣封裝面積內,可以塞進遠超過傳統電性 I/O 的互連能力

  • 互連拓樸:不再受限於「沿邊布線」,可以在封裝內設計更多樣的網路結構

  • 可擴展性:隨著 XPU 數量、chiplet 數量增加,仍然能維持高效的互連架構

Marvell 在會中提到,Photonic Fabric 能帶來:

  • 頻寬與記憶體容量提升約 25 倍

  • 延遲降低約 10 倍

  • 在相同距離下的功耗約為銅互連的一半

這些數字的精確值未必是重點,重要的是「量級關係」已經完全改變。


2.3 熱穩定性與 3D 堆疊:把光學功能貼到 XPU 上

現代 AI 加速器動輒 700W、1000W,封裝內溫度分佈極度不均勻。

光學元件對溫度又特別敏感。

在這種環境下,要把光學互連放進封裝內,本身就是一個極困難課題。

Celestial AI 的技術組合包含:

  • 外置雷射(ELS),避免把光源直接放在高功耗 die 上

  • 對溫度變化相對不敏感的調變器設計

  • 支援垂直 3D 堆疊的封裝結構

這些設計讓 Photonic Fabric 可以做到:

  • 與 XPU 做 3D 整合

  • 互連路徑縮短到微米級

  • 在高功耗、高熱通量環境下仍維持穩定運作

這不是單一元件的突破,而是整個封裝系統架構的改寫。


2.4 交易結構透露的時間表與信心程度

32.5 億美元的收購案本身結構也很有意思:

  • 先期對價:

    • 約 10 億美元現金

    • 約 22.5 億美元等值 Marvell 股票(約 2720 萬股)

  • 額外績效對賭(earnout):

    • 上限約 22.5 億美元股票

    • 觸發條件:

      Celestial AI 產品需在 Marvell 2029 會計年度結束前,累計營收超過 20 億美元

這組條件透露兩件事:

  1. Marvell 預期 Photonic Fabric 真正進入大量導入,時間大約會落在 2027–2028 年。

  2. 一旦成功,規模不會只是幾億美元,而是十億美元等級的營收貢獻。

用一句話總結:

Marvell 清楚知道這是一個高風險、高門檻的長期賭注, 但如果成了,它會直接重塑整個 AI 封裝與互連的遊戲規則。

3. Scale-Up:與 NVLink 的競合,以及銅纜的延壽計畫

在 AI server 的最核心戰場,Scale-Up 是 NVIDIA 現在的主場。


3.1 NVLink 封閉花園與 UALink 開放戰線

今天的 GPU ↔ GPU 高速互連市場,非常被動:

  • 要用 NVLink,需要用 NVIDIA 的 GPU、NVIDIA 的 switch、NVIDIA 的封裝與軟體堆疊

  • 對雲端服務商來說,這是一個高效能、高黏著度,但同時也高度鎖定的架構

Marvell 的對應策略,很務實也很聰明:

  • 一方面積極參與 UALink

    • 與 AMD、Intel、Broadcom 等公司合作

    • 希望建立 NVLink 的開放替代方案

    • Marvell 計畫推出支援 UALink 的交換機與相關互連晶片

  • 另一方面與 NVIDIA 合作 NVLink Fusion

    • Marvell 幫客戶設計的 Custom XPU,可以整合 NVIDIA 的 NVLink IP

    • 也就是說,客製化 ASIC 仍可無縫連接到 NVIDIA GPU 集群中

對 Marvell 來說:

封閉生態系不可能完全忽視,開放生態系也不能放掉。 於是它選擇「兩邊都壓」,讓自己不會在任何一種未來被排除在外。

3.2 AEC 與「黃金電纜」:銅線的過渡世代

雖然長期看光學互連是終局,但短期內銅仍具備成本與成熟度優勢。

Marvell 借由 AEC(Active Electrical Cable)做銅纜的延壽:

  • 在纜線兩端嵌入自家 Alaska A DSP

  • 允許使用較細的纜線,卻維持長距離與高速

  • 可以在機櫃內做較彈性的佈線,減少重量與體積問題

這種結構,使銅不會瞬間被淘汰,而是變成:

從 400G、800G 過渡到 1.6T 光學互連之前,一個非常務實的中介技術。

3.3 PCIe Retimer:伺服器主板內的「訊號接力站」

在伺服器內部,PCIe 仍是 CPU、GPU、NIC、加速卡之間的基本骨幹。

當 PCIe Gen 6、Gen 7 把傳輸速率不斷推高後:

  • 單一主板上的走線距離變得更敏感

  • 拐彎、過孔、連接器都成為訊號完整性的難題

Marvell 的 Alaska P PCIe Retimer,在這裡扮演的角色就是:

  • 接收衰減的高速訊號

  • 補償、重整,再丟給下一段鏈路

  • 讓系統設計可以更自由配置 slot、插卡位置、走線長度

對 Marvell 而言,這是一個非常「隱形,但 attach rate 會持續提高」的產品線。


4. Scale-Out 與 Scale-Across:1.6T 與相干光 DCI

一旦離開機櫃內部,網路的主角就變成乙太網與相干光。


4.1 1.6T Nova DSP:AI 網路的下一個標準

Marvell 在會中重申其在 PAM4 DSP 領域的領先地位,並介紹 1.6T Nova 平台:

  • 採 3nm 製程

  • 單 lane 速率達 200G

  • 支援 200G/lane 的電氣介面與光學介面

時間軸上:

  • 目前已在向客戶送樣

  • 量產預計落在 2025 下半年到 2026 年之間

這對整個產業的意義是:

  • 當 NVIDIA Blackwell、下一代客製化 ASIC、大規模 AI NIC 開始導入 800G/1.6T

  • 光模組、AOC、LPO、CPO 這些產品,背後都有高度機率搭載 Marvell 的 DSP


4.2 COLORZ 與 1.6T ZR/ZR+:讓資料中心跨地域組成「一座 AI 工廠」

在更長距離場景,例如城市與城市之間、資料中心與資料中心之間的互連,

Marvell 主打的是相干光產品線:

  • COLORZ 800

  • 1.6T ZR / ZR+

核心技術特點包括:

  • 採用 coherent optics 與多階調變(如 16QAM)

  • 在標準光纖上達成數百公里到千公里級距的傳輸

  • 同時維持 800G、1.6T 等級的吞吐

這對 hyperscalers 的實際價值在於:

當單一資料中心的供電、土地、冷卻極限被用滿後, 可以在不同地點建立多個中型機房,透過高階 DCI 把它們「邏輯上合併」成同一座 AI 工廠。

在這個區塊,Marvell 有相當深的技術積累與先發優勢。


5. 客製化晶片(Custom Compute):平台,而不只是設計服務

Marvell 的 Custom ASIC 業務,是這幾年成長速度最快的板塊,也是這次大會中被強調的重點。


5.1 與傳統 ASIC house 最大的不同:平台化 IP 組合

很多人一提到 ASIC 設計,會聯想到「設計公司幫你把 RTL 落到一顆可量產的晶片上」。

但 Marvell 採取的模式更接近「提供一整套平台」:

  • 高速 SerDes:112G / 224G

  • 記憶體控制器:HBM3 / HBM4

  • 封裝技術:2.5D / CoWoS 類型、3D 堆疊

  • 光學互連:Celestial AI 的 Photonic Fabric IP

對雲端客戶而言,這代表:

  • 自己可以把精力放在差異化最高的運算核心(Compute core)

  • 而把 I/O、互連、封裝這些高度複雜但「非自家獨特價值」的部分外包給 Marvell

  • 開發風險與上市時間都大幅縮短

簡單講,Marvell 要做的是:

讓「想自己做晶片的雲端業者」, 不需要從零開始做一整套系統,而是站在 Marvell 的平台上往上堆。

5.2 增長預測:Attach 的威力

Marvell 把 CY23–CY28 各產品部門的 CAGR 預期攤開,數字非常醒目:

產品部門

CAGR 預測 (CY23–CY28)

說明

Custom XPU Attach

90%

成長速度最快,來自 DSP、Retimer、光學晶片等周邊元件的 attach rate 提升

Custom XPU

47%

反映 hyperscalers 自研晶片加速,Marvell 作為設計與平台供應商直接受惠

Interconnect

35%

800G → 1.6T 升級帶動 DSP、光模組需求增長

Switching

17%

雖然面臨 Broadcom 強敵,但仍有 AI 專用交換機的新增機會

Storage

9%

成熟市場,主要靠企業級 SSD 控制器與相關前端 IC 迭代支撐

這張表有一個關鍵重點:

真正爆發的不是「單一 XPU」, 而是「跟著 XPU 一起出貨的那一整串互連與記憶體晶片」。

換句話說,Marvell 不只是賺「一顆 ASIC」,而是賺「每一個 AI node 旁邊那一圈零組件」。


5.3 客戶面:從 Top 4 Hyperscalers 向外擴散

Marvell 在大會中提到,它已經拿到「美國前四大雲端服務商」的客製化訂單,

並且正在與其他新興 hyperscalers 合作。

雖然公司沒有逐一點名,但從產業脈絡來看:

  • AWS:Trainium / Inferentia 生態系

  • Google:TPU / Axion 類產品

  • Microsoft:Maia / Cobalt

  • Meta:MTIA 系列

這些平台都在往自研 ASIC 與客製化運算方向走,而 Marvell 的角色是:

在 Compute 自主化浪潮中, 變成那個提供「互連骨幹與封裝 know-how」的共同供應商。

6. 記憶體與 CXL:一個尚未爆發,但位置關鍵的拼圖

在所有關於 AI 的討論裡,記憶體常常被壓縮成「就是 HBM」,

但實際上,系統層級的記憶體架構正在出現結構性變化。

6.1 CXL 解決的是什麼問題?

傳統伺服器的一個痛點是:

  • 記憶體多半是綁在單一 CPU / socket 上

  • 若該 CPU 工作負載不滿,底下掛著的記憶體也被浪費

  • 在 AI、雲端環境下,這樣的「記憶體擱淺」會造成非常高的 TCO

CXL 帶來兩個重要能力:

  • 建立 shared memory pool,讓多個 CPU / XPU 共享一個記憶體資源池

  • 建立多層級記憶體階層,讓高頻熱資料與冷資料分層存放,優化成本與效能

6.2 Structera:Marvell 的 CXL 產品線位置

Marvell 以 Structera 品牌切入 CXL 市場,重點放在:

  • 記憶體擴展控制器

    • 可以把舊的 DDR 記憶體重新打包,變成透過 CXL 挂載的 capacity tier

    • 對擁有大量 DDR 庫存的雲端業者來說,這是「把沉沒成本變成資產」的工具

  • 近記憶體運算

    • 在記憶體控制器上加入壓縮/解壓縮等輕量處理功能

    • 降低資料在主處理器與記憶體之間來回搬運的頻寬壓力與功耗

從營收占比來看,CXL 還不是主角,

但在中長期的 AI 基礎設施架構裡,它很可能變成一塊關鍵拼圖。


7. 競爭格局:Broadcom、NVIDIA 與 Marvell 的三國局面

7.1 Broadcom:最正面的對手

Broadcom 與 Marvell 的競爭幾乎涵蓋:

  • ASIC / Custom Compute

  • Switch ASIC

  • SerDes / DSP

  • 部分儲存相關 IC

兩者最大的差異在策略上:

  • Broadcom 更偏向「重度垂直整合」,許多 IP 與設計高度綁定特定大客戶

  • Marvell 則強調「平台化 IP + 客製化彈性」,試圖成為更多雲端業者的長期合作夥伴

在光學層面,兩者路線也不同:

  • Broadcom 多與光模組供應商合作,自己掌握 ASIC 與部分光電前端能力

  • Marvell 則直接把 Celestial AI 納入,往封裝內光互連深入佈局

簡言之:

Broadcom 在「現在的規模經濟」上有優勢, Marvell 則希望在「下一個世代的封裝與互連架構」上卡位。

7.2 NVIDIA:世界級客戶,也是潛在競爭者

NVIDIA 的策略,是想把 compute + network 完整吃下來:

  • 自家的 GPU、DPU

  • 自家的 InfiniBand 與 NVLink

  • 自己定義的整體軟體與通訊堆疊

這當然會侵蝕 Marvell 在交換機與部分網路晶片上的空間。

但另一方面:

  • Marvell 仍是 NVIDIA 的關鍵 DSP 供應商之一

  • 藉由 NVLink Fusion 與 UALink 的雙重策略,Marvell 同時與 NVIDIA 及其競爭對手合作

這種關係很微妙,但也凸顯出:

在 AI 基礎設施這個層級,純粹的「敵我」關係越來越少, 更多的是在不同技術層次上的既競爭又合作。

8. 華爾街觀點與風險檢視

8.1 分析師的主流看法

整體而言,分析師對 Marvell 的轉型方向給出偏正面評價:

  • Rosenblatt:維持買進評級,認為 Celestial AI 收購鞏固了其在光學互連的長期領先地位,特別是在 CPO 與封裝內互連領域。

  • Piper Sandler:目標價上調至 135 美元,強調 Marvell 對 2027–2028 年營收的可見度相當高。

  • J.P. Morgan:認為市場低估了 Marvell 在 Custom XPU 市場的滲透力,尤其是與美國前幾大雲端服務商的合作。


8.2 幾個不容忽視的風險

當然,這條路徑也有明確風險:

  1. 技術落地風險

    • Celestial AI 目前仍處於技術導入早期,距離大規模量產還有不少工程挑戰。

    • 光學元件的良率、3D 封裝製程的成熟度、供應鏈協同,都是可能拖延產品進度的變數。

  2. 技術賭注方向風險

    • 若未來幾代製程與 SerDes 設計真的能把銅互連的壽命再延長一到兩代,

      光學互連的滲透速度可能不如預期。

    • 這會影響 Celestial AI 相關投資的回收節奏與規模。

  3. 客戶集中度風險

    • Marvell 的高速成長高度仰賴少數超大客戶。

    • 一旦 AWS、Google、Microsoft 等大客戶調整 Capex,或改變架構策略,Marvell 的營收會同步受到影響。


9. 總結:Marvell 正在把自己綁在 AI 基礎設施的上升曲線上

從這場 2025 Industry Analyst Day 回頭看 Marvell:

  • 它已經不再是一家「什麼都有做一點」的網通 IC 公司。

  • 它正在明確地,把公司未來成敗,綁在 AI 資料中心基礎設施這條主軸上。

核心主張可以濃縮成一句話:

在 AI 時代,算力不再是唯一瓶頸, 真正決定系統上限的是「連接」與「記憶體架構」。

Marvell 在這個大方向上,做了三件關鍵佈局:

  1. Scale-Up:

    • 透過 Celestial AI 的 Photonic Fabric,押注封裝內光學互連的下一個世代。

    • 兼顧 NVLink 合作與 UALink 開放標準,避免站錯隊。

  2. Scale-Out / Scale-Across:

    • 以 1.6T DSP、800G / 1.6T 相干光 DCI,卡位 AI 網路升級與跨資料中心訓練需求。

  3. Custom Compute:

    • 把自己定位成 hyperscalers 的「系統級平台供應商」,

      利用高 attach rate 的互連與記憶體產品,放大每一顆 XPU 帶來的營收貢獻。


10. 未來兩三年值得觀察的關鍵指標

如果你是投資人、產業從業者或供應鏈夥伴,接下來幾個指標值得持續追蹤:

  1. Celestial AI 產品實測與導入節奏

    • 是否有具體的 silicon proof point 與 demo 發表

    • 首批導入的客戶是誰、規模多大、應用在哪種 XPU 或 AI 平台上

  2. 1.6T 產品線的放量速度

    • 何時開始在主流 51.2T、102.4T switch、AI NIC 上看到明確採用

    • 與競品(特別是 Broadcom 自家 DSP)的市佔消長

  3. Custom XPU 與 Custom Attach 的營收占比變化

    • 幾家主要 hyperscalers 在自研晶片上,是否持續增加對 Marvell 平台的依賴

    • attach 類產品(DSP、Retimer、光學晶片)的成長是否真如公司預期接近 90% CAGR

  4. CXL 與 Structera 的實際導入案例

    • 是否有明確的大型雲端客戶公開導入 CXL-based memory pooling,並以 Structera 作為關鍵元件之一

整體來看,Marvell 正站在一個非常關鍵的十字路口:

如果 Celestial AI 的技術能如期落地、1.6T 與 Custom Compute 能按預期成長,它會從「重要供應商」變成「定義下一代 AI 基礎設施的關鍵角色」

最新文章

查看全部
HOT CHIPS 2025: Google Ironwood TPU Rack,當 AI 系統開始為「長期可擴展性」而設計

Google 為什麼一開始就談「系統」,而不是 TPU 晶片 在這場 case study 中,Google 並沒有把焦點放在 Ironwood TPU 本身,而是從整個 TPU 系統與 super pod 的演進談起,這反映了 Google 一貫的設計思維。 TPU 從一開始就是「系統級產品」 晶片只是系統中的一個元件 架構設計必須同時對應現在與未來的工作負載 設計週期以「多年可用」為前提 對

 
 
 
HOT CHIPS 2025: Meta Catalina(NVL72),當 AI 系統開始為「既有資料中心」而設計

Meta 為什麼要自己做 NVL72,而不是直接照表操課 在這場 case study 中,Meta 並不是單純展示一個 NVIDIA NVL72 的客製版本,而是清楚說明一件事: AI 系統設計,必須服從現實的資料中心條件。 Meta 已在資料中心規模部署 AI 超過十年 多數既有資料中心並非為高密度液冷而生 AI 擴展速度,已經快過新資料中心的建設速度 系統若無法快速落地,就沒有意義 Cata

 
 
 
HOT CHIPS 2025: NVIDIA GB200 / GB300 NVL72,從機械與散熱角度看 AI Rack 為何已經不是「伺服器的集合」

NVIDIA 為什麼要先談 MGX,而不是直接談 GB200 在這場 case study 中,NVIDIA 並沒有一開始就介紹 GB200 或 GB300,而是先從 MGX 架構談起,這其實點出了問題的本質。 AI 系統已不再是單一伺服器設計問題 不同客戶在 CPU、GPU、DPU、NIC、管理方式上都有細微差異 即使只改一個模組,也會牽動整個系統重設 反覆客製導致 time-to-market

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page