Marvell 2025 Industry Analyst Day深度解讀
- simpletechtrend
- 4天前
- 讀畢需時 13 分鐘
前言:這不是一場普通的 Analyst Day
2025 年 12 月 9 日,Marvell Technology 在美國聖塔克拉拉舉辦的 Industry Analyst Day,表面上是一場常見的「對分析師說明公司前景」的活動,但實際上,它更像是一份向市場公開的「轉型聲明書」。
幾個關鍵背景先釐清:
Marvell 在 2026 會計年度第三季交出
年增 37%、營收 20.75 億美元的成績。
但財報只是故事的封面,真正關鍵在於:
公司未來的成長引擎,要放在哪裡。
這場大會傳遞出的訊息非常直接:
Marvell 不想再當一間做一堆「還不錯」產品的網通 IC 廠, 而是要成為 AI 資料中心基礎設施的「架構師」。
核心轉折在兩個維度:
企業戰略與資本配置:
把資源從成長穩定但偏線性的汽車業務,轉向高風險、高爆發的光學互連與客製化運算晶片。
技術與產品佈局:
積極押注光學互連、1.6T 乙太網、客製化 XPU,以及 CXL 記憶體架構。
Marvell 究竟在賭什麼
Celestial AI 收購案背後的真正意義
為何光學互連會變成 AI 時代的「硬通貨」
它如何在 Broadcom、NVIDIA 之間找到自己的位置
1. Marvell 的戰略大轉彎:從多元化到 AI 基礎設施純粹玩家
Marvell 的轉型並非一日之寒。
從過去幾年的收購與產品調整,可以看到一條清楚的軌跡:
收購 Inphi:補上高階光學互連與 DSP 能力
收購 Innovium:補足資料中心交換機晶片
2025 年以前:仍是「網通 + 儲存 + 一些新興領域」的綜合型 IC 公司
直到 2025 年,整個故事出現質變。
1.1 資本配置的關鍵動作:賣車用、買光學
這次轉型最具象的行動,是下面這兩件事的先後發生:
將汽車乙太網業務,以 25 億美元全現金賣給 Infineon。
為公司帶來約 18 億美元稅前收益。
讓資產負擔更輕、現金部位明顯提升。
隨即宣布以約 32.5 億美元收購 Celestial AI。
這是一家仍處於「技術成長期」、尚未大規模商業化的新創。
技術聚焦在封裝內光學互連與 Photonic Fabric。
從資本運用的觀點來看,這是一個非常鮮明的訊號:
Marvell 願意放棄一個長期穩定、增長可預期的汽車市場, 把籌碼全部堆到一個「高不確定,但一旦成功就具有指數級回報」的光學互連技術上。
長週期、分散客戶、驗證期冗長的汽車市場,
被換成節奏快、技術迭代快、客戶高度集中的 AI 雲端資料中心。
這不是「分散風險」,而是很明確的「集中風險」。
1.2 AI 時代的基礎設施定義:資料中心就是一台電腦
Marvell 執行長 Matt Murphy 在這次大會中提出一個關鍵觀念:
在 AI 時代,單一伺服器不再是觀察單位, 一整座資料中心,才是一台「超級電腦」。
這樣的架構下,真正困難的問題從「一顆 GPU 有多強」變成:
如何讓數萬顆 GPU / XPU 像單一邏輯實體一樣運作
如何在不同機櫃、不同機房、甚至不同地理位置之間,把模型訓練與推論串起來
在這個框架下,Marvell 把自己的市場機會拆成三個維度:
Scale-Up:
機櫃內、伺服器內的 GPU ↔ GPU、XPU ↔ XPU 互連
Scale-Out:
機櫃與機櫃之間的乙太網介面,從 400G、800G 走向 1.6T
Scale-Across:
資料中心與資料中心之間,基於相干光的長距離 DCI(Data Center Interconnect)
這個切法背後的核心論述是:
不論最終贏家是 NVIDIA、客製化 ASIC、還是多家並存, 每一顆 AI 晶片,都需要大量高頻寬、低延遲的互連。 Marvell 想做的,是成為所有陣營的「互連軍火商」。
2. Celestial AI 收購案:光學互連終局戰的重磅下注
這次 Analyst Day 的技術重心,毫無意外落在 Celestial AI 上。
因為它代表的是:
Marvell 不只是要「賣光模組」,而是要「重新定義封裝內、晶片間的互連物理層」。
2.1 銅線走到哪裡了?
先回到物理層面。
目前高階 AI server 內部,GPU ↔ GPU 多半還是走銅:
被動銅纜 DAC
高速 PCB 走線
主動式 AEC 作為過渡方案
但當速率從 112G/lane 往 224G/lane 走時,銅會遇到幾個硬極限:
集膚效應使得高頻成分被嚴重衰減
介電損耗上升,使得可接受距離大幅縮短
為了維持訊號品質,線材要變粗、接頭要更複雜、佈線空間更吃緊
Marvell 在會中明講:在 224G/lane 之後,被動銅纜的有效距離可能掉到 1 公尺甚至更短。
這意味著:
你很難用純銅互連去支撐「跨機櫃的大型 GPU 集群」。
伺服器和伺服器之間要維持高頻寬、低延遲,就必須大幅引入光。
傳統 pluggable optics 雖然可以提供光學傳輸,但問題在於:
功耗高
體積大
面積與功率密度有限,不適合做大規模 GPU ↔ GPU scale-up
這正是 Celestial AI 切入的空缺。
2.2 Photonic Fabric 與 OMIB:把光學互連變成「封裝內基礎設施」
Celestial AI 的 Photonic Fabric,本質上是一套「封裝內、晶片級別」的光互連架構。
其中 OMIB(Optical Multi-Chip Interconnect Bridge)是一個關鍵概念:
傳統 CPO 多半把光引擎放在封裝邊緣,仍然受限於「邊長」
OMIB 的設計,允許光互連從 die 的各種位置引出
換句話說,它不是在封裝外「拉一條光纖」連兩顆 ASIC
而是讓光路可以在封裝內,作為 die-to-die 的高速 backbone 互連
實際意義包括:
帶寬密度:在同樣封裝面積內,可以塞進遠超過傳統電性 I/O 的互連能力
互連拓樸:不再受限於「沿邊布線」,可以在封裝內設計更多樣的網路結構
可擴展性:隨著 XPU 數量、chiplet 數量增加,仍然能維持高效的互連架構
Marvell 在會中提到,Photonic Fabric 能帶來:
頻寬與記憶體容量提升約 25 倍
延遲降低約 10 倍
在相同距離下的功耗約為銅互連的一半
這些數字的精確值未必是重點,重要的是「量級關係」已經完全改變。
2.3 熱穩定性與 3D 堆疊:把光學功能貼到 XPU 上
現代 AI 加速器動輒 700W、1000W,封裝內溫度分佈極度不均勻。
光學元件對溫度又特別敏感。
在這種環境下,要把光學互連放進封裝內,本身就是一個極困難課題。
Celestial AI 的技術組合包含:
外置雷射(ELS),避免把光源直接放在高功耗 die 上
對溫度變化相對不敏感的調變器設計
支援垂直 3D 堆疊的封裝結構
這些設計讓 Photonic Fabric 可以做到:
與 XPU 做 3D 整合
互連路徑縮短到微米級
在高功耗、高熱通量環境下仍維持穩定運作
這不是單一元件的突破,而是整個封裝系統架構的改寫。
2.4 交易結構透露的時間表與信心程度
32.5 億美元的收購案本身結構也很有意思:
先期對價:
約 10 億美元現金
約 22.5 億美元等值 Marvell 股票(約 2720 萬股)
額外績效對賭(earnout):
上限約 22.5 億美元股票
觸發條件:
Celestial AI 產品需在 Marvell 2029 會計年度結束前,累計營收超過 20 億美元
這組條件透露兩件事:
Marvell 預期 Photonic Fabric 真正進入大量導入,時間大約會落在 2027–2028 年。
一旦成功,規模不會只是幾億美元,而是十億美元等級的營收貢獻。
用一句話總結:
Marvell 清楚知道這是一個高風險、高門檻的長期賭注, 但如果成了,它會直接重塑整個 AI 封裝與互連的遊戲規則。
3. Scale-Up:與 NVLink 的競合,以及銅纜的延壽計畫
在 AI server 的最核心戰場,Scale-Up 是 NVIDIA 現在的主場。
3.1 NVLink 封閉花園與 UALink 開放戰線
今天的 GPU ↔ GPU 高速互連市場,非常被動:
要用 NVLink,需要用 NVIDIA 的 GPU、NVIDIA 的 switch、NVIDIA 的封裝與軟體堆疊
對雲端服務商來說,這是一個高效能、高黏著度,但同時也高度鎖定的架構
Marvell 的對應策略,很務實也很聰明:
一方面積極參與 UALink
與 AMD、Intel、Broadcom 等公司合作
希望建立 NVLink 的開放替代方案
Marvell 計畫推出支援 UALink 的交換機與相關互連晶片
另一方面與 NVIDIA 合作 NVLink Fusion
Marvell 幫客戶設計的 Custom XPU,可以整合 NVIDIA 的 NVLink IP
也就是說,客製化 ASIC 仍可無縫連接到 NVIDIA GPU 集群中
對 Marvell 來說:
封閉生態系不可能完全忽視,開放生態系也不能放掉。 於是它選擇「兩邊都壓」,讓自己不會在任何一種未來被排除在外。
3.2 AEC 與「黃金電纜」:銅線的過渡世代
雖然長期看光學互連是終局,但短期內銅仍具備成本與成熟度優勢。
Marvell 借由 AEC(Active Electrical Cable)做銅纜的延壽:
在纜線兩端嵌入自家 Alaska A DSP
允許使用較細的纜線,卻維持長距離與高速
可以在機櫃內做較彈性的佈線,減少重量與體積問題
這種結構,使銅不會瞬間被淘汰,而是變成:
從 400G、800G 過渡到 1.6T 光學互連之前,一個非常務實的中介技術。
3.3 PCIe Retimer:伺服器主板內的「訊號接力站」
在伺服器內部,PCIe 仍是 CPU、GPU、NIC、加速卡之間的基本骨幹。
當 PCIe Gen 6、Gen 7 把傳輸速率不斷推高後:
單一主板上的走線距離變得更敏感
拐彎、過孔、連接器都成為訊號完整性的難題
Marvell 的 Alaska P PCIe Retimer,在這裡扮演的角色就是:
接收衰減的高速訊號
補償、重整,再丟給下一段鏈路
讓系統設計可以更自由配置 slot、插卡位置、走線長度
對 Marvell 而言,這是一個非常「隱形,但 attach rate 會持續提高」的產品線。
4. Scale-Out 與 Scale-Across:1.6T 與相干光 DCI
一旦離開機櫃內部,網路的主角就變成乙太網與相干光。
4.1 1.6T Nova DSP:AI 網路的下一個標準
Marvell 在會中重申其在 PAM4 DSP 領域的領先地位,並介紹 1.6T Nova 平台:
採 3nm 製程
單 lane 速率達 200G
支援 200G/lane 的電氣介面與光學介面
時間軸上:
目前已在向客戶送樣
量產預計落在 2025 下半年到 2026 年之間
這對整個產業的意義是:
當 NVIDIA Blackwell、下一代客製化 ASIC、大規模 AI NIC 開始導入 800G/1.6T
光模組、AOC、LPO、CPO 這些產品,背後都有高度機率搭載 Marvell 的 DSP
4.2 COLORZ 與 1.6T ZR/ZR+:讓資料中心跨地域組成「一座 AI 工廠」
在更長距離場景,例如城市與城市之間、資料中心與資料中心之間的互連,
Marvell 主打的是相干光產品線:
COLORZ 800
1.6T ZR / ZR+
核心技術特點包括:
採用 coherent optics 與多階調變(如 16QAM)
在標準光纖上達成數百公里到千公里級距的傳輸
同時維持 800G、1.6T 等級的吞吐
這對 hyperscalers 的實際價值在於:
當單一資料中心的供電、土地、冷卻極限被用滿後, 可以在不同地點建立多個中型機房,透過高階 DCI 把它們「邏輯上合併」成同一座 AI 工廠。
在這個區塊,Marvell 有相當深的技術積累與先發優勢。
5. 客製化晶片(Custom Compute):平台,而不只是設計服務
Marvell 的 Custom ASIC 業務,是這幾年成長速度最快的板塊,也是這次大會中被強調的重點。
5.1 與傳統 ASIC house 最大的不同:平台化 IP 組合
很多人一提到 ASIC 設計,會聯想到「設計公司幫你把 RTL 落到一顆可量產的晶片上」。
但 Marvell 採取的模式更接近「提供一整套平台」:
高速 SerDes:112G / 224G
記憶體控制器:HBM3 / HBM4
封裝技術:2.5D / CoWoS 類型、3D 堆疊
光學互連:Celestial AI 的 Photonic Fabric IP
對雲端客戶而言,這代表:
自己可以把精力放在差異化最高的運算核心(Compute core)
而把 I/O、互連、封裝這些高度複雜但「非自家獨特價值」的部分外包給 Marvell
開發風險與上市時間都大幅縮短
簡單講,Marvell 要做的是:
讓「想自己做晶片的雲端業者」, 不需要從零開始做一整套系統,而是站在 Marvell 的平台上往上堆。
5.2 增長預測:Attach 的威力
Marvell 把 CY23–CY28 各產品部門的 CAGR 預期攤開,數字非常醒目:
產品部門 | CAGR 預測 (CY23–CY28) | 說明 |
Custom XPU Attach | 90% | 成長速度最快,來自 DSP、Retimer、光學晶片等周邊元件的 attach rate 提升 |
Custom XPU | 47% | 反映 hyperscalers 自研晶片加速,Marvell 作為設計與平台供應商直接受惠 |
Interconnect | 35% | 800G → 1.6T 升級帶動 DSP、光模組需求增長 |
Switching | 17% | 雖然面臨 Broadcom 強敵,但仍有 AI 專用交換機的新增機會 |
Storage | 9% | 成熟市場,主要靠企業級 SSD 控制器與相關前端 IC 迭代支撐 |
這張表有一個關鍵重點:
真正爆發的不是「單一 XPU」, 而是「跟著 XPU 一起出貨的那一整串互連與記憶體晶片」。
換句話說,Marvell 不只是賺「一顆 ASIC」,而是賺「每一個 AI node 旁邊那一圈零組件」。
5.3 客戶面:從 Top 4 Hyperscalers 向外擴散
Marvell 在大會中提到,它已經拿到「美國前四大雲端服務商」的客製化訂單,
並且正在與其他新興 hyperscalers 合作。
雖然公司沒有逐一點名,但從產業脈絡來看:
AWS:Trainium / Inferentia 生態系
Google:TPU / Axion 類產品
Microsoft:Maia / Cobalt
Meta:MTIA 系列
這些平台都在往自研 ASIC 與客製化運算方向走,而 Marvell 的角色是:
在 Compute 自主化浪潮中, 變成那個提供「互連骨幹與封裝 know-how」的共同供應商。
6. 記憶體與 CXL:一個尚未爆發,但位置關鍵的拼圖
在所有關於 AI 的討論裡,記憶體常常被壓縮成「就是 HBM」,
但實際上,系統層級的記憶體架構正在出現結構性變化。
6.1 CXL 解決的是什麼問題?
傳統伺服器的一個痛點是:
記憶體多半是綁在單一 CPU / socket 上
若該 CPU 工作負載不滿,底下掛著的記憶體也被浪費
在 AI、雲端環境下,這樣的「記憶體擱淺」會造成非常高的 TCO
CXL 帶來兩個重要能力:
建立 shared memory pool,讓多個 CPU / XPU 共享一個記憶體資源池
建立多層級記憶體階層,讓高頻熱資料與冷資料分層存放,優化成本與效能
6.2 Structera:Marvell 的 CXL 產品線位置
Marvell 以 Structera 品牌切入 CXL 市場,重點放在:
記憶體擴展控制器
可以把舊的 DDR 記憶體重新打包,變成透過 CXL 挂載的 capacity tier
對擁有大量 DDR 庫存的雲端業者來說,這是「把沉沒成本變成資產」的工具
近記憶體運算
在記憶體控制器上加入壓縮/解壓縮等輕量處理功能
降低資料在主處理器與記憶體之間來回搬運的頻寬壓力與功耗
從營收占比來看,CXL 還不是主角,
但在中長期的 AI 基礎設施架構裡,它很可能變成一塊關鍵拼圖。
7. 競爭格局:Broadcom、NVIDIA 與 Marvell 的三國局面
7.1 Broadcom:最正面的對手
Broadcom 與 Marvell 的競爭幾乎涵蓋:
ASIC / Custom Compute
Switch ASIC
SerDes / DSP
部分儲存相關 IC
兩者最大的差異在策略上:
Broadcom 更偏向「重度垂直整合」,許多 IP 與設計高度綁定特定大客戶
Marvell 則強調「平台化 IP + 客製化彈性」,試圖成為更多雲端業者的長期合作夥伴
在光學層面,兩者路線也不同:
Broadcom 多與光模組供應商合作,自己掌握 ASIC 與部分光電前端能力
Marvell 則直接把 Celestial AI 納入,往封裝內光互連深入佈局
簡言之:
Broadcom 在「現在的規模經濟」上有優勢, Marvell 則希望在「下一個世代的封裝與互連架構」上卡位。
7.2 NVIDIA:世界級客戶,也是潛在競爭者
NVIDIA 的策略,是想把 compute + network 完整吃下來:
自家的 GPU、DPU
自家的 InfiniBand 與 NVLink
自己定義的整體軟體與通訊堆疊
這當然會侵蝕 Marvell 在交換機與部分網路晶片上的空間。
但另一方面:
Marvell 仍是 NVIDIA 的關鍵 DSP 供應商之一
藉由 NVLink Fusion 與 UALink 的雙重策略,Marvell 同時與 NVIDIA 及其競爭對手合作
這種關係很微妙,但也凸顯出:
在 AI 基礎設施這個層級,純粹的「敵我」關係越來越少, 更多的是在不同技術層次上的既競爭又合作。
8. 華爾街觀點與風險檢視
8.1 分析師的主流看法
整體而言,分析師對 Marvell 的轉型方向給出偏正面評價:
Rosenblatt:維持買進評級,認為 Celestial AI 收購鞏固了其在光學互連的長期領先地位,特別是在 CPO 與封裝內互連領域。
Piper Sandler:目標價上調至 135 美元,強調 Marvell 對 2027–2028 年營收的可見度相當高。
J.P. Morgan:認為市場低估了 Marvell 在 Custom XPU 市場的滲透力,尤其是與美國前幾大雲端服務商的合作。
8.2 幾個不容忽視的風險
當然,這條路徑也有明確風險:
技術落地風險
Celestial AI 目前仍處於技術導入早期,距離大規模量產還有不少工程挑戰。
光學元件的良率、3D 封裝製程的成熟度、供應鏈協同,都是可能拖延產品進度的變數。
技術賭注方向風險
若未來幾代製程與 SerDes 設計真的能把銅互連的壽命再延長一到兩代,
光學互連的滲透速度可能不如預期。
這會影響 Celestial AI 相關投資的回收節奏與規模。
客戶集中度風險
Marvell 的高速成長高度仰賴少數超大客戶。
一旦 AWS、Google、Microsoft 等大客戶調整 Capex,或改變架構策略,Marvell 的營收會同步受到影響。
9. 總結:Marvell 正在把自己綁在 AI 基礎設施的上升曲線上
從這場 2025 Industry Analyst Day 回頭看 Marvell:
它已經不再是一家「什麼都有做一點」的網通 IC 公司。
它正在明確地,把公司未來成敗,綁在 AI 資料中心基礎設施這條主軸上。
核心主張可以濃縮成一句話:
在 AI 時代,算力不再是唯一瓶頸, 真正決定系統上限的是「連接」與「記憶體架構」。
Marvell 在這個大方向上,做了三件關鍵佈局:
Scale-Up:
透過 Celestial AI 的 Photonic Fabric,押注封裝內光學互連的下一個世代。
兼顧 NVLink 合作與 UALink 開放標準,避免站錯隊。
Scale-Out / Scale-Across:
以 1.6T DSP、800G / 1.6T 相干光 DCI,卡位 AI 網路升級與跨資料中心訓練需求。
Custom Compute:
把自己定位成 hyperscalers 的「系統級平台供應商」,
利用高 attach rate 的互連與記憶體產品,放大每一顆 XPU 帶來的營收貢獻。
10. 未來兩三年值得觀察的關鍵指標
如果你是投資人、產業從業者或供應鏈夥伴,接下來幾個指標值得持續追蹤:
Celestial AI 產品實測與導入節奏
是否有具體的 silicon proof point 與 demo 發表
首批導入的客戶是誰、規模多大、應用在哪種 XPU 或 AI 平台上
1.6T 產品線的放量速度
何時開始在主流 51.2T、102.4T switch、AI NIC 上看到明確採用
與競品(特別是 Broadcom 自家 DSP)的市佔消長
Custom XPU 與 Custom Attach 的營收占比變化
幾家主要 hyperscalers 在自研晶片上,是否持續增加對 Marvell 平台的依賴
attach 類產品(DSP、Retimer、光學晶片)的成長是否真如公司預期接近 90% CAGR
CXL 與 Structera 的實際導入案例
是否有明確的大型雲端客戶公開導入 CXL-based memory pooling,並以 Structera 作為關鍵元件之一
整體來看,Marvell 正站在一個非常關鍵的十字路口:
如果 Celestial AI 的技術能如期落地、1.6T 與 Custom Compute 能按預期成長,它會從「重要供應商」變成「定義下一代 AI 基礎設施的關鍵角色」




留言