top of page

Barclays 23rd Annual Global Technology Conference | Arista Networks | AI Networking 的架構演進:Scale-Out, Scale-Across 與 Ethernet 的全面反攻

本次 Barclays 的會議邀請到了 Arista Networks (ANET) 的 Mark Foss (SVP of Global Operations & Marketing) 與 Hardev Singh (GM on Cloud and AI products)。

在這場訪談中,Arista 非常清晰地定義了目前 AI Networking 的三個維度:Scale-UpScale-Out 以及 Scale-Across,並對未來的技術路徑(LPO, CPO, Liquid Cooling)給出了明確的看法。以下是我的重點整理與分析:


1. AI Networking 的三個層次:Scale-Up, Scale-Out, Scale-Across

Arista 將目前的 AI 網路架構拆解為三個部分,這有助於釐清他們目前的 TAM (Total Addressable Market) 以及未來的成長空間:

  • Scale-Out (Compute Fabric):

    • 這是 Arista 目前的主戰場,用於連接大量的 Accelerators (GPUs/XPUs)。

    • Arista 在這個領域非常強勢,主要競爭對手是其他 Ethernet 交換機廠商。

  • Scale-Across (Data Center Interconnect, DCI):

    • 這是一個較新的術語,Arista 用來描述連接不同 AI Data Center Clusters 的網路。

    • 當 Cluster 規模變得極大,需要跨物理位置連接時,這就是傳統 DCI 的延伸。

    • 技術重點: 使用 7800 chassis 平台,搭配 Coherent Optics (ZR/ZR+) 技術。由於距離拉長會產生 Latency,這需要從架構面去解決,避免 AI Workload 過度依賴長距離傳輸。

  • Scale-Up (GPU Interconnect):

    • 目前的現況是 Nvidia 透過 NVLink/InfiniBand 的封閉系統主導,Arista 暫時無法切入。

    • 未來機會: 隨著 non-Nvidia accelerator ecosystem (如 AMD, Intel 等) 的崛起,Scale-Up 網路將會走向標準化 Ethernet (例如 UALink)。

    • 時程: 預計 2026 年會有 Trials,實質營收貢獻將落在 2027 年。這對 Arista 來說是全新的 TAM。


2. Ethernet vs. InfiniBand:戰局已定?

關於競爭態勢,Arista 觀察到市場風向已經明顯轉變:

  • InfiniBand 的衰退: 隨著 Ethernet 效能追上,加上 UEC (Ultra Ethernet Consortium) 的推動,InfiniBand 的市佔率正在下降。就連 Nvidia 自己也開始更多地談論 Spectrum-X (Ethernet solution)。

  • 客戶心態: Tier 2 Cloud 和 Enterprise 客戶更傾向使用 Ethernet,原因是不想被單一供應商 (Vendor Lock-in) 綁架,且 Ethernet 具備 Dual Source 的優勢。

  • Bundle Strategy 的失效: 雖然 Nvidia 試圖推行 "Full Rack" 的 Bundle 銷售,但在 Hyperscalers 和技術能力較強的 Neoclouds 端,工程師傾向於 Disaggregate (解構) 網路層,選擇 Best-of-Breed 的 Arista EOS,而非直接採用打包方案。


3. 光通訊與物理層技術演進 (LPO, CPO, 1.6T)

針對大家最關心的光學技術路徑,Hardev Singh 給出了非常明確的 Roadmap:

  • 800G Deployment: 2025 年結束後,2026 年將是 800G 的大量部署年 (Volume Deployment)

  • LPO (Linear Pluggable Optics):

    • Arista 是 LPO 的強力推動者。

    • 關鍵看法: Arista 有信心在 1.6T 的速率下,LPO 依然可以運作。這對於降低功耗和 CapEx 非常重要(省去了 DSP 的功耗與成本)。

  • CPO (Co-Packaged Optics):

    • Arista 認為 CPO 是有潛力的技術,但目前 LPO 在 800G/1.6T 仍具優勢。CPO 尚未進入成熟的大規模部署階段,更多是作為未來的技術儲備。

  • Liquid Cooling (液冷):

    • 這取決於 Data Center 的建設週期。既有的 Air-cooled DC 不會馬上消失。

    • 新蓋的 DC (預計 '27, '28 上線) 才會走向 100% Liquid Cooled。屆時 Network 會跟隨 Compute 進入 Rack Scale 的液冷架構。


4. 客戶結構的變化:Tier 2 Cloud (Neoclouds) 的崛起

除了傳統的四大 Hyperscalers (Titan),Arista 特別強調了 Tier 2 AI Cloud 和 Enterprise 的動能:

  • Engagement Model 的差異:

    • Hyperscalers: 傾向於 Co-development,深度合作,技術前沿。

    • Tier 2/Neoclouds: 這些客戶沒有像 Hyperscaler 那樣龐大的工程師軍隊,因此更依賴 Arista 提供的完整解決方案、EOS 的穩定性以及工程支援。

    • 這群客戶更看重 Time-to-market,這對 Arista 這種產品成熟度高的廠商有利。


5. Campus 網路

雖然主要焦點在 AI,但 Campus 業務也是 Arista 的成長引擎。目標鎖定 Global 2000 的大型企業,逐步侵蝕 Cisco 的市佔率 (Cisco 在此領域約有 75% share)。Arista 的策略是憑藉 EOS 的高品質與自動化能力,成為客戶的 "Viable Second Vendor",目前在高階企業市場市佔率約接近 5%,成長空間仍大。


結論

從這場訪談可以看出,Arista 對於 Post-InfiniBand 時代 非常有信心。重點不在於與 Nvidia 正面衝突,而是當 GPU 互連走向開放標準 (Ethernet/UALink) 時,Arista 準備好用其在 Scale-Out 的統治力切入 Scale-Up 市場。同時,堅持推動 LPO 技術至 1.6T,顯示了其在硬體設計與訊號完整性 (Signal Integrity) 上的技術護城河。

最新文章

查看全部
HOT CHIPS 2025: Ayar Labs 的 UCIe Optical I/O Retimer,為 AI Scale-up 打開新的互連層級

AI Scale-up 的本質問題其實是互連,而不是算力 在大型 AI 訓練與推論系統中,效能不再只由單顆 GPU 或 ASIC 決定,而是取決於整個系統是否能像一顆「更大的電腦」那樣協同運作。 模型規模持續擴大,單顆晶片已無法承載完整運算 Scale-up 架構需要讓多顆 GPU 以低延遲、高頻寬方式緊密協作 傳統電氣互連在距離、功耗與頻寬上逐漸碰到極限 Pluggable optics 雖然解

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page