top of page

NVIDIA CES 2026 Keynote 重點懶人包:Vera Rubin 架構、實體 AI 與 Agentic AI 的全面爆發

在剛結束的 CES 2026 上,NVIDIA 執行長黃仁勳(Jensen Huang)再次穿著標誌性的皮衣登場,並帶來了足以讓運算產業「重置」的重磅發布。這場演講的資訊量大到彷彿把 15 場 Keynote 塞進了一場,從軟體定義的變革到全新的 Vera Rubin 硬體架構,NVIDIA 正在向世界宣告:我們不只是晶片公司,我們正在重建整個 AI 的全端生態(Full Stack)。

以下是這次演講的深度整理與技術分析。


1. 雙重平台轉移:AI 應用與運算方式的同步革新

黃仁勳開場即點出,運算產業每 10 到 15 年會發生一次平台轉移(如 PC 到 Internet,Internet 到 Mobile)。但這次不同的是,我們正面臨兩個同時發生的平台轉移

  1. 應用層面:應用程式不再是被「寫」出來的,而是建立在 AI 之上。

  2. 運算層面:軟體不再是編程(Programmed),而是訓練(Trained);不再跑在 CPU 上,而是 GPU 上。

過去的一年(2025),我們見證了 Agentic Systems(代理系統) 的崛起。AI 不再只是聊天機器人,而是具備推理、規劃、使用工具能力的代理人(Agent)。這改變了軟體開發的本質,NVIDIA 甚至內部已經大量使用 Agentic 模型(如 Cursor)來輔助編碼。


2. 軟體定義未來:Agentic AI 與 Open Models

Agentic AI 藍圖 (Blueprint)

未來的應用程式架構將是 Agentic 的。NVIDIA 展示了一個「藍圖」,這是一個整合了多模態(Multimodal)、多模型(Multi-model)與混合雲(Hybrid Cloud)的架構。

  • 路由機制 (Router):系統會根據使用者的意圖,自動判斷該呼叫哪一個最適合的模型(無論是雲端的 Frontier Model 還是地端的 Edge Model)。

  • 實例演示:Jensen 展示了一個個人助理 Demo,它能同時處理行事曆、透過 API 控制機器人(Reachi)、生成建築渲染圖,甚至幫你管教沙發上的狗。這在幾年前是科幻情節,現在已變得「微不足道(Utterly trivial)」。

開源模型的勝利

Jensen 特別提到了 2025 年 Deepseek R1 的出現震驚了世界,它證明了開源模型也能具備強大的推理能力。NVIDIA 承諾將持續作為開源模型的最大貢獻者之一,推出了包括 Cosmos(世界模型)、Neotron(混合 Transformer SSM 模型)等一系列開源專案。


3. Physical AI:實體 AI 與機器人

AI 下一個大戰場是實體 AI(Physical AI),即 AI 需要理解物理世界的常識(如重力、慣性、因果關係)。這需要「三台電腦」的協作:

  1. 訓練電腦:訓練模型。

  2. 推論電腦:在機器人/車輛上執行。

  3. 模擬電腦:這是關鍵,透過 Omniverse 模擬物理世界來生成數據與驗證。

NVIDIA Cosmos:世界基礎模型

NVIDIA 發布了 Cosmos,這是一個物理 AI 的基礎模型。它不是用來生成文字,而是用來生成「符合物理定律」的影片與數據。它可以將粗糙的交通模擬轉化為逼真的環景影片,解決了真實世界數據(尤其是長尾效應 Edge cases)稀缺的問題。

Alpamo:會思考的自駕車大腦

NVIDIA 宣布了 Alpamo,這是全球首款「會思考、會推理」的自駕車 AI。

  • End-to-End 訓練:從鏡頭輸入到方向盤動作直接輸出。

  • 推理能力:它不只會開車,還會告訴你它「為什麼」這樣做,並預測未來的軌跡。

  • 雙重安全堆疊:Alpamo 負責駕駛,但底下有一層傳統的可追溯 AV Stack 作為安全護欄(Guardrail),兩者互為備援,這是目前 Mercedes-Benz 採用的架構。


4. 硬體重頭戲:Vera Rubin 平台

為了致敬發現暗物質的天文學家 Vera Rubin,NVIDIA 將下一代架構命名為 Rubin。面對模型參數每年 10 倍的增長,摩爾定律已無法滿足需求,NVIDIA 採取了「極限協同設計(Extreme Co-design)」策略,一次重設計了 6 款晶片

核心規格解密

  • Vera CPU:針對 AI 協作設計的 CPU,擁有 88 個物理核心(176 執行緒),效能功耗比(Performance per Watt)是前代的 2 倍。

  • Rubin GPU

    • 由兩顆晶片封裝而成。

    • 雖然電晶體數量僅增加 1.6 倍,但透過架構創新,浮點運算效能提升了 5 倍

    • NVFP4 Tensor Core:這是關鍵技術,能在處理器內部動態調整精度,實現極致的吞吐量。

  • 連接與散熱

    • NVLink 6 Switch:頻寬高達 240 TB/s(相當於全球互聯網流量的兩倍)。

    • 100% 液冷:進水溫度可達 45°C(熱水冷卻),這意味著資料中心不再需要冰水機,能節省大量能源。

    • 零線纜設計:新的機架設計完全取消了傳統的線纜和軟管,組裝時間從 2 小時縮短至 5 分鐘。

解決 KV Cache 瓶頸:BlueField-4 與海量記憶體

這是本次演講最硬核的技術亮點之一。隨著 AI 對話變長(Context Window 增加),GPU 的 HBM 記憶體已塞不下龐大的 KV Cache(Key-Value Cache)。 NVIDIA 提出了一個革命性的解法:利用 BlueField-4 DPU 搭配機架內的 150TB 共享記憶體池。這讓每個 GPU 額外獲得了 16TB 的快速存取記憶體,專門用來處理龐大的上下文快取,徹底解放 HBM。

網路:Spectrum-X 與矽光子 (Silicon Photonics)

NVIDIA 展示了採用台積電 COUPE 製程的全新 Spectrum-X 交換器晶片。這是一個整合了矽光子技術的巨型晶片,光纖直接連接到晶片上(Lasers come in directly),提供 512 埠的 200Gbps 連接,專為 AI 的東西向流量(East-West Traffic)設計。


5. 總結:全端(Full Stack)的勝利

Vera Rubin 的極限硬體效能,到 Cosmos 與 Alpamo 的實體 AI 應用,再到與 SiemensCadenceSynopsys 合作將 AI 引入工業設計與晶片製造,NVIDIA 正在構建一個閉環。

數據說明一切:

  • Rubin 訓練 10 兆參數模型的速度是 Blackwell 的 4 倍

  • 單位功耗的工廠吞吐量提升了 10 倍

  • 代幣生成成本(Cost per Token)降低至 1/10


Jensen 最後強調,這不只是關於晶片,而是關於打造未來的基礎設施。從 2026 年開始,所有的汽車、工廠、軟體都將被 AI 重新定義。

這是一個瘋狂的時代,而我們才剛開始。

最新文章

查看全部
HOT CHIPS 2025: NVIDIA 為什麼必須把光互連做到 Co-Packaged Silicon Photonics Switch

NVIDIA 面對的問題早已不是單顆晶片效能 在 Hot Chips 2025 的分享中,NVIDIA 很清楚地傳達一個訊息:他們現在解決的問題,不是 GPU 有多快,而是整個 AI 系統能不能有效運作。 單顆 GPU 的算力仍在提升,但系統效能成長開始放緩 大型模型需要數千甚至上萬顆 GPU 協同運算 系統瓶頸逐漸轉移到 GPU 與 GPU 之間的互連 延遲、功耗與可擴展性成為決定性因素 在這樣

 
 
 
OCP Global Summit 2025_NVIDIA_Shaping the Future of Open Infrastructure for AI

前言 在 OCP Global Summit 2025 上,NVIDIA 分享了他們如何透過開放基礎設施推動 AI 的未來發展。演講中強調,AI 已經進入  Gigascale 時代  —— 全球各地的資料中心以「GW(Gigawatt)」等級建設,從單一晶片、伺服器,到跨資料中心的超級集群,都需要全新的架構與創新。NVIDIA 在這個過程中不僅是 GPU 的提供者,更是完整 AI 基礎設施生態的

 
 
 
  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page