top of page

GTC October 2025 Keynote with NVIDIA CEO Jensen Huang | GTC 2025 華府現場:從「AI 工廠」到 6G,NVIDIA 把整個計算堆疊重新命名了一次

🧭 前言

這場在華盛頓 D.C. 的 GTC(2025/10/28)不是一般的技術發表會,而是把「AI=新型工業基礎設施」這件事講到產業、供應鏈、國家戰略層級。

黃仁勳把 30 年來的 CUDA 生態、GPU 演進、以及 從機房→機架→整廠 的「聯合設計(co-design)」一次攤開:

AI 工廠(AI Factory) 不只是比喻,而是要把 建築、供電、冷卻、機架、網路、軟體、模型 當成一台可最佳化的「巨型電腦」來設計與運營。



🚀 內容重點

  1. 一台機架就是一顆「巨型 GPU」:Grace-Blackwell + NVLink-72

    • 架構亮點:Grace CPU + Blackwell GPU + NVLink-72,形成整機架單一計算域。

    • 主打兩件事:效能密度、每個 token 的成本(TCO)。

    • 概念轉變:將模型拆成「專家」,讓更多專家能在同一 NVLink 網域內低延遲互通。

    • 現況:GB300 已量產;下一代 Reuben 架構在實驗室準備中。

💡 不是單純串 GPU,而是把「網內通訊、記憶體帶寬與熱設計」整合最適化。真正的 KPI 變成 token/s × latency × cost per token
  1. DSX:AI 工廠的「數位分身作業系統」

    1. Omniverse DSX:把土木機電、機房母管線、機架佈局、熱與電模擬、到軟體排程做端到端數位分身。

    2. 合作夥伴:Jacobs、Siemens、Schneider、Trane、Vertiv、Bechtel。

    3. 目標:縮短建置期、提升上線良率、最大化「單位功率的 token 產出」。

    4. 應用:NVIDIA 正在維吉尼亞建立 AI 工廠研究中心。

💬 「先數位、後實體」——大型基礎設施若沒有數位分身,試錯成本會非常高。
  1. 量子 × GPU:NVQLink + CUDA-Q

    • NVQLink 直接把 QPU 與 GPU 超算連結,實現即時量子錯誤校正(QEC)、控制校準與混合模擬。

    • DOE 合作:能源部將與 NVIDIA 建置七套 AI 超級電腦。

    • 產業意義:未來科學計算會是「加速計算 + AI + 量子」的融合架構。

⚙️ 「量子不取代經典,而是被 GPU 擁抱。」
  1. 6G/RAN 回到美國:NVIDIA × Nokia + ARC

    • ARC(Aerial RAN Computer):結合 Grace CPU、Blackwell GPU、ConnectX NIC。

    • 夥伴:Nokia;NVIDIA 對 Nokia 投資 10 億美元,聯手打造 AI-RAN 與 6G。

    • 意義

      • AI for RAN:用強化學習即時最佳化波束、頻譜效率。

      • AI on RAN:讓基地台成為邊緣 AI 推論平台。

🇺🇸 把通訊技術重新「AI 化」、再「美國製造」。
  1. 企業與安全生態:CrowdStrike、Palantir、四大雲

    • 四大雲整合:AWS、GCP、Azure、Oracle 全面整合 CUDA X、NIM、模型庫。

    • 安全 × 資料

      • 與 CrowdStrike 建立低延遲 AI 安全代理。

      • 與 Palantir 整合以加速 ontology 資料處理。

🧠 把「AI 能力」轉為「企業可審計的服務堆疊」。
  1. 實體 AI:工廠、機器人與自駕車

    • 三層電腦架構

      1. GB:訓練

      2. Omniverse:模擬

      3. Jetson/Thor:邊緣推論

    • 案例

      • 與 Foxconn 在休士頓建置 AI 工廠數位分身。

      • 與 Disney Research 開發擬真機器人模擬。

      • 推出 Drive Hyperion「Robo-Taxi Ready」平台,與 Uber 合作接入車隊網路。

🦾 「先在數位分身裡跑通,再下到實體世界。」

🔍 三個關鍵觀察

  1. 效能疊代從「晶片世代」變成「工廠世代」

    • DSX 讓硬體與建築合一,真正的效能單位是整個工廠的 token 成本。

  2. 通訊堆疊被 AI 原生化

    1. AI-RAN 讓站點密度與 AI 工作負載對應,從電信延伸到私網與工廠。

  3. 量子 × GPU 成為產業共同語言

    • 量子不再是孤島,而是 GPU 生態的可插拔夥伴。


對台灣與光電產業鏈的影響

  • 資料中心基礎設施進入長週期投資

    • 液冷、配電、熱界面材料都將隨 AI 工廠一併成長。

  • 光互連的重要性再提升

    • NVLink-72 級別的帶寬密度,讓 CPO/OCS/IPoF 成為關鍵。

  • RAN GPU 化帶動邊緣 AI 應用

    • 私網、工廠 AI-RAN 是下一波硬體設計機會。

  • 量子控制電子學的新需求

    • 測試、低溫模組、超導控制電路都有新應用。


總結

這場 GTC 把 NVIDIA 的主軸講得非常清楚:

用極致的聯合設計,讓整個計算堆疊變成一台「工廠等級」的電腦。

從 NVLink-72、DSX AI 工廠、AI-RAN 到 Quantum,全都圍繞同一核心邏輯:

把電力與冷卻轉化為更有價值的 token。

對我們來說,關鍵就是:

讓「工廠思維」內建到每一個產品與專案流程,從 KPI 開始。

最新文章

查看全部
OCP Global Summit 2025_NVIDIA_Shaping the Future of Open Infrastructure for AI

前言 在 OCP Global Summit 2025 上,NVIDIA 分享了他們如何透過開放基礎設施推動 AI 的未來發展。演講中強調,AI 已經進入  Gigascale 時代  —— 全球各地的資料中心以「GW(Gigawatt)」等級建設,從單一晶片、伺服器,到跨資料中心的超級集群,都需要全新的架構與創新。NVIDIA 在這個過程中不僅是 GPU 的提供者,更是完整 AI 基礎設施生態的

 
 
 
SEMICON2025_Silicon Photonics Summit_NVIDIA

前言 隨著人工智慧(AI)規模持續擴張, 資料中心已經從單純伺服器的集合體,轉變為「運算單元」本身 。NVIDIA 在 SEMICON 2025 的演講中,強調 網路(Network)就是資料中心的核心 :不論是單一伺服器、GPU 叢集,甚至跨資料中心的超級電腦,關鍵都在於如何連接與傳輸。 本次演講深入解析了 Scale-up(內部擴展)、Scale-out(跨伺服器擴展)、Scale-acros

 
 
 

留言


  • Facebook
  • Instagram

©2021 by DRFLYOUT. Proudly created with Wix.com

bottom of page