OCP Global Summit 2025_Supermicro_Building an AI Data Center of the Future Requires a Combination of Standardization and Innovation
- simpletechtrend
- 10月15日
- 讀畢需時 3 分鐘
前言
在 OCP Global Summit 2025 上,Supermicro 分享了他們對未來 AI 資料中心的觀點,強調要兼顧 標準化與創新。隨著 AI 訓練與推論需求快速成長,單一伺服器的效能提升已不足以支撐產業需求,必須透過 集群化、模組化與液冷設計 來實現大規模部署。Supermicro 特別強調,開放社群 OCP 在推動標準與技術落地的角色至關重要 Building an AI Data Center of t…。
內容
從系統到資料中心的擴展
Supermicro 指出,AI 不再只是單機系統的問題,而是需要從 伺服器 → 機櫃 → 集群 → 資料中心 層層堆疊,形成完整的建構積木。這種架構能更快地擴展、更有效率地部署,並依靠 OCP 社群的合作來確保一致性與互通性 Building an AI Data Center of t…。
計算與功耗的挑戰
隨著 GPU 與 CPU 世代演進,單一元件功耗已達到 數百瓦甚至上千瓦。這讓整體 TDP 與散熱需求急遽上升。為此,Supermicro 展示了多種冷卻技術:
空冷與冷卻門(chilled doors)
直連晶片液冷(direct-to-chip liquid cooling)
微流體(microfluidics)與新型冷卻液
這些技術需與冷卻分配單元(CDU)及室外冷卻設備整合,才能支撐 AI 集群的高密度運算 Building an AI Data Center of t…。
標準化的力量
Supermicro 認為,標準化是快速部署的關鍵。他們在 DC-MHS(模組化硬體標準) 上已推出 Intel 與 AMD 的多種伺服器平台,提供客戶更靈活的選擇。並強調 OCP 規範能讓企業從小型資料中心到 Hyperscale 都能快速導入 Building an AI Data Center of t…。
合作生態與產品組合
Supermicro 表示,他們擁有 Tier 1 OEM 中最廣的產品組合,涵蓋 23 種以上的運算與加速平台。這使他們能與 Intel、AMD、NVIDIA 等晶片商合作,為客戶提供從 H100、H200、B200 到 AMD MI325、MI355 的完整 GPU 選項。再加上與 Crusoe Cloud 的合作,Supermicro 展現了如何透過 標準化硬體 + 永續能源 建立高效能 AI 資料中心 Building an AI Data Center of t…。
成本與永續性考量
Supermicro 與 OCP 合作開發了 TCO 工具,幫助客戶在規劃資料中心時考慮溫度、濕度與能源條件,以優化 CAPEX 與 OPEX。透過 商品化(commoditization)、民主化(democratization) 的策略,他們希望讓更多企業能以合理成本建構 AI 基礎設施 Building an AI Data Center of t…。
總結
Supermicro 在這場演講中提出的核心訊息是:AI 資料中心的未來需要在標準化與創新間取得平衡。標準化讓產業能快速擴展、降低成本;創新則確保在冷卻、運算與能源效率上持續突破。透過與 OCP 社群及產業夥伴的合作,Supermicro 希望成為連接 晶片廠商、雲端服務商與企業客戶 的關鍵橋樑。
延伸觀點
技術影響
Supermicro 將伺服器視為「積木」,強調 Rack/Cluster 級別設計,與現今 Hyperscaler 的模組化資料中心趨勢一致。這也意味著 CPO(Co-Packaged Optics)與矽光子互連 的重要性將進一步提升。
供應鏈觀察
Supermicro 的廣泛產品線與 OCP 標準結合,對 NVIDIA、AMD、Intel 形成良好的整合平台。這讓他們在 Tier 2 雲端供應商與企業級市場具備優勢。
與 Crusoe Cloud 的合作,則展現了「硬體 + 綠能」的供應鏈模式,未來可能成為 ESG 投資驅動下的重要賣點。
市場趨勢
標準化的 DC-MHS 與液冷模組,讓更多中小型資料中心能快速部署 AI 集群,市場擴展將不再只侷限於 Hyperscaler。
長期來看,隨著 AI 負載能耗持續上升,液冷、微流體與沉浸式冷卻 會成為市場新標準,並帶動冷卻供應鏈的新一輪投資。



留言