NVIDIA 於 2026 年 3 月 23 日宣布與 AI 基礎設施新創公司 Emerald AI 達成深度合作,聯合推出面向企業客戶的「彈性 AI 算力網格」(Flexible AI Compute Grid)服務,正式進軍按需 GPU 算力租賃市場。
服務核心
彈性租賃模式
傳統 GPU 雲端服務通常要求客戶簽署數月至數年的合約,並預付大量算力。彈性 AI 算力網格打破這一限制:
- 最短租用單位:1 小時
- 最大叢集規模:單次可申請最多 512 個 H200 GPU 組成的叢集
- 啟動時間:承諾 15 分鐘內完成叢集部署
- 計費方式:按實際使用 GPU 小時數計費,無閒置費用
硬件規格
Emerald AI 的數據中心目前部署以下 NVIDIA 硬件:
- NVIDIA H200 SXM:主力訓練 GPU,搭載 141GB HBM3e 顯存
- NVIDIA InfiniBand NDR:高速互聯網絡,確保叢集間低延遲通信
- NVLink 第五代:GPU 間直接互聯,支援大規模模型並行訓練
目標客戶
此服務主要面向三類企業:
- AI 新創公司:需要短期大算力完成模型訓練,但無法承擔長期合約
- 研究機構:實驗性訓練任務,需求不定期且波動較大
- 大型企業:已有基礎算力,需要短期爆發性算力補充
市場競爭格局
此次合作直接挑戰 AWS(p5.48xlarge H100 實例)、Google Cloud(A3 Ultra)及 CoreWeave 等主流雲端 GPU 服務商。NVIDIA 透過與 Emerald AI 合作,而非自建雲服務,保持了與現有雲端合作夥伴的關係,同時藉助彈性定價模式搶占中小型 AI 公司市場。
分析師指出,NVIDIA 的這一舉措顯示其正在從「硬件製造商」向「算力平台生態」演進,未來可能會有更多類似合作出現。