產業動態

NVIDIA 攜手 Emerald AI 推出彈性 GPU 算力網格,企業可按需租用 H200 叢集

NVIDIA 與 AI 基礎設施新創 Emerald AI 宣布合作,推出「彈性 AI 算力網格」服務,允許企業客戶以小時為單位按需租用 H200 GPU 叢集,無需簽署長期合約,直接對標 AWS 和 Azure 的雲端 AI 算力服務。

NVIDIA 於 2026 年 3 月 23 日宣布與 AI 基礎設施新創公司 Emerald AI 達成深度合作,聯合推出面向企業客戶的「彈性 AI 算力網格」(Flexible AI Compute Grid)服務,正式進軍按需 GPU 算力租賃市場。

服務核心

彈性租賃模式

傳統 GPU 雲端服務通常要求客戶簽署數月至數年的合約,並預付大量算力。彈性 AI 算力網格打破這一限制:

  • 最短租用單位:1 小時
  • 最大叢集規模:單次可申請最多 512 個 H200 GPU 組成的叢集
  • 啟動時間:承諾 15 分鐘內完成叢集部署
  • 計費方式:按實際使用 GPU 小時數計費,無閒置費用

硬件規格

Emerald AI 的數據中心目前部署以下 NVIDIA 硬件:

  • NVIDIA H200 SXM:主力訓練 GPU,搭載 141GB HBM3e 顯存
  • NVIDIA InfiniBand NDR:高速互聯網絡,確保叢集間低延遲通信
  • NVLink 第五代:GPU 間直接互聯,支援大規模模型並行訓練

目標客戶

此服務主要面向三類企業:

  1. AI 新創公司:需要短期大算力完成模型訓練,但無法承擔長期合約
  2. 研究機構:實驗性訓練任務,需求不定期且波動較大
  3. 大型企業:已有基礎算力,需要短期爆發性算力補充

市場競爭格局

此次合作直接挑戰 AWS(p5.48xlarge H100 實例)、Google Cloud(A3 Ultra)及 CoreWeave 等主流雲端 GPU 服務商。NVIDIA 透過與 Emerald AI 合作,而非自建雲服務,保持了與現有雲端合作夥伴的關係,同時藉助彈性定價模式搶占中小型 AI 公司市場。

分析師指出,NVIDIA 的這一舉措顯示其正在從「硬件製造商」向「算力平台生態」演進,未來可能會有更多類似合作出現。

返回首頁