這套超級運算系統支撐著 Google Cloud 上所有的 AI 工作負載,透過充分整合的硬體、開放式軟體和彈性的使用模式,供您自訂當中的元件。
總覽
您可以根據工作負載層級的目標,選擇最合適的運算、儲存空間和網路選項。無論是提高處理量、縮短延遲時間、更快取得結果,還是降低 TCO,AI Hypercomputer 都能助您輕鬆達成。進一步瞭解 Google Cloud TPU、Google Cloud GPU、Google Cloud Storage、Titanium 和 Jupiter 網路。
AI Hypercomputer 經過最佳化調整,可支援最常見的工具和程式庫,例如 Pytorch 和 JAX。此外,客戶還能使用 Cloud TPU Multislice 和 Multihost 設定等技術,以及 Google Kubernetes Engine 等代管服務。因此,客戶能為常見的工作負載提供立即可用的部署作業,例如 SLURM 自動化調度管理的 NVIDIA NeMO 架構。
常見用途
「我們需要 GPU 生成對使用者訊息的回應。隨著平台使用者越來越多,我們也需要更多 GPU 來提供服務。透過 Google Cloud,我們可以進行實驗並找出適合特定工作負載的平台。這些解決方案讓我們能夠更靈活地選擇最有價值的解決方案。」Character.AI 創始工程師 Myle Ott
「我們需要 GPU 生成對使用者訊息的回應。隨著平台使用者越來越多,我們也需要更多 GPU 來提供服務。透過 Google Cloud,我們可以進行實驗並找出適合特定工作負載的平台。這些解決方案讓我們能夠更靈活地選擇最有價值的解決方案。」Character.AI 創始工程師 Myle Ott
與 Google Cloud 合作導入生成式 AI 後,我們用聊天機器人就能提供個人化旅遊規劃服務。我們的目標不只是為顧客安排行程,更是協助他們打造獨一無二的旅遊體驗。」Martin Brodbeck,Priceline 技術長
與 Google Cloud 合作導入生成式 AI 後,我們用聊天機器人就能提供個人化旅遊規劃服務。我們的目標不只是為顧客安排行程,更是協助他們打造獨一無二的旅遊體驗。」Martin Brodbeck,Priceline 技術長
搭載 NVIDIA L4 GPU 的 Cloud TPU v5e 和 G2 VM 執行個體可為多種 AI 工作負載提供高效能及符合成本效益的推論服務,包括最新的 LLM 和生成式 AI 模型。這兩項產品能大幅提高成本效益,成果遠勝於先前的模型。再加上 Google Cloud 的 AI 超級電腦架構,客戶得以擴大部署規模,成為業界領先的佼佼者。
「我們的實驗結果顯示,Cloud TPU v5e 是最符合成本效益的加速器,可針對模型執行大規模推論。每一美元的效能比 G2 高出 2.7 倍,比 A2 執行個體高出 4.2 倍。」Domenic Donato
AssemblyAI 技術副總裁
搭載 NVIDIA L4 GPU 的 Cloud TPU v5e 和 G2 VM 執行個體可為多種 AI 工作負載提供高效能及符合成本效益的推論服務,包括最新的 LLM 和生成式 AI 模型。這兩項產品能大幅提高成本效益,成果遠勝於先前的模型。再加上 Google Cloud 的 AI 超級電腦架構,客戶得以擴大部署規模,成為業界領先的佼佼者。
「我們的實驗結果顯示,Cloud TPU v5e 是最符合成本效益的加速器,可針對模型執行大規模推論。每一美元的效能比 G2 高出 2.7 倍,比 A2 執行個體高出 4.2 倍。」Domenic Donato
AssemblyAI 技術副總裁