这是indexloc提供的服务,不要输入任何密码
AI Hypercomputer 標誌

AI Hypercomputer

這套超級運算系統支撐著 Google Cloud 上所有的 AI 工作負載,透過充分整合的硬體、開放式軟體和彈性的使用模式,供您自訂當中的元件。

總覽

AI 技術最佳化硬體

您可以根據工作負載層級的目標,選擇最合適的運算、儲存空間和網路選項。無論是提高處理量、縮短延遲時間、更快取得結果,還是降低 TCO,AI Hypercomputer 都能助您輕鬆達成。進一步瞭解 Google Cloud TPUGoogle Cloud GPUGoogle Cloud StorageTitaniumJupiter 網路

開放軟體

AI Hypercomputer 經過最佳化調整,可支援最常見的工具和程式庫,例如 PytorchJAX。此外,客戶還能使用 Cloud TPU Multislice 和 Multihost 設定等技術,以及 Google Kubernetes Engine 等代管服務。因此,客戶能為常見的工作負載提供立即可用的部署作業,例如 SLURM 自動化調度管理的 NVIDIA NeMO 架構

靈活運用

客戶可以透過彈性消費模型選擇固定費用,並提供承諾使用折扣或動態隨選模型,滿足自身業務需求。動態工作負載排程器可協助客戶取得所需容量,避免分配過多資源,因此客戶只需依用量付費。此外,Google Cloud 的成本最佳化工具會自動使用資源,減少工程師須手動處理的工作。

運作方式

Google 發明 TensorFlow 等多項技術,是人工智慧領域的領導品牌。您知道嗎?您可以在自己的專案運用 Google 技術。瞭解 Google 在創新 AI 基礎架構領域的歷程,以及如何將這項技術用於工作負載。

Google Cloud AI 超級電腦架構圖,旁邊是 Google Cloud 產品經理 Chelsie 的相片

常見用途

執行大規模 AI 訓練作業

強大、可擴充且高效的 AI 訓練

AI 超級電腦架構讓您得以選擇根據訓練需求採用最合適的底層基礎架構。

說明 AI 成長因素的三個圖表

強大、可擴充且高效的 AI 訓練

AI 超級電腦架構讓您得以選擇根據訓練需求採用最合適的底層基礎架構。

說明 AI 成長因素的三個圖表

強大、可擴充且高效的 AI 訓練

運用 ML Productivity Goodput,以 Google 技術評估大規模訓練的成效。

訓練速度:TPUv4(bf16) 與 TPUv5(int8)

Character.AI 運用 Google Cloud 擴大規模

「我們需要 GPU 生成對使用者訊息的回應。隨著平台使用者越來越多,我們也需要更多 GPU 來提供服務。透過 Google Cloud,我們可以進行實驗並找出適合特定工作負載的平台。這些解決方案讓我們能夠更靈活地選擇最有價值的解決方案。」Character.AI 創始工程師 Myle Ott

提供 AI 技術輔助應用程式

運用開放架構提供有 AI 技術輔助的體驗

Google Cloud 致力確保開放架構在 AI 超級電腦架構中順利運作。

高階 RAG 架構

運用開放架構提供有 AI 技術輔助的體驗

Google Cloud 致力確保開放架構在 AI 超級電腦架構中順利運作。

高階 RAG 架構

運用開放架構提供有 AI 技術輔助的體驗

藉助 Google Cloud 的開放式軟體生態系統,您可以透過最慣用的架構和工具建構應用程式,同時享有 AI 超級電腦架構的成本效益優勢。

Google Cloud AI 工具與架構

Priceline:協助旅客收集獨特體驗

與 Google Cloud 合作導入生成式 AI 後,我們用聊天機器人就能提供個人化旅遊規劃服務。我們的目標不只是為顧客安排行程,更是協助他們打造獨一無二的旅遊體驗。」Martin Brodbeck,Priceline 技術長

Priceline 標誌

以符合成本效益的方式大規模提供模型

以更具成本效益的方式大規模提供 AI

Google Cloud 提供領先業界的 AI 模型成本效益/效能,以及加速器選項,可滿足任何工作負載需求。

以佇列深度為基礎的負載平衡架構圖

以更具成本效益的方式大規模提供 AI

Google Cloud 提供領先業界的 AI 模型成本效益/效能,以及加速器選項,可滿足任何工作負載需求。

以佇列深度為基礎的負載平衡架構圖

以更具成本效益的方式大規模提供 AI

搭載 NVIDIA L4 GPU 的 Cloud TPU v5e 和 G2 VM 執行個體可為多種 AI 工作負載提供高效能及符合成本效益的推論服務,包括最新的 LLM 和生成式 AI 模型。這兩項產品能大幅提高成本效益,成果遠勝於先前的模型。再加上 Google Cloud 的 AI 超級電腦架構,客戶得以擴大部署規模,成為業界領先的佼佼者。

每一美元的相對效能:Cloud TPU v4 與 v5e

AssemblyAI 運用 Google Cloud 提高成本效益

「我們的實驗結果顯示,Cloud TPU v5e 是最符合成本效益的加速器,可針對模型執行大規模推論。每一美元的效能比 G2 高出 2.7 倍,比 A2 執行個體高出 4.2 倍。」Domenic Donato

AssemblyAI 技術副總裁


AssemblyAI 標誌

Google Cloud 上的開放原始碼模型

在單一 GPU 上使用 GKE 提供模型

使用 GPU 訓練常用模型

將模型擴大提供給多個 GPU

透過 Saxml 在 GKE 上使用多主機 TPU 提供 LLM

使用 NVIDIA NeMo 架構大規模訓練