アクセラレータ最適化マシン ファミリー


アクセラレータ最適化マシン ファミリーは、 Google Cloud が設計し、人工知能(AI)、機械学習(ML)、ハイ パフォーマンス コンピューティング(HPC)などの GPU 高速化ワークロードに必要なパフォーマンスと効率性を実現しています。

アクセラレータ最適化マシン ファミリーは、A4X、A4、A3、A2、G2 のマシンシリーズで使用できます。シリーズ内の各マシンタイプには、特定のモデルと数の NVIDIA GPU がアタッチされています。N1 汎用マシンタイプに一部の GPU モデルをアタッチすることもできます。

ワークロード タイプ別のマシンシリーズの推奨事項

次のセクションでは、GPU ワークロードに基づいて推奨されるマシンシリーズについて説明します。

ワークロード タイプ 推奨マシンタイプ
事前トレーニング モデル A4X、A4、A3 Ultra、A3 Mega、A3 High、A2

最適なものを特定するには、AI Hypercomputer のドキュメントのモデルの事前トレーニングに関する推奨事項をご覧ください。

モデルのファインチューニング A4X、A4、A3 Ultra、A3 Mega、A3 High、A2

最適なものを特定するには、AI Hypercomputer のドキュメントのモデルのファインチューニングに関する推奨事項をご覧ください。

推論のサービング A4X、A4、A3 Ultra、A3 Mega、A3 High、A3 Edge、A2

最適なものを特定するには、AI Hypercomputer のドキュメントで推論のサービングに関する推奨事項をご覧ください。

グラフィックを多用するワークロード G2、N1+T4
ハイ パフォーマンス コンピューティング ハイ パフォーマンス コンピューティングのワークロードでは、アクセラレータ最適化マシンシリーズが適しています。最適なものは、GPU にオフロードする必要がある計算量によって異なります。

詳細については、AI Hypercomputer のドキュメントで HPC の推奨事項をご覧ください。

料金とプロビジョニング オプション

アクセラレータ最適化マシンタイプは、アタッチされている GPU、事前定義された vCPU、メモリ、バンドルされたローカル SSD(該当する場合)に対して課金されます。アクセラレータ最適化インスタンスに適用できる割引は、次の表に示すように、使用するプロビジョニング オプションによって異なります。アクセラレータ最適化インスタンスの料金の詳細については、VM インスタンスの料金ページのアクセラレータ最適化マシンタイプ ファミリーのセクションをご覧ください。

オンデマンド(デフォルト) Spot VM Flex Start(プレビュー 予約
サポートされているアクセラレータ最適化マシンシリーズ A3 Mega、A3 High、A3 Edge、A2、G2 A4、A3、A2、G2 A4、A3、A2、G2

サポートは予約の種類によって異なります。

割引

リソースベースのコミットメントを購入すると、一部のリソースに対して確約利用割引(CUD)を受けることができます。ただし、オンデマンド プロビジョニング オプションで使用する GPU とローカル SSD ディスクは CUD の対象外です。GPU とローカル SSD ディスクでも CUD を受ける場合は、代わりに予約プロビジョニング オプションを使用することをおすすめします。

Spot VM には、Spot VM の料金に基づいて自動的に割引が適用されます。

Flex Start プロビジョニング モデルを使用してプロビジョニングされた VM には、Dynamic Workload Scheduler の料金に基づいて自動的に割引が適用されます。

アクセラレータ最適化マシンタイプのリソースの CUD を受けるには、リソースベースのコミットメントを購入します。GPU とローカル SSD ディスクのコミットメントには、それらのリソースの予約を関連付ける必要があります。

A4X マシンシリーズ

A4X マシンシリーズは、NVIDIA GB200 NVL72 ラックスケール アーキテクチャに基づくエクサスケール プラットフォームで実行され、最大 140 個の vCPU と 884 GB のメモリを備えています。このマシンシリーズは、コンピューティングとメモリを大量に消費する、ネットワークにバインドされた ML トレーニング、HPC ワークロード用に最適化されています。A4X マシンシリーズは、単一のマシンタイプで使用できます。

A4X マシンタイプを使用して作成された VM インスタンスには、次の機能があります。

  • NVIDIA GB200 Superchip による GPU アクセラレーション: A4X インスタンスには NVIDIA GB200 Superchip が自動的にアタッチされます。これらの Superchip には NVIDIA B200 GPU が搭載されており、GPU あたり 180 GB のメモリを提供します。A4X には、Arm® Neoverse™ V2 コアを搭載した NVIDIA Grace™ CPU を備えた 2 つのソケットがあります。これらの CPU は、高速チップ(NVLink-C2C)間の通信で 4 つの B200 GPU に接続されています。

  • NVIDIA Grace CPU プラットフォーム: A4X インスタンスは NVIDIA Grace CPU プラットフォームを使用します。プラットフォームの詳細については、CPU プラットフォームをご覧ください。

  • 業界トップクラスの NVLink スケーラビリティ: 単一ドメインで最大 72 個の GPU にスケールアップするマルチノード NVLink。NVIDIA B200 GPU は、GPU あたり双方向で 1,800 GBps の GPU NVLink 帯域幅を提供します。システム内の 4 個の GPU 間のオールツーオール NVLink トポロジでは、NVLink 帯域幅の合計は最大 130 TB/秒です。

  • RoCE によるネットワーク機能の強化: A4X インスタンスでは、RDMA over Converged Ethernet(RoCE)により、NVIDIA ConnectX-7(CX-7)ネットワーク インターフェース カード(NIC)と Google のデータセンター全体を網羅する 4 方向のレールに沿ったネットワークを組み合わせ、ネットワーク パフォーマンスを向上させています。A4X インスタンスは、RDMA over Converged Ethernet(RoCE)を活用することで、クラスタ内のインスタンス間のスループットを A4 インスタンスと比べて大幅に向上させています。

    CX-7 NIC は、4 方向のレール整列型ネットワーク トポロジで物理的に分離されているため、A4X インスタンスは 72 個の GPU のグループでスケールアウトし、単一の非ブロッキング クラスタで数千個の GPU までスケールアウトできます。

  • ネットワーク速度の向上: A3 マシンタイプを使用して作成されたインスタンスと比較して、ネットワーキング速度が最大 4 倍向上しています。

  • データ転送と復元の仮想化の最適化: A4X インスタンスの Peripheral Component Interconnect Express(PCIe)トポロジは、ワークロードがデータ転送の最適化に使用できる、より正確な局所情報を提供します。

    GPU は、障害からの正常な復旧のための関数レベルリセット(FLR)と、特定のシナリオにおける同時実行の改善のためのアトミック オペレーションのサポートも公開しています。

  • ローカル SSD と Hyperdisk のサポート: A4X インスタンスには、12,000 GiB のローカル SSD が自動的に追加されます。ローカル SSD は、高速のスクラッチ ディスクとして、または I/O ボトルネックを防止しながらデータを GPU にフィードする場合に使用できます。

    より高いストレージ パフォーマンスを必要とするアプリケーションの場合は、最大 512 TiB の Hyperdisk を A4X インスタンスにアタッチできます。

  • 高密度割り当てとトポロジ対応のスケジューリングのサポート: Cluster Director を介して A4X インスタンスをプロビジョニングする場合は、高密度で割り振られた容量のブロックをリクエストできます。ホストマシンは物理的に互いに近い場所に割り振られ、リソースのブロックとしてプロビジョニングされます。また、動的 ML ネットワーク ファブリックで相互接続されているため、ネットワーク ホップを最小限に抑え、レイテンシを最小限に抑えて最適化できます。また、Cluster Director は、ジョブの配置に使用できるノードレベルとクラスタレベルのトポロジ情報を提供します。

A4X マシンタイプ

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3e)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)
a4x-highgpu-4g 4 720 140 884 12,000 6 2,000

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A4X の制限事項

A4X シリーズでサポートされているディスクタイプ

A4X VM は、次のブロック ストレージ タイプを使用できます。

  • Hyperdisk Balanced(hyperdisk-balanced): ブートディスクでサポートされている唯一のディスクタイプです。
  • Hyperdisk Extreme(hyperdisk-extreme
  • ローカル SSD: A4X マシンタイプを使用して作成された VM に自動的に追加されます。
VM あたりの最大ディスク数*
マシンタイプ すべてのディスク Hyperdisk Balanced Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされたローカル SSD
a4x-highgpu-4g 128 128 なし なし 8 32

*Hyperdisk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Hyperdisk の料金をご覧ください。
この上限は Hyperdisk に適用されますが、ローカル SSD ディスクは含まれません。

ディスクと容量の上限

VM でさまざまな Hyperdisk タイプを組み合わせて使用できますが、すべてのディスクタイプの最大合計ディスク容量(TiB)は次の値を超えることはできません。

  • vCPU が 32 個未満のマシンタイプの場合: すべての Hyperdisk で 257 TiB

  • vCPU が 32 個以上のマシンタイプの場合: すべての Hyperdisk で 512 TiB

容量の上限の詳細については、Hyperdisk のサイズとアタッチメントの上限をご覧ください。

A4 マシンシリーズ

A4 マシンシリーズには、最大 224 個の vCPU と 3,968 GB のメモリを備えたマシンタイプがあります。A4 インスタンスは、ほとんどの GPU アクセラレーテッド ワークロードに対し、以前の GPU インスタンス タイプの最大 3 倍のパフォーマンスを提供します。A4 は、特に大規模な ML トレーニング ワークロード(数百または数千の GPU など)に推奨されます。A4 マシンシリーズは、単一のマシンタイプで使用できます。

A4 マシンタイプを使用して作成された VM インスタンスには、次の機能があります。

  • NVIDIA B200 GPU による GPU アクセラレーション: NVIDIA B200 GPU が A4 インスタンスに自動的にアタッチされ、GPU あたり 180 GB の GPU メモリが提供されます。

  • 第 5 世代 Intel Xeon スケーラブル プロセッサ(Emerald Rapids)を搭載し、シングルコア ターボ時に最大 4.0 GHz の周波数を維持します。このプロセッサの詳細については、CPU プラットフォームをご覧ください。

  • 業界トップクラスの NVLink スケーラビリティ: NVIDIA B200 GPU は、GPU あたり双方向で 1,800 GBps の GPU NVLink 帯域幅を提供します。

    システム内の 8 個の GPU 間のオールツーオール NVLink トポロジでは、NVLink 帯域幅の合計は最大 14.4 TBps です。

  • RoCE によるネットワーク機能の強化: RDMA over Converged Ethernet(RoCE)により、NVIDIA ConnectX-7 ネットワーク インターフェース カード(NIC)と Google のデータセンター全体を網羅する 4 方向のレール整列型ネットワークを組み合わせ、ネットワーク パフォーマンスを向上させています。A4 インスタンスは、RDMA over Converged Ethernet(RoCE)を活用することで、A3 Ultra マシンタイプで実行されているインスタンスを除くほとんどの A3 インスタンスと比べ、クラスタ内のインスタンス間のスループットを大幅に向上させています。

  • ネットワーク速度の向上: 前世代の A2 インスタンスと比較して、ネットワーキング速度が最大 4 倍向上しています。

    ネットワーキングの詳細については、ネットワーク帯域幅と GPU をご覧ください。

  • データ転送と復元の仮想化の最適化: A4 インスタンスの Peripheral Component Interconnect Express(PCIe)トポロジは、ワークロードがデータ転送の最適化に使用できる、より正確な局所情報を提供します。

    GPU は、障害からの正常な復旧のための関数レベルリセット(FLR)と、特定のシナリオにおける同時実行の改善のためのアトミック オペレーションのサポートも公開しています。

  • ローカル SSD と Hyperdisk のサポート: A4 インスタンスには、12,000 GiB のローカル SSD が自動的に追加されます。ローカル SSD は、高速のスクラッチ ディスクとして、または I/O ボトルネックを防止しながらデータを GPU にフィードする場合に使用できます。

    より高いストレージ パフォーマンスを必要とするアプリケーションの場合は、最大 512 TiB の Hyperdisk を A4 インスタンスにアタッチすることもできます。

  • 高密度割り当てとトポロジ対応のスケジューリングのサポート: Cluster Director で利用可能な機能とサービスを使用している A4 インスタンスをプロビジョニングする場合は、高密度で割り振られた容量のブロックをリクエストできます。ホストマシンは物理的に互いに近い場所に割り振られ、リソースのブロックとしてプロビジョニングされます。また、動的 ML ネットワーク ファブリックで相互接続されているため、ネットワーク ホップを最小限に抑え、レイテンシを最小限に抑えて最適化できます。また、ジョブの配置に使用できるノードレベルとクラスタレベルのトポロジ情報を取得できます。

A4 マシンタイプ

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3e)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)
a4-highgpu-8g 8 1,440 224 3,968 12,000 10 3,600

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A4 制限事項

A4 シリーズでサポートされているディスクタイプ

A4 VM は、次のブロック ストレージ タイプを使用できます。

  • Hyperdisk Balanced(hyperdisk-balanced): ブートディスクでサポートされている唯一のディスクタイプです。
  • Hyperdisk Extreme(hyperdisk-extreme
  • ローカル SSD: A4 マシンタイプを使用して作成された VM に自動的に追加されます。
VM あたりの最大ディスク数*
マシンタイプ すべてのディスク Hyperdisk Balanced Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされたローカル SSD
a4-highgpu-8g 128 128 なし なし 8 32

*Hyperdisk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Hyperdisk の料金をご覧ください。
この上限は Hyperdisk に適用されますが、ローカル SSD ディスクは含まれません。

ディスクと容量の上限

マシンタイプでサポートされている場合、VM で Hyperdisk ボリュームと Persistent Disk ボリュームを組み合わせて使用できますが、次の制限が適用されます。

  • Hyperdisk ボリュームと Persistent Disk ボリュームの合計数は、VM あたり 128 以下でなければなりません。
  • すべてのディスクタイプの最大合計ディスク容量(TiB)は、次の値を超えることができません。

    • vCPU が 32 個未満のマシンタイプの場合:

      • すべての Hyperdisk またはすべての Persistent Disk は 257 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 257 TiB
    • vCPU が 32 個以上のマシンタイプの場合:

      • すべての Hyperdisk は 512 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 512 TiB
      • すべての Persistent Disk は 257 TiB

容量の上限の詳細については、Hyperdisk のサイズとアタッチメントの上限Persistent Disk の最大容量をご覧ください。

A3 マシンシリーズ

A3 マシンシリーズは、最大 224 個の vCPU と 2,944 GB のメモリを備えています。このマシンシリーズは、コンピューティングとメモリを大量に消費する、ネットワークにバインドされた ML トレーニング、HPC ワークロード用に最適化されています。A3 マシンシリーズは、A3 Ultra、A3 Mega、A3 High、A3 Edge の各マシンタイプで使用できます。

A3 マシンタイプを使用して作成された VM インスタンスには、次の機能があります。

機能 A3 Ultra A3 Mega、High、Edge
GPU アクセラレーション

NVIDIA H200 SXM GPU が割り当てられています。この GPU は GPU あたり 141 GB の GPU メモリを備えており、大規模な言語モデルと HPC ワークロードをサポートするために、より大きく高速なメモリを提供します。

NVIDIA H100 SXM GPU が割り当てられています。この GPU は 80 GB の GPU メモリを備えており、大規模な Transformer ベースの言語モデル、データベース、HPC に最適です。

Intel Xeon スケーラブル プロセッサ

第 5 世代 Intel Xeon スケーラブル プロセッサ(Emerald Rapids)を搭載し、シングルコア ターボ時に最大 4.0 GHz の周波数を維持します。このプロセッサの詳細については、CPU プラットフォームをご覧ください。

第 4 世代 Intel Xeon スケーラブル プロセッサ(Sapphire Rapids)を搭載し、シングルコア ターボ時に最大 3.3 GHz の周波数を維持します。このプロセッサの詳細については、CPU プラットフォームをご覧ください。

業界トップクラスの NVLink スケーラビリティ

NVIDIA H200 GPU は、一方向でピーク時に 900 GB/秒の GPU NVLink 帯域幅を提供します。

システム内の 8 個の GPU 間のオールツーオール NVLink トポロジでは、NVLink 帯域幅の合計は最大 7.2 TB/秒です。

NVIDIA H100 GPU は、一方向でピーク時に 450 GB/秒の GPU NVLink 帯域幅を提供します。

システム内の 8 個の GPU 間のオールツーオール NVLink トポロジでは、NVLink 帯域幅の合計は最大 7.2 TB/秒です。

拡張ネットワーキング このマシンタイプでは、RDMA over Converged Ethernet(RoCE)により、NVIDIA ConnectX-7 ネットワーク インターフェース カード(NIC)と Google のデータセンター全体を網羅する 4 方向のレール整列型ネットワークを組み合わせ、ネットワーク パフォーマンスを向上させています。a3-ultragpu-8g マシンタイプは、RDMA over Converged Ethernet(RoCE)を活用することで、他の A3 マシンタイプよりもクラスタ内のインスタンス間のスループットを大幅に向上させています。
  • A3 Mega マシンタイプでは、GPUDirect-TCPXO によって TCP プロトコルがオフロードされるため、GPUDirect-TCPX を上回るパフォーマンスの向上が得られます。GPUDirect-TCPXO を活用する a3-megagpu-8g マシンタイプでは、A3 High マシンタイプと A3 Edge マシンタイプと比較して 2 倍のネットワーク帯域幅を使用できます。
  • A3 Edge マシンタイプと A3 High マシンタイプの場合、GPUDirect-TCPX は、データパケットのペイロードを GPU メモリからネットワーク インターフェースに直接転送できるため、ネットワーク パフォーマンスが向上します。GPUDirect-TCPX の活用によって、これらのマシンタイプではクラスタ内のインスタンス間のスループットが A2 または G2 アクセラレータ最適化マシンタイプと比較してはるかに高くなります。
ネットワーク速度の向上

前世代の A2 マシンシリーズと比較して、ネットワーキング速度が最大 4 倍になります。

ネットワーキングの詳細については、ネットワーク帯域幅と GPU をご覧ください。

前世代の A2 マシンシリーズと比較して、ネットワーキング速度が最大 2.5 倍向上しています。

ネットワーキングの詳細については、ネットワーク帯域幅と GPU をご覧ください。

仮想化の最適化

A3 インスタンスの Peripheral Component Interconnect Express(PCIe)トポロジは、ワークロードがデータ転送の最適化に使用できる、より正確な局所情報を提供します。

GPU は、障害からの正常な復旧のための関数レベルリセット(FLR)と、特定のシナリオにおける同時実行の改善のためのアトミック オペレーションのサポートも公開しています。

ローカル SSD、Persistent Disk、Hyperdisk のサポート

ローカル SSD は、高速のスクラッチ ディスクとして、または I/O ボトルネックを防止しながらデータを GPU にフィードする場合に使用できます。ローカル SSD は次のようにアタッチされます。

  • A3 Ultra インスタンスには、12,000 GiB のローカル SSD が自動的に追加されます。
  • A3 Mega、High、Edge インスタンスには、6,000 GiB のローカル SSD が自動的に追加されます。

より高いストレージ パフォーマンスを必要とするアプリケーションの場合は、これらのシリーズのマシンタイプに最大 512 TiB の Persistent Disk と Hyperdisk をアタッチできます。一部のマシンタイプでは、最大 257 TiB の Persistent Disk もサポートされています。

コンパクト プレースメント ポリシーのサポート

データセンター内のインスタンスの物理的な配置をより細かく制御できます。

これにより、単一のアベイラビリティ ゾーン内でインスタンスを配置する際、より低いレイテンシと広帯域幅を実現できます。

詳細については、コンパクト プレースメント ポリシーについてをご覧ください。

A3 Ultra マシンタイプ

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3e)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)
a3-ultragpu-8g 8 1128 224 2,952 12,000 10 3,600

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A3 Ultra の制限事項

  • 容量をリクエストできるのは、A3 Ultra マシンタイプのサポートされているプロビジョニング オプションを使用する場合のみです。
  • A3 Ultra マシンタイプを使用する VM は、継続利用割引フレキシブル確約利用割引の対象外となります。
  • A3 Ultra マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A3 Ultra マシンタイプを使用する VM では、Persistent Disk(リージョンまたはゾーン)を使用できません。
  • A3 Ultra マシンタイプは、Emerald Rapids CPU プラットフォームでのみ使用できます。
  • 既存の VM のマシンタイプを A3 Ultra マシンタイプに変更することはできません。新しい A3-ultra VM の作成は可能です。A3 Ultra マシンタイプを使用して VM を作成した後、マシンタイプを変更することはできません。
  • A3 Ultra マシンタイプは、単一テナンシーをサポートしません。
  • A3 Ultra マシンタイプでは Windows オペレーティング システムを実行できません。

A3 Mega マシンタイプ

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)
a3-megagpu-8g 8 640 208 1,872 6,000 9 1,800

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A3 Mega の制限事項

A3 High マシンタイプ

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)
a3-highgpu-1g 1 80 26 234 750 1 25
a3-highgpu-2g 2 160 52 468 1,500 1 50
a3-highgpu-4g 4 320 104 936 3,000 1 100
a3-highgpu-8g 8 640 208 1,872 6,000 5 1,000

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A3 High の制限事項

  • 容量をリクエストできるのは、A3 High マシンタイプのサポートされているプロビジョニング オプションを使用する場合のみです。
  • A3 High マシンタイプを使用する VM は、継続利用割引フレキシブル確約利用割引の対象外となります。
  • A3 High マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A3 High マシンタイプを使用する VM では、リージョン Persistent Disk を使用できません。
  • A3 High マシンタイプは、Sapphire Rapids CPU プラットフォームでのみ使用できます。
  • 既存の VM のマシンタイプを A3 High マシンタイプに変更することはできません。新しい A3-high VM の作成は可能です。A3 High マシンタイプを使用して VM を作成した後、マシンタイプを変更することはできません。
  • A3 High マシンタイプは、単一テナンシーをサポートしません。
  • A3 High マシンタイプでは Windows オペレーティング システムを実行できません。
  • a3-highgpu-1ga3-highgpu-2ga3-highgpu-4g マシンタイプには、次の制限が適用されます。
    • これらのマシンタイプでは、Spot VM を使用するか、Dynamic Workload Scheduler(DWS)を利用する機能(MIG でのサイズ変更リクエストなど)を使用して VM を作成する必要があります。これらのオプションの詳しい使用方法については以下をご覧ください。
    • これらのマシンタイプでは Hyperdisk Balanced を使用できません。
    • 予約を作成できません。
    標準プロビジョニングを使用して VM を作成しようとした場合、またはこれらのマシンタイプの予約を作成しようとした場合、エラー メッセージが返されます。

A3 Edge マシンタイプ

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps)
a3-edgegpu-8g 8 640 208 1,872 6,000 5

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A3 Edge の制限事項

A3 シリーズでサポートされているディスクタイプ

A3 Ultra

A3 Ultra VM は、次のブロック ストレージ タイプを使用できます。

  • Hyperdisk Balanced(hyperdisk-balanced): ブートディスクでサポートされている唯一のディスクタイプです。
  • Hyperdisk Balanced High Availability(hyperdisk-balanced-high-availability
  • Hyperdisk Extreme(hyperdisk-extreme
  • ローカル SSD: A3 マシンタイプを使用して作成された VM に自動的に追加されます。
VM あたりの最大ディスク数*
マシン
タイプ
すべてのディスク Hyperdisk Balanced Hyperdisk Balanced の高可用性 Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされた
ローカル SSD
ディスク
a3-ultragpu-8g 128 128 128 なし なし 8 32

*Hyperdisk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Hyperdisk の料金をご覧ください。
この上限は Hyperdisk に適用されますが、ローカル SSD ディスクは含まれません。

A3 Mega

A3 Mega VM は、次のブロック ストレージ タイプを使用できます。

  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • Hyperdisk Balanced(hyperdisk-balanced
  • Hyperdisk Balanced High Availability(hyperdisk-balanced-high-availability
  • Hyperdisk ML(hyperdisk-ml
  • Hyperdisk Extreme(hyperdisk-extreme
  • Hyperdisk Throughput(hyperdisk-throughput
  • ローカル SSD: A3 マシンタイプを使用して作成された VM に自動的に追加されます。
VM あたりの最大ディスク数*
マシン
タイプ
すべてのディスク Hyperdisk Balanced Hyperdisk Balanced の高可用性 Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされた
ローカル SSD
ディスク
a3-megagpu-8g 128 32 32 64 64 8 16

*Hyperdisk と Persistent Disk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Persistent Disk と Hyperdisk の料金をご覧ください。
この上限は Persistent Disk と Hyperdisk に適用されますが、ローカル SSD ディスクは含まれません。

A3 High

A3 High VM は、次のブロック ストレージ タイプを使用できます。

  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • Hyperdisk Balanced(hyperdisk-balanced): a3-highgpu-8g でのみサポート
  • Hyperdisk Balanced High Availability(hyperdisk-balanced-high-availability
  • Hyperdisk ML(hyperdisk-ml
  • Hyperdisk Extreme(hyperdisk-extreme
  • Hyperdisk Throughput(hyperdisk-throughput
  • ローカル SSD: A3 マシンタイプを使用して作成された VM に自動的に追加されます。
VM あたりの最大ディスク数*
マシン
タイプ
すべてのディスク Hyperdisk Balanced Hyperdisk Balanced の高可用性 Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされた
ローカル SSD
ディスク
a3-highgpu-1g 128 なし 32 64 64 なし 2
a3-highgpu-2g 128 なし 32 64 64 なし 4
a3-highgpu-4g 128 なし 32 64 64 8 8
a3-highgpu-8g 128 32 32 64 64 8 16

*Hyperdisk と Persistent Disk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Persistent Disk と Hyperdisk の料金をご覧ください。
この上限は Persistent Disk と Hyperdisk に適用されますが、ローカル SSD ディスクは含まれません。

A3 Edge

A3 Edge VM は、次のブロック ストレージ タイプを使用できます。

  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • Hyperdisk Balanced(hyperdisk-balanced
  • Hyperdisk Balanced High Availability(hyperdisk-balanced-high-availability
  • Hyperdisk ML(hyperdisk-ml
  • Hyperdisk Extreme(hyperdisk-extreme
  • Hyperdisk Throughput(hyperdisk-throughput
  • ローカル SSD: A3 マシンタイプを使用して作成された VM に自動的に追加されます。
VM あたりの最大ディスク数*
マシンタイプ すべてのディスク Hyperdisk Balanced Hyperdisk Balanced の高可用性 Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされたローカル SSD
a3-edgegpu-8g 128 32 32 64 64 8 16

*Hyperdisk と Persistent Disk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Persistent Disk と Hyperdisk の料金をご覧ください。
この上限は Persistent Disk と Hyperdisk に適用されますが、ローカル SSD ディスクは含まれません。

ディスクと容量の上限

マシンタイプでサポートされている場合、VM で Hyperdisk ボリュームと Persistent Disk ボリュームを組み合わせて使用できますが、次の制限が適用されます。

  • Hyperdisk ボリュームと Persistent Disk ボリュームの合計数は、VM あたり 128 以下でなければなりません。
  • すべてのディスクタイプの最大合計ディスク容量(TiB)は、次の値を超えることができません。

    • vCPU が 32 個未満のマシンタイプの場合:

      • すべての Hyperdisk またはすべての Persistent Disk は 257 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 257 TiB
    • vCPU が 32 個以上のマシンタイプの場合:

      • すべての Hyperdisk は 512 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 512 TiB
      • すべての Persistent Disk は 257 TiB

容量の上限の詳細については、Hyperdisk のサイズとアタッチメントの上限Persistent Disk の最大容量をご覧ください。

A2 マシンシリーズ

A2 マシンシリーズは、A2 標準マシンタイプと A2 Ultra マシンタイプで用意されています。これらのマシンタイプは、12~96 個の vCPU と最大 1,360 GB のメモリを備えています。

A2 マシンタイプを使用して作成された VM インスタンスには、次の機能があります。

  • GPU アクセラレーション: 各 A2 インスタンスには NVIDIA A100 GPU があります。これらは、A100 40 GB と A100 80 GB の両方のオプションで利用できます。

  • 業界トップクラスの NVLink スケーリング。GPU 間で 600 GBps のピーク NVLink 帯域幅を実現します。たとえば、16 個の GPU を使用するシステムの場合、NVLink の帯域幅は合計で最大 9.6 TBps となります。これらの 16 個の GPU は、統合されたメモリ領域を備えた 1 つのハイ パフォーマンスなアクセラレータとして使用できます。これにより、最大 10 PFLOPS のコンピューティング能力と、最大 20 PFLOPS の推論コンピューティング能力を実現し、AI、ディープ ラーニング、ML のワークロードを対象として使用できます。

  • コンピューティング速度の改善: アタッチされた NVIDIA A100 GPU は、前世代の NVIDIA V100 GPU と比較して、コンピューティング速度が最大 10 倍向上しています。

    A2 マシンシリーズでは、最大 100 Gbps のネットワーク帯域幅を使用できます。

  • ローカル SSD、Persistent Disk、Hyperdisk のサポート: 高速のスクラッチ ディスクの場合や、I/O ボトルネックを防止しながら GPU にデータをフィードする場合、A2 マシンタイプは次のようにローカル SSD をサポートします。

    • A2 標準マシンタイプの場合、インスタンスの作成時に最大 3,000 GiB のローカル SSD を追加できます。
    • A2 Ultra マシンタイプの場合、インスタンスの作成時にローカル SSD が自動的にアタッチされます。

    より高いストレージ パフォーマンスを必要とするアプリケーションの場合は、最大 257 TiB の Persistent Disk と 512 TiB の Hyperdisk ボリュームを A2 インスタンスにアタッチすることもできます。

  • コンパクト プレースメント ポリシーのサポート: データセンター内のインスタンスの物理的な配置をより細かく制御できます。これにより、単一のアベイラビリティ ゾーン内でインスタンスを配置する際、より低いレイテンシと広帯域幅を実現できます。詳しくは、コンパクト プレースメント ポリシーを使用してレイテンシを短縮するをご覧ください。

A2 マシンシリーズでは、次のマシンタイプを使用できます。

A2 Ultra マシンタイプ

これらのマシンタイプには、一定の数の A100 80 GB GPU が使用されます。A2 Ultra マシンタイプを使用して作成されたインスタンスには、ローカル SSD が自動的にアタッチされます。

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 最大ネットワーク帯域幅(Gbps)
a2-ultragpu-1g 1 80 12 170 375 24
a2-ultragpu-2g 2 160 24 340 750 32
a2-ultragpu-4g 4 320 48 680 1,500 50
a2-ultragpu-8g 8 640 96 1,360 3,000 100

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、より大きな帯域幅を必要とする、グラフィック多用ワークロードからの需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A2 Ultra の制限事項

  • 容量をリクエストできるのは、A2 Ultra マシンタイプのサポートされているプロビジョニング オプションを使用する場合のみです。
  • A2 Ultra マシンタイプを使用する VM は、継続利用割引フレキシブル確約利用割引の対象外となります。
  • A2 Ultra マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A2 Ultra マシンタイプは、Cascade Lake プラットフォームでのみ使用できます。
  • VM が A2 Ultra マシンタイプを使用している場合、マシンタイプを変更することはできません。別の A2 Ultra マシンタイプやその他のマシンタイプを使用するには、新しい VM を作成する必要があります。
  • 他のマシンタイプを A2 Ultra マシンタイプに変更することはできません。A2 Ultra マシンタイプを使用する VM が必要な場合は、新しい VM を作成する必要があります。
  • A2 Ultra マシンタイプを使用する Windows VM では、アタッチされたローカル SSD のクイック フォーマットを行うことができません。これらのローカル SSD をフォーマットするには、diskpart ユーティリティを使用し、format fs=ntfs label=tmpfs を指定して完全フォーマットを行う必要があります。

A2 標準マシンタイプ

これらのマシンタイプには、一定の数の A100 40 GB GPU が使用されます。

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 最大ネットワーク帯域幅(Gbps)
a2-highgpu-1g 1 40 12 85 はい 24
a2-highgpu-2g 2 80 24 170 はい 32
a2-highgpu-4g 4 160 48 340 はい 50
a2-highgpu-8g 8 320 96 680 はい 100
a2-megagpu-16g 16 640 96 1,360 はい 100

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これはインスタンスのメモリとは別のものであり、より大きな帯域幅を必要とする、グラフィック多用ワークロードからの需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A2 標準の制限事項

  • 容量をリクエストできるのは、A2 標準マシンタイプのサポートされているプロビジョニング オプションを使用する場合のみです。
  • A2 標準マシンタイプを使用する VM は、継続利用割引フレキシブル確約利用割引の対象外となります。
  • A2 標準マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A2 標準マシンタイプは、Cascade Lake プラットフォームでのみ使用できます。
  • VM が A2 標準マシンタイプを使用している場合は、ある A2 標準マシンタイプから別の A2 標準マシンタイプにのみ切り替えることができます。他のマシンタイプには変更できません。詳細については、アクセラレータ最適化 VM を変更するをご覧ください。
  • <codea2-megagpu-16g< code="" dir="ltr" translate="no">A2 標準マシンタイプでは Windows オペレーティング システムを使用できません。Windows オペレーティング システムを使用する場合は、別の A2 標準マシンタイプを選択する必要があります。</codea2-megagpu-16g<>
  • A2 標準マシンタイプを使用する Windows VM では、アタッチされたローカル SSD のクイック フォーマットを行うことができません。これらのローカル SSD をフォーマットするには、diskpart ユーティリティを使用し、format fs=ntfs label=tmpfs を指定して完全フォーマットを行う必要があります。
  • A2 標準マシンタイプは、単一テナンシーをサポートしません。

A2 シリーズでサポートされているディスクタイプ

A2 インスタンスでは、次のブロック ストレージ タイプを使用できます。

  • Hyperdisk ML(hyperdisk-ml
  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • 標準 Persistent Disk(pd-standard
  • ローカル SSD: A2 Ultra マシンタイプを使用して作成されたインスタンスには自動的にアタッチされます。

マシンタイプでサポートされている場合、VM で Hyperdisk ボリュームと Persistent Disk ボリュームを組み合わせて使用できますが、次の制限が適用されます。

  • Hyperdisk ボリュームと Persistent Disk ボリュームの合計数は、VM あたり 128 以下でなければなりません。
  • すべてのディスクタイプの最大合計ディスク容量(TiB)は、次の値を超えることができません。

    • vCPU が 32 個未満のマシンタイプの場合:

      • すべての Hyperdisk またはすべての Persistent Disk は 257 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 257 TiB
    • vCPU が 32 個以上のマシンタイプの場合:

      • すべての Hyperdisk は 512 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 512 TiB
      • すべての Persistent Disk は 257 TiB

容量の上限の詳細については、Hyperdisk のサイズとアタッチメントの上限Persistent Disk の最大容量をご覧ください。

G2 マシンシリーズ

G2 マシンシリーズは、4~96 個の vCPU と最大 432 GB のメモリを備えた標準マシンタイプで使用できます。このマシンシリーズは、推論ワークロードとグラフィック ワークロード用に最適化されています。G2 マシンシリーズは、複数の構成を持つ単一の標準マシンタイプで使用できます。

G2 マシンタイプを使用して作成された VM インスタンスには、次の機能があります。

  • GPU アクセラレーション: 各 G2 マシンタイプには NVIDIA L4 GPU があります。

  • 推論速度の改善: G2 マシンタイプは、ML 推論速度を速め、メモリ要件を減らす FP8(8 ビット浮動小数点)データ型をサポートしています。

  • 次世代のグラフィックス パフォーマンス: NVIDIA L4 GPU は、第 3 世代 RT コアNVIDIA DLSS 3(ディープ ラーニング スーパー サンプリング)テクノロジー使用して、グラフィックス パフォーマンスを最大 3 倍向上させています。

  • 高パフォーマンスのネットワーク帯域幅: G2 マシンタイプでは、最大 100 Gbps のネットワーク帯域幅を使用できます。

  • ローカル SSD、Persistent Disk、Hyperdisk のサポート: G2 インスタンスには最大 3,000 GiB のローカル SSD を追加できます。高速のスクラッチ ディスクとして、または I/O ボトルネックを防ぎながらデータを GPU にフィードするために使用できます。

    より多くの永続ストレージを必要とするアプリケーションの場合は、Hyperdisk ボリュームと Persistent Disk ボリュームを G2 インスタンスにアタッチすることもできます。最大ストレージ容量は、VM の vCPU の数によって異なります。詳細については、サポートされているディスクタイプをご覧ください。

  • コンパクト プレースメント ポリシーのサポート: データセンター内のインスタンスの物理的な配置をより細かく制御できます。これにより、単一のアベイラビリティ ゾーン内でインスタンスを配置する際、より低いレイテンシと広帯域幅を実現できます。詳しくは、コンパクト プレースメント ポリシーを使用してレイテンシを短縮するをご覧ください。

G2 マシンタイプ

各 G2 マシンタイプには、固定数の NVIDIA L4 GPU と vCPU がアタッチされます。各 G2 マシンタイプにはデフォルトのメモリとカスタムメモリ範囲もあります。カスタムメモリ範囲はマシンタイプごとに VM に割り当てることができるメモリの量を定義します。カスタムメモリは VM の作成時に指定できます。

マシンタイプ GPU 数 GPU メモリ*(GB GDDR6) vCPU 数 デフォルトの VM メモリ(GB) カスタム VM メモリ範囲(GB) サポート対象の最大ローカル SSD(GiB) 最大ネットワーク帯域幅(Gbps)
g2-standard-4 1 24 4 16 16~32 375 10
g2-standard-8 1 24 8 32 32~54 375 16
g2-standard-12 1 24 12 48 48~54 375 16
g2-standard-16 1 24 16 64 54~64 375 32
g2-standard-24 2 48 24 96 96~108 750 32
g2-standard-32 1 24 32 128 96~128 375 32
g2-standard-48 4 96 48 192 192~216 1,500 50
g2-standard-96 8 192 96 384 384~432 3,000 100

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

G2 の制限事項

  • 容量をリクエストできるのは、G2 マシンタイプのサポートされているプロビジョニング オプションを使用する場合のみです。
  • G2 マシンタイプを使用する VM は、継続利用割引フレキシブル確約利用割引の対象外となります。
  • G2 マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • G2 マシンタイプは、Cascade Lake プラットフォームでのみ使用できます。
  • 標準永続ディスク(pd-standard)は、G2 標準マシンタイプを使用する VM ではサポートされません。サポートされているディスクタイプについては、G2 でサポートされているディスクタイプをご覧ください。
  • G2 マシンタイプでマルチインスタンス GPU を作成することはできません。
  • G2 VM のマシンタイプを変更する必要がある場合は、アクセラレータ最適化 VM を変更するをご覧ください。
  • G2 マシンタイプを使用する VM のブートディスクに Deep Learning VM Image を使用することはできません。
  • Container-Optimized OS の現在のデフォルト ドライバは、G2 マシンタイプで実行される L4 GPU をサポートしていません。Container-Optimized OS は、特定のドライバセットのみをサポートしています。G2 マシンタイプで Container-Optimized OS を使用する場合は、次の点に注意してください。
    • 推奨される最小の NVIDIA ドライバ バージョン 525.60.13 以降をサポートする Container-Optimized OS のバージョンを使用します。詳細については、Container-Optimized OS のリリースノートをご覧ください。
    • ドライバをインストールするときに、L4 GPU で動作する最新のバージョンを指定します。例: sudo cos-extensions install gpu -- -version=525.60.13
  • 次のシナリオでは、Google Cloud CLI または REST を使用して G2 VM を作成する必要があります。
    • カスタムメモリ値を指定する必要があります。
    • 表示可能な CPU コアの数をカスタマイズする必要があります。

G2 シリーズでサポートされているディスクタイプ

G2 インスタンスでは、次のブロック ストレージ タイプを使用できます。

  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • Hyperdisk ML(hyperdisk-ml
  • Hyperdisk Throughput(hyperdisk-throughput
  • ローカル SSD

マシンタイプでサポートされている場合、VM で Hyperdisk ボリュームと Persistent Disk ボリュームを組み合わせて使用できますが、次の制限が適用されます。

  • Hyperdisk ボリュームと Persistent Disk ボリュームの合計数は、VM あたり 128 以下でなければなりません。
  • すべてのディスクタイプの最大合計ディスク容量(TiB)は、次の値を超えることができません。

    • vCPU が 32 個未満のマシンタイプの場合:

      • すべての Hyperdisk またはすべての Persistent Disk は 257 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 257 TiB
    • vCPU が 32 個以上のマシンタイプの場合:

      • すべての Hyperdisk は 512 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 512 TiB
      • すべての Persistent Disk は 257 TiB

容量の上限の詳細については、Hyperdisk のサイズとアタッチメントの上限Persistent Disk の最大容量をご覧ください。

次のステップ