Tipi di macchina GPU


Questo documento descrive i modelli di GPU NVIDIA disponibili su Compute Engine, che puoi utilizzare per accelerare il machine learning (ML), l'elaborazione dei dati e i carichi di lavoro a uso intensivo di grafica sulle tue istanze di macchine virtuali (VM). Questo documento descrive anche quali GPU sono precollegate alle serie di macchine ottimizzate per l'acceleratore, come A4X, A4, A3, A2 e G2, e quali GPU puoi collegare alle istanze N1 per uso generico.

Utilizza questo documento per confrontare le prestazioni, la memoria e le funzionalità di diversi modelli di GPU. Per una panoramica più dettagliata della famiglia di macchine ottimizzate per l'acceleratore, incluse informazioni su piattaforme CPU, opzioni di archiviazione e funzionalità di networking, e per trovare il tipo di macchina specifico adatto al tuo workload, consulta la pagina Famiglia di macchine ottimizzate per l'acceleratore.

Per ulteriori informazioni sulle GPU su Compute Engine, consulta Informazioni sulle GPU.

Per visualizzare le regioni e le zone disponibili per le GPU su Compute Engine, consulta la sezione Disponibilità di regioni e zone GPU.

Modelli di GPU disponibili

I seguenti modelli di GPU sono disponibili con il tipo di macchina specificato per supportare i tuoi carichi di lavoro di AI, ML e HPC. Se hai workload ad alta intensità di grafica, come la visualizzazione 3D, puoi anche creare workstation virtuali che utilizzano le workstation virtuali (vWS) NVIDIA RTX. La workstation virtuale NVIDIA RTX è disponibile per alcuni modelli di GPU. Quando crei un'istanza che utilizza la workstation virtuale NVIDIA RTX, Compute Engine aggiunge automaticamente una licenza vWS. Per informazioni sui prezzi delle workstation virtuali, consulta la pagina dei prezzi delle GPU.

Per i tipi di macchine ottimizzati per l'acceleratore delle serie A e G, il modello di GPU specificato viene collegato automaticamente all'istanza. Per i tipi di macchine per uso generico N1, puoi collegare i modelli di GPU specificati.

Tipo di macchina Modello di GPU Modello di workstation virtuale (vWS) NVIDIA RTX
A4X Superchip NVIDIA GB200 Grace Blackwell (nvidia-gb200).

Ogni superchip contiene quattro GPU NVIDIA B200 Blackwell.

A4 GPU NVIDIA B200 Blackwell (nvidia-b200)
A3 Ultra GPU NVIDIA H200 SXM (nvidia-h200-141gb)
A3 Mega
GPU NVIDIA H100 SXM (nvidia-h100-mega-80gb)
A3 High e
A3 Edge
GPU NVIDIA H100 SXM (nvidia-h100-80gb)
A2 Ultra GPU NVIDIA A100 da 80 GB (nvidia-a100-80gb)
A2 Standard GPU NVIDIA A100 da 40 GB (nvidia-a100-40gb)
G2 NVIDIA L4 (nvidia-l4) Workstation virtuali (vWS) NVIDIA L4 (nvidia-l4-vws)
N1 GPU NVIDIA T4 (nvidia-tesla-t4) Workstation virtuali (vWS) NVIDIA T4 (nvidia-tesla-t4-vws)
GPU NVIDIA P4 (nvidia-tesla-p4) Workstation virtuali (vWS) NVIDIA P4 (nvidia-tesla-p4-vws)
GPU NVIDIA V100 (nvidia-tesla-v100)
GPU NVIDIA P100 (nvidia-tesla-p100) Workstation virtuali (vWS) NVIDIA P100 (nvidia-tesla-p100-vws)

Puoi anche utilizzare alcuni tipi di macchine GPU su AI Hypercomputer. AI Hypercomputer è un sistema di supercomputing ottimizzato per supportare i workload di intelligenza artificiale (AI) e machine learning (ML). Questa opzione è consigliata per creare un'infrastruttura densamente allocata e ottimizzata per le prestazioni che dispone di integrazioni per Google Kubernetes Engine (GKE) e gli scheduler Slurm.

Serie di macchine A4X

I tipi di macchine A4X ottimizzate per l'acceleratore utilizzano i superchip NVIDIA GB200 Grace Blackwell (nvidia-gb200) e sono ideali per l'addestramento e la pubblicazione di modelli di base.

A4X è una piattaforma exascale basata su NVIDIA GB200 NVL72. Ogni macchina ha due socket con CPU NVIDIA Grace con core Arm Neoverse V2. Queste CPU sono collegate a quattro GPU NVIDIA B200 Blackwell con comunicazione chip-to-chip (NVLink-C2C) veloce.

Superchip NVIDIA GB200 Grace Blackwell collegati
Tipo di macchina Numero di vCPU* Memoria istanza (GB) SSD locale collegato (GiB) Numero di NIC fisiche Larghezza di banda massima della rete (Gbps) Conteggio GPU Memoria GPU
(GB HBM3e)
a4x-highgpu-4g 140 884 12.000 6 2000 4 720

* Una vCPU viene implementata come un singolo hyperthread hardware su una delle piattaforme CPU disponibili.
La larghezza di banda in uscita massima non può superare il numero specificato. La larghezza di banda in uscita effettiva dipende dall'indirizzo IP di destinazione e da altri fattori. Per ulteriori informazioni sulla larghezza di banda di rete, consulta la sezione Larghezza di banda di rete.
La memoria GPU è la memoria di un dispositivo GPU che può essere utilizzata per l'archiviazione temporanea dei dati. È separata dalla memoria dell'istanza ed è progettata specificamente per gestire le richieste di larghezza di banda più elevate dei workload ad alta intensità grafica.

Serie di macchine A4

I tipi di macchine A4 ottimizzate per l'acceleratore sono dotati di GPU NVIDIA B200 Blackwell (nvidia-b200) collegate e sono ideali per l'addestramento e la pubblicazione di modelli di base.

GPU NVIDIA Blackwell collegate
Tipo di macchina Numero di vCPU* Memoria istanza (GB) SSD locale collegato (GiB) Numero di NIC fisiche Larghezza di banda massima della rete (Gbps) Conteggio GPU Memoria GPU
(GB HBM3e)
a4-highgpu-8g 224 3968 12.000 10 3600 8 1440

* Una vCPU viene implementata come un singolo hyperthread hardware su una delle piattaforme CPU disponibili.
La larghezza di banda in uscita massima non può superare il numero specificato. La larghezza di banda in uscita effettiva dipende dall'indirizzo IP di destinazione e da altri fattori. Per ulteriori informazioni sulla larghezza di banda di rete, consulta Larghezza di banda di rete.
La memoria GPU è la memoria di un dispositivo GPU che può essere utilizzata per l'archiviazione temporanea dei dati. È separata dalla memoria dell'istanza ed è progettata specificamente per gestire le richieste di larghezza di banda più elevate dei workload ad alta intensità grafica.

Serie di macchine A3

I tipi di macchine A3 ottimizzate per l'acceleratore sono collegati a GPU NVIDIA H100 SXM o NVIDIA H200 SXM.

Tipo di macchina A3 Ultra

I tipi di macchine A3 Ultra sono collegate a GPU NVIDIA H200 SXM (nvidia-h200-141gb) e offrono le prestazioni di rete più elevate della serie A3. I tipi di macchine A3 Ultra sono ideali per l'addestramento e la distribuzione dei modelli di base.

GPU NVIDIA H200 collegate
Tipo di macchina Numero di vCPU* Memoria istanza (GB) SSD locale collegato (GiB) Numero di NIC fisiche Larghezza di banda massima della rete (Gbps) Conteggio GPU Memoria GPU
(GB HBM3e)
a3-ultragpu-8g 224 2952 12.000 10 3600 8 1128

* Una vCPU viene implementata come un singolo hyperthread hardware su una delle piattaforme CPU disponibili.
La larghezza di banda in uscita massima non può superare il numero specificato. La larghezza di banda in uscita effettiva dipende dall'indirizzo IP di destinazione e da altri fattori. Per ulteriori informazioni sulla larghezza di banda di rete, consulta la sezione Larghezza di banda di rete.
La memoria GPU è la memoria di un dispositivo GPU che può essere utilizzata per l'archiviazione temporanea dei dati. È separata dalla memoria dell'istanza ed è progettata specificamente per gestire le richieste di larghezza di banda più elevate dei workload ad alta intensità grafica.

Tipi di macchine A3 Mega, High ed Edge

Per utilizzare le GPU NVIDIA H100 SXM, hai le seguenti opzioni:

  • A3 Mega: questi tipi di macchine hanno GPU H100 SXM (nvidia-h100-mega-80gb) e sono ideali per carichi di lavoro di training e serving su larga scala.
  • A3 High: questi tipi di macchine hanno fino a GPU H100 SXM (nvidia-h100-80gb) e sono adatti sia per le attività di addestramento che per quelle di serving.
  • A3 Edge: questi tipi di macchine hanno GPU H100 SXM (nvidia-h100-80gb), sono progettati specificamente per il servizio e sono disponibili in un insieme limitato di regioni.

A3 Mega

GPU NVIDIA H100 collegate
Tipo di macchina Numero di vCPU* Memoria istanza (GB) SSD locale collegato (GiB) Numero di NIC fisiche Larghezza di banda massima della rete (Gbps) Conteggio GPU Memoria GPU
(GB HBM3)
a3-megagpu-8g 208 1872 6000 9 1800 8 640

A3 High

GPU NVIDIA H100 collegate
Tipo di macchina Numero di vCPU* Memoria istanza (GB) SSD locale collegato (GiB) Numero di NIC fisiche Larghezza di banda massima della rete (Gbps) Conteggio GPU Memoria GPU
(GB HBM3)
a3-highgpu-1g 26 234 750 1 25 1 80
a3-highgpu-2g 52 468 1500 1 50 2 160
a3-highgpu-4g 104 936 3000 1 100 4 320
a3-highgpu-8g 208 1872 6000 5 1000 8 640

A3 Edge

GPU NVIDIA H100 collegate
Tipo di macchina Numero di vCPU* Memoria istanza (GB) SSD locale collegato (GiB) Numero di NIC fisiche Larghezza di banda massima della rete (Gbps) Conteggio GPU Memoria GPU
(GB HBM3)
a3-edgegpu-8g 208 1872 6000 5
  • 800: per asia-south1 e northamerica-northeast2
  • 400: per tutte le altre regioni A3 Edge
8 640

* Una vCPU viene implementata come un singolo hyperthread hardware su una delle piattaforme CPU disponibili.
La larghezza di banda in uscita massima non può superare il numero specificato. La larghezza di banda in uscita effettiva dipende dall'indirizzo IP di destinazione e da altri fattori. Per ulteriori informazioni sulla larghezza di banda di rete, consulta la sezione Larghezza di banda di rete.
La memoria GPU è la memoria di un dispositivo GPU che può essere utilizzata per l'archiviazione temporanea dei dati. È separata dalla memoria dell'istanza ed è progettata specificamente per gestire le richieste di larghezza di banda più elevate dei workload ad alta intensità grafica.

Serie di macchine A2

I tipi di macchine A2 ottimizzate per l'acceleratore sono collegate a GPU NVIDIA A100 e sono ideali per il perfezionamento dei modelli, l'inferenza di modelli di grandi dimensioni e l'inferenza ottimizzata per i costi.

Le serie di macchine A2 sono disponibili in due tipi:

  • A2 Ultra: a questi tipi di macchine sono collegate GPU A100 da 80 GB (nvidia-a100-80gb) e dischi SSD locali.
  • A2 Standard: a questi tipi di macchine sono collegate GPU A100 da 40 GB (nvidia-tesla-a100). Puoi anche aggiungere dischi SSD locali quando crei un'istanza A2 Standard. Per il numero di dischi che puoi collegare, vedi Tipi di macchine per cui devi scegliere un numero di dischi SSD locali.

A2 Ultra

GPU NVIDIA A100 da 80 GB collegate
Tipo di macchina Numero di vCPU* Memoria istanza (GB) SSD locale collegato (GiB) Larghezza di banda massima della rete (Gbps) Conteggio GPU Memoria GPU
(GB HBM3)
a2-ultragpu-1g 12 170 375 24 1 80
a2-ultragpu-2g 24 340 750 32 2 160
a2-ultragpu-4g 48 680 1500 50 4 320
a2-ultragpu-8g 96 1360 3000 100 8 640

A2 Standard

GPU NVIDIA A100 da 40 GB collegate
Tipo di macchina Numero di vCPU* Memoria istanza (GB) SSD locale supportato Larghezza di banda massima della rete (Gbps) Conteggio GPU Memoria GPU
(GB HBM3)
a2-highgpu-1g 12 85 24 1 40
a2-highgpu-2g 24 170 32 2 80
a2-highgpu-4g 48 340 50 4 160
a2-highgpu-8g 96 680 100 8 320
a2-megagpu-16g 96 1360 100 16 640

* Una vCPU viene implementata come un singolo hyperthread hardware su una delle piattaforme CPU disponibili.
La larghezza di banda in uscita massima non può superare il numero specificato. La larghezza di banda in uscita effettiva dipende dall'indirizzo IP di destinazione e da altri fattori. Per ulteriori informazioni sulla larghezza di banda di rete, consulta la sezione Larghezza di banda di rete.
La memoria GPU è la memoria di un dispositivo GPU che può essere utilizzata per l'archiviazione temporanea dei dati. È separata dalla memoria dell'istanza ed è progettata specificamente per gestire le richieste di larghezza di banda più elevate dei workload ad alta intensità grafica.

Serie di macchine G2

I tipi di macchina G2 ottimizzati per l'acceleratore sono dotati di GPU NVIDIA L4 collegate e sono ideali per inferenza ottimizzata per i costi, carichi di lavoro ad alta intensità di grafica e di computing ad alte prestazioni.

Ogni tipo di macchina G2 ha anche una memoria predefinita e un'intervallo di memoria personalizzato. L'intervallo di memoria personalizzato definisce la quantità di memoria che puoi allocare all'istanza per ogni tipo di macchina. Puoi anche aggiungere dischi SSD locali quando crei un'istanza G2. Per il numero di dischi che puoi collegare, vedi Tipi di macchine per cui devi scegliere un numero di dischi SSD locali.

GPU NVIDIA L4 collegate
Tipo di macchina Numero di vCPU* Memoria istanza predefinita (GB) Intervallo di memoria istanza personalizzato (GB) SSD locale massima supportata (GiB) Larghezza di banda massima della rete (Gbps) Conteggio GPU Memoria GPU (GB GDDR6)
g2-standard-4 4 16 da 16 a 32 375 10 1 24
g2-standard-8 8 32 da 32 a 54 375 16 1 24
g2-standard-12 12 48 da 48 a 54 375 16 1 24
g2-standard-16 16 64 da 54 a 64 375 32 1 24
g2-standard-24 24 96 da 96 a 108 750 32 2 48
g2-standard-32 32 128 da 96 a 128 375 32 1 24
g2-standard-48 48 192 da 192 a 216 1500 50 4 96
g2-standard-96 96 384 da 384 a 432 3000 100 8 192

* Una vCPU viene implementata come un singolo hyperthread hardware su una delle piattaforme CPU disponibili.
La larghezza di banda in uscita massima non può superare il numero specificato. La larghezza di banda in uscita effettiva dipende dall'indirizzo IP di destinazione e da altri fattori. Per ulteriori informazioni sulla larghezza di banda di rete, consulta la sezione Larghezza di banda di rete.
La memoria GPU è la memoria di un dispositivo GPU che può essere utilizzata per l'archiviazione temporanea dei dati. È separata dalla memoria dell'istanza ed è progettata specificamente per gestire le richieste di larghezza di banda più elevate dei workload ad alta intensità grafica.

Serie di macchine N1

Puoi collegare i seguenti modelli di GPU a un tipo di macchina N1 ad eccezione dei tipi di macchine con core condivisi N1.

A differenza dei tipi di macchine della serie di macchine ottimizzate per l'acceleratore, i tipi di macchine N1 non sono dotati di un numero fisso di GPU collegate. Specifichi invece il numero di GPU da collegare durante la creazione dell'istanza.

Le istanze N1 con meno GPU limitano il numero massimo di vCPU. In generale, un numero maggiore di GPU ti consente di creare istanze con più memoria e un numero maggiore di vCPU.

GPU N1+T4

Puoi collegare GPU NVIDIA T4 alle istanze N1 per uso generico con le seguenti configurazioni di istanza.

Tipo di acceleratore Conteggio GPU Memoria GPU* (GB GDDR6) Conteggio vCPU Memoria istanza (GB) SSD locale supportato
nvidia-tesla-t4 o
nvidia-tesla-t4-vws
1 16 1-48 Da 1 a 312
2 32 1-48 Da 1 a 312
4 64 1-96 Da 1 a 624

* La memoria GPU è la memoria disponibile su un dispositivo GPU che puoi utilizzare per l'archiviazione temporanea dei dati. È separata dalla memoria dell'istanza ed è progettata specificamente per gestire le richieste di larghezza di banda più elevate dei workload ad alta intensità grafica.

GPU N1+P4

Puoi collegare GPU NVIDIA P4 a istanze N1 per uso generico con le seguenti configurazioni di istanza.

Tipo di acceleratore Conteggio GPU Memoria GPU* (GB GDDR5) Conteggio vCPU Memoria istanza (GB) SSD locale supportato
nvidia-tesla-p4 o
nvidia-tesla-p4-vws
1 8 Da 1 a 24 1-156
2 16 1-48 Da 1 a 312
4 32 1-96 Da 1 a 624

* La memoria GPU è la memoria disponibile su un dispositivo GPU che puoi utilizzare per l'archiviazione temporanea dei dati. È separata dalla memoria dell'istanza ed è progettata specificamente per gestire le richieste di larghezza di banda più elevate dei workload ad alta intensità grafica.

Per le istanze con GPU NVIDIA P4 collegate, i dischi SSD locali sono supportati solo nelle zone us-central1-c e northamerica-northeast1-b.

GPU N1+V100

Puoi collegare GPU NVIDIA V100 alle istanze N1 per uso generico con le seguenti configurazioni di istanza.

Tipo di acceleratore Conteggio GPU Memoria GPU* (GB HBM2) Conteggio vCPU Memoria istanza (GB) SSD locale supportato
nvidia-tesla-v100 1 16 Da 1 a 12 1-78
2 32 Da 1 a 24 1-156
4 64 1-48 Da 1 a 312
8 128 1-96 Da 1 a 624

* La memoria GPU è la memoria disponibile su un dispositivo GPU che puoi utilizzare per l'archiviazione temporanea dei dati. È separata dalla memoria dell'istanza ed è progettata specificamente per gestire le richieste di larghezza di banda più elevate dei workload ad alta intensità grafica.
Per le istanze con GPU NVIDIA V100 collegate, i dischi SSD locali non sono supportati in us-east1-c.

GPU N1+P100

Puoi collegare GPU NVIDIA P100 a istanze N1 per uso generico con le seguenti configurazioni di istanza.

Per alcune GPU NVIDIA P100, la CPU e la memoria massime disponibili per alcune configurazioni dipendono dalla zona in cui viene eseguita la risorsa GPU.

Tipo di acceleratore Conteggio GPU Memoria GPU* (GB HBM2) Zona Conteggio vCPU Memoria istanza (GB) SSD locale supportato
nvidia-tesla-p100 o
nvidia-tesla-p100-vws
1 16 Tutte le zone P100 Da 1 a 16 Da 1 a 104
2 32 Tutte le zone P100 Da 1 a 32 Da 1 a 208
4 64 us-east1-c,
europe-west1-d,
europe-west1-b
Da 1 a 64 Da 1 a 208
Tutte le altre zone P100 1-96 Da 1 a 624

* La memoria GPU è la memoria disponibile su un dispositivo GPU che puoi utilizzare per l'archiviazione temporanea dei dati. È separata dalla memoria dell'istanza ed è progettata specificamente per gestire le richieste di larghezza di banda più elevate dei workload ad alta intensità grafica.

Grafico di confronto generale

La tabella seguente descrive le dimensioni della memoria GPU, la disponibilità delle funzionalità e i tipi di carichi di lavoro ideali dei diversi modelli di GPU disponibili su Compute Engine.

Modello di GPU Memoria GPU Interconnessione Supporto della workstation virtuale (vWS) NVIDIA RTX Ideale per
GB200 180 GB HBM3e a 8 TB/s NVLink Full Mesh a 1800 GBps Addestramento e inferenza distribuiti su larga scala di LLM, sistemi di raccomandazione e HPC
B200 180 GB HBM3e a 8 TB/s NVLink Full Mesh a 1800 GBps Addestramento e inferenza distribuiti su larga scala di LLM, sistemi di raccomandazione e HPC
H200 141 GB HBM3e a 4,8 TBps NVLink Full Mesh a 900 GBps Modelli di grandi dimensioni con tabelle di dati enormi per addestramento ML, inferenza, HPC, BERT, DLRM
H100 80 GB HBM3 a 3,35 TBps NVLink Full Mesh a 900 GBps Modelli di grandi dimensioni con tabelle di dati enormi per addestramento ML, inferenza, HPC, BERT, DLRM
A100 80 GB HBM2e da 80 GB a 1,9 TBps NVLink Full Mesh a 600 GB/s Modelli di grandi dimensioni con tabelle di dati enormi per addestramento ML, inferenza, HPC, BERT, DLRM
A100 40 GB HBM2 da 40 GB a 1,6 TBps NVLink Full Mesh a 600 GB/s Addestramento ML, inferenza, HPC
L4 GDDR6 da 24 GB a 300 GB/s N/D Inferenza ML, addestramento, workstation di visualizzazione remota, transcodifica video, HPC
T4 GDDR6 da 16 GB a 320 GB/s N/D Inferenza ML, addestramento, workstation di visualizzazione remota, transcodifica video
V100 HBM2 da 16 GB a 900 GBps NVLink Ring a 300 GB/s Addestramento ML, inferenza, HPC
P4 GDDR5 da 8 GB a 192 GB/s N/D Workstation di visualizzazione remota, inferenza ML e transcodifica video
P100 16 GB HBM2 a 732 GBps N/D Addestramento ML, inferenza, HPC, workstation di visualizzazione remota

Per confrontare i prezzi delle GPU per i diversi modelli e le diverse regioni disponibili su Compute Engine, consulta Prezzi delle GPU.

Grafico di confronto del rendimento

La tabella seguente descrive le specifiche di rendimento dei diversi modelli di GPU disponibili su Compute Engine.

Rendimento del calcolo

Modello di GPU FP64 FP32 FP16 INT8
GB200 90 TFLOPS 180 TFLOPS
B200 40 TFLOPS 80 TFLOPS
H200 34 TFLOPS 67 TFLOPS
H100 34 TFLOPS 67 TFLOPS
A100 80 GB 9,7 TFLOPS 19,5 TFLOPS
A100 40 GB 9,7 TFLOPS 19,5 TFLOPS
L4 0,5 TFLOPS* 30,3 TFLOPS
T4 0,25 TFLOPS* 8,1 TFLOPS
V100 7,8 TFLOPS 15,7 TFLOPS
P4 0,2 TFLOPS* 5,5 TFLOPS 22 TOPS
P100 4,7 TFLOPS 9,3 TFLOPS 18,7 TFLOPS

*Per consentire al codice FP64 di funzionare correttamente, l'architettura GPU T4, L4 e P4 include un numero ridotto di unità hardware FP64.
TeraOperations al secondo.

Prestazioni del Tensor Core

Modello di GPU FP64 TF32 FP16/FP32 a precisione mista INT8 INT4 FP8
GB200 90 TFLOPS 2500 TFLOPS 5000 TFLOPS*, † 10.000 TFLOPS 20.000 TFLOPS 10.000 TFLOPS
B200 40 TFLOPS 1100 TFLOPS 4500 TFLOPS*, † 9000 TFLOPS 9000 TFLOPS
H200 67 TFLOPS 989 TFLOPS 1979 TFLOPS*, † 3958 TOPS 3958 TFLOPS
H100 67 TFLOPS 989 TFLOPS 1979 TFLOPS*, † 3958 TOPS 3958 TFLOPS
A100 80 GB 19,5 TFLOPS 156 TFLOPS 312 TFLOPS* 624 TOPS 1248 TOPS
A100 40 GB 19,5 TFLOPS 156 TFLOPS 312 TFLOPS* 624 TOPS 1248 TOPS
L4 120 TFLOPS 242 TFLOPS*, † 485 TOPS 485 TFLOPS
T4 65 TFLOPS 130 TOPS 260 TOPS
V100 125 TFLOPS
P4
P100

*Per l'addestramento a precisione mista, le GPU NVIDIA GB200, B200, H200, H100, A100 e L4 supportano anche il tipo di dati bfloat16.
Le GPU NVIDIA GB200, B200, H200, H100 e L4 supportano la sparsità strutturale. Puoi utilizzare la sparsità strutturale per raddoppiare le prestazioni dei tuoi modelli. I valori documentati si applicano quando si utilizza la sparsità strutturata. Se non utilizzi la sparsità strutturata, i valori vengono dimezzati.

Passaggi successivi