L'endpoint dei modelli consente di elencare in modo programmatico i modelli disponibili e recuperare metadati estesi come funzionalità supportate e dimensionamento della finestra contestuale. Scopri di più nella guida ai modelli.
Metodo: models.get
- Endpoint
- Parametri del percorso
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- Richiesta di esempio
Recupera informazioni su un Model
specifico, ad esempio il numero di versione, i limiti dei token, i parametri e altri metadati. Per informazioni dettagliate sui modelli, consulta la guida ai modelli Gemini.
Endpoint
gethttps: / /generativelanguage.googleapis.com /v1beta /{name=models /*}
Parametri del percorso
name
string
Obbligatorio. Il nome della risorsa del modello.
Questo nome deve corrispondere a un nome del modello restituito dal metodo models.list
.
Formato: models/{model}
. Assume la forma models/{model}
.
Corpo della richiesta
Il corpo della richiesta deve essere vuoto.
Esempio di richiesta
Python
Go
Conchiglia
Corpo della risposta
In caso di esito positivo, il corpo della risposta contiene un'istanza di Model
.
Metodo: models.list
- Endpoint
- Parametri di ricerca
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- Richiesta di esempio
Elenca i Model
disponibili tramite l'API Gemini.
Endpoint
gethttps: / /generativelanguage.googleapis.com /v1beta /models
Parametri di query
pageSize
integer
Il numero massimo di Models
da restituire (per pagina).
Se non specificato, vengono restituiti 50 modelli per pagina. Questo metodo restituisce al massimo 1000 modelli per pagina, anche se passi un valore pageSize maggiore.
pageToken
string
Un token di pagina, ricevuto da una precedente chiamata models.list
.
Fornisci il valore pageToken
restituito da una richiesta come argomento della richiesta successiva per recuperare la pagina successiva.
Durante la paginazione, tutti gli altri parametri forniti a models.list
devono corrispondere alla chiamata che ha fornito il token di pagina.
Corpo della richiesta
Il corpo della richiesta deve essere vuoto.
Esempio di richiesta
Python
Go
Conchiglia
Corpo della risposta
Risposta da ListModel
contenente un elenco paginato di modelli.
In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:
models[]
object (Model
)
I modelli restituiti.
nextPageToken
string
Un token, che può essere inviato come pageToken
per recuperare la pagina successiva.
Se questo campo viene omesso, non verranno visualizzate altre pagine.
Rappresentazione JSON |
---|
{
"models": [
{
object ( |
Risorsa REST: models
Risorsa: Modello
Informazioni su un modello linguistico generativo.
name
string
Obbligatorio. Il nome risorsa di Model
. Per tutti i valori consentiti, consulta Varianti del modello.
Formato: models/{model}
con una convenzione di denominazione {model}
di:
- "{baseModelId}-{version}"
Esempi:
models/gemini-1.5-flash-001
baseModelId
string
Obbligatorio. Il nome del modello di base, passalo alla richiesta di generazione.
Esempi:
gemini-1.5-flash
version
string
Obbligatorio. Il numero di versione del modello.
Rappresenta la versione principale (1.0
o 1.5
)
displayName
string
Il nome leggibile del modello. Ad esempio "Gemini 1.5 Flash".
Il nome può avere fino a 128 caratteri e può essere composto da qualsiasi carattere UTF-8.
description
string
Una breve descrizione del modello.
inputTokenLimit
integer
Numero massimo di token di input consentiti per questo modello.
outputTokenLimit
integer
Numero massimo di token di output disponibili per questo modello.
supportedGenerationMethods[]
string
I metodi di generazione supportati del modello.
I nomi dei metodi API corrispondenti sono definiti come stringhe Pascal Case, ad esempio generateMessage
e generateContent
.
thinking
boolean
Se il modello supporta il pensiero.
temperature
number
Controlla la casualità dell'output.
I valori possono variare in un intervallo di [0.0,maxTemperature]
, inclusi. Un valore più alto produrrà risposte più varie, mentre un valore più vicino a 0.0
in genere genererà risposte meno sorprendenti da parte del modello. Questo valore specifica il valore predefinito da utilizzare dal backend durante la chiamata al modello.
maxTemperature
number
La temperatura massima che questo modello può utilizzare.
topP
number
Per il campionamento del nucleo.
Il campionamento del nucleo considera il più piccolo insieme di token la cui somma di probabilità è almeno topP
. Questo valore specifica il valore predefinito da utilizzare dal backend durante la chiamata al modello.
topK
integer
Per il campionamento Top-K.
Il campionamento Top-k considera l'insieme dei topK
token più probabili. Questo valore specifica il valore predefinito da utilizzare dal backend durante la chiamata al modello. Se è vuoto, indica che il modello non utilizza il campionamento top-k e che topK
non è consentito come parametro di generazione.
Rappresentazione JSON |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "thinking": boolean, "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |