Per una guida dettagliata al conteggio dei token utilizzando l'API Gemini, incluso il modo in cui vengono conteggiati immagini, audio e video, consulta la guida al conteggio dei token e la relativa ricetta del cookbook.
Metodo: models.countTokens
- Endpoint
- Parametri del percorso
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- Richiesta di esempio
Esegue il tokenizer di un modello sull'input Content
e restituisce il conteggio dei token. Per saperne di più sui token, consulta la guida ai token.
Endpoint
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTokens
Parametri del percorso
model
string
Obbligatorio. Il nome della risorsa del modello. che funge da ID da utilizzare per il modello.
Questo nome deve corrispondere a un nome del modello restituito dal metodo models.list
.
Formato: models/{model}
. Assume la forma models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
contents[]
object (Content
)
(Facoltativo) L'input fornito al modello come prompt. Questo campo viene ignorato quando è impostato generateContentRequest
.
generateContentRequest
object (GenerateContentRequest
)
(Facoltativo) L'input complessivo fornito a Model
. Sono inclusi il prompt e altre informazioni di guida del modello, come le istruzioni di sistema e/o le dichiarazioni di funzione per la chiamata di funzioni. Model
s/Content
s e generateContentRequest
s si escludono a vicenda. Puoi inviare Model
+ Content
o un generateContentRequest
, ma mai entrambi.
Esempio di richiesta
Testo
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Chat
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Contenuti multimediali in linea
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Video
Python
Node.js
Go
Conchiglia
Python
Cache
Python
Node.js
Go
Istruzione di sistema
Vai
Kotlin
Swift
Dart
Java
Strumenti
Kotlin
Swift
Dart
Java
Corpo della risposta
Una risposta da models.countTokens
.
Restituisce il tokenCount
del modello per prompt
.
In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:
totalTokens
integer
Il numero di token in cui Model
suddivide prompt
. Sempre non negativi.
cachedContentTokenCount
integer
Numero di token nella parte memorizzata nella cache del prompt (i contenuti memorizzati nella cache).
promptTokensDetails[]
object (ModalityTokenCount
)
Solo output. Elenco delle modalità elaborate nell'input della richiesta.
cacheTokensDetails[]
object (ModalityTokenCount
)
Solo output. Elenco delle modalità elaborate nei contenuti memorizzati nella cache.
Rappresentazione JSON |
---|
{ "totalTokens": integer, "cachedContentTokenCount": integer, "promptTokensDetails": [ { object ( |