L'API Gemini supporta la generazione di contenuti con immagini, audio, codice, strumenti e altro ancora. Per informazioni dettagliate su ciascuna di queste funzionalità, continua a leggere e consulta il codice di esempio incentrato sulle attività o leggi le guide complete.
- Generazione di testo
- Vista
- Audio
- Incorporamenti
- Contesto lungo
- Esecuzione del codice
- Modalità JSON
- Chiamata di funzione
- Istruzioni di sistema
Metodo: models.generateContent
- Endpoint
- Parametri del percorso
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- Richiesta di esempio
Genera una risposta del modello dato un input GenerateContentRequest
. Per informazioni dettagliate sull'utilizzo, consulta la guida alla generazione di testo. Le funzionalità di input variano a seconda dei modelli, inclusi quelli ottimizzati. Per maggiori dettagli, consulta la guida ai modelli e la guida all'ottimizzazione.
Endpoint
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateContent
Parametri del percorso
model
string
Obbligatorio. Il nome di Model
da utilizzare per generare il completamento.
Formato: models/{model}
. Assume la forma models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
tools[]
object (Tool
)
(Facoltativo) Un elenco di Tools
che Model
può utilizzare per generare la risposta successiva.
Un Tool
è un frammento di codice che consente al sistema di interagire con sistemi esterni per eseguire un'azione o un insieme di azioni al di fuori delle conoscenze e dell'ambito del Model
. I Tool
supportati sono Function
e codeExecution
. Per saperne di più, consulta le guide Chiamata di funzioni ed Esecuzione del codice.
toolConfig
object (ToolConfig
)
(Facoltativo) Configurazione dello strumento per qualsiasi Tool
specificato nella richiesta. Per un esempio di utilizzo, consulta la guida alla chiamata di funzioni.
safetySettings[]
object (SafetySetting
)
(Facoltativo) Un elenco di istanze SafetySetting
uniche per bloccare i contenuti non sicuri.
Questa operazione verrà applicata il giorno GenerateContentRequest.contents
e GenerateContentResponse.candidates
. Non deve esserci più di un'impostazione per ogni tipo di SafetyCategory
. L'API bloccherà tutti i contenuti e le risposte che non soddisfano le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory
specificato in safetySettings. Se nell'elenco non è presente SafetySetting
per un determinato SafetyCategory
, l'API utilizzerà l'impostazione di sicurezza predefinita per quella categoria. Sono supportate le categorie di contenuti dannosi HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT, HARM_CATEGORY_CIVIC_INTEGRITY. Per informazioni dettagliate sulle impostazioni di sicurezza disponibili, consulta la guida. Consulta anche le indicazioni sulla sicurezza per scoprire come incorporare considerazioni sulla sicurezza nelle tue applicazioni di AI.
systemInstruction
object (Content
)
(Facoltativo) Lo sviluppatore ha impostato istruzioni di sistema. Al momento, solo testo.
generationConfig
object (GenerationConfig
)
(Facoltativo) Opzioni di configurazione per la generazione e gli output del modello.
cachedContent
string
(Facoltativo) Il nome dei contenuti memorizzati nella cache da utilizzare come contesto per fornire la previsione. Formato: cachedContents/{cachedContent}
Esempio di richiesta
Testo
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Immagine
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Audio
Python
Node.js
Go
Conchiglia
Video
Python
Node.js
Go
Conchiglia
Python
Go
Conchiglia
Chat
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Cache
Python
Node.js
Go
Modello ottimizzato
Python
Modalità JSON
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Esecuzione del codice
Python
Go
Kotlin
Java
Chiamata di funzione
Python
Go
Node.js
Conchiglia
Kotlin
Swift
Dart
Java
Configurazione della generazione
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Impostazioni di sicurezza
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Istruzione di sistema
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Corpo della risposta
In caso di esito positivo, il corpo della risposta contiene un'istanza di GenerateContentResponse
.
Metodo: models.streamGenerateContent
- Endpoint
- Parametri del percorso
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- Richiesta di esempio
Genera una risposta in streaming dal modello dato un input GenerateContentRequest
.
Endpoint
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:streamGenerateContent
Parametri del percorso
model
string
Obbligatorio. Il nome di Model
da utilizzare per generare il completamento.
Formato: models/{model}
. Assume la forma models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
tools[]
object (Tool
)
(Facoltativo) Un elenco di Tools
che Model
può utilizzare per generare la risposta successiva.
Un Tool
è un frammento di codice che consente al sistema di interagire con sistemi esterni per eseguire un'azione o un insieme di azioni al di fuori delle conoscenze e dell'ambito del Model
. I Tool
supportati sono Function
e codeExecution
. Per saperne di più, consulta le guide Chiamata di funzioni ed Esecuzione del codice.
toolConfig
object (ToolConfig
)
(Facoltativo) Configurazione dello strumento per qualsiasi Tool
specificato nella richiesta. Per un esempio di utilizzo, consulta la guida alla chiamata di funzioni.
safetySettings[]
object (SafetySetting
)
(Facoltativo) Un elenco di istanze SafetySetting
uniche per bloccare i contenuti non sicuri.
Questa operazione verrà applicata il giorno GenerateContentRequest.contents
e GenerateContentResponse.candidates
. Non deve esserci più di un'impostazione per ogni tipo di SafetyCategory
. L'API bloccherà tutti i contenuti e le risposte che non soddisfano le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory
specificato in safetySettings. Se nell'elenco non è presente SafetySetting
per un determinato SafetyCategory
, l'API utilizzerà l'impostazione di sicurezza predefinita per quella categoria. Sono supportate le categorie di contenuti dannosi HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT, HARM_CATEGORY_CIVIC_INTEGRITY. Per informazioni dettagliate sulle impostazioni di sicurezza disponibili, consulta la guida. Consulta anche le indicazioni sulla sicurezza per scoprire come incorporare considerazioni sulla sicurezza nelle tue applicazioni di AI.
systemInstruction
object (Content
)
(Facoltativo) Lo sviluppatore ha impostato istruzioni di sistema. Al momento, solo testo.
generationConfig
object (GenerationConfig
)
(Facoltativo) Opzioni di configurazione per la generazione e gli output del modello.
cachedContent
string
(Facoltativo) Il nome dei contenuti memorizzati nella cache da utilizzare come contesto per fornire la previsione. Formato: cachedContents/{cachedContent}
Esempio di richiesta
Testo
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Immagine
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Audio
Python
Go
Conchiglia
Video
Python
Node.js
Go
Conchiglia
Python
Go
Conchiglia
Chat
Python
Node.js
Go
Conchiglia
Kotlin
Swift
Dart
Java
Corpo della risposta
In caso di esito positivo, il corpo della risposta contiene un flusso di istanze GenerateContentResponse
.
GenerateContentResponse
Risposta del modello che supporta più risposte candidate.
Le valutazioni di sicurezza e il filtro dei contenuti vengono segnalati sia per il prompt in GenerateContentResponse.prompt_feedback
sia per ogni candidato in finishReason
e in safetyRatings
. L'API: - Restituisce tutti i candidati richiesti o nessuno - Non restituisce alcun candidato solo se si è verificato un problema con il prompt (controlla promptFeedback
) - Riporta il feedback su ogni candidato in finishReason
e safetyRatings
.
candidates[]
object (Candidate
)
Risposte candidate del modello.
promptFeedback
object (PromptFeedback
)
Restituisce il feedback del prompt relativo ai filtri dei contenuti.
usageMetadata
object (UsageMetadata
)
Solo output. Metadati sull'utilizzo dei token delle richieste di generazione.
modelVersion
string
Solo output. La versione del modello utilizzata per generare la risposta.
responseId
string
Solo output. responseId viene utilizzato per identificare ogni risposta.
Rappresentazione JSON |
---|
{ "candidates": [ { object ( |
PromptFeedback
Un insieme di metadati del feedback specificati nel prompt in GenerateContentRequest.content
.
blockReason
enum (BlockReason
)
(Facoltativo) Se impostato, il prompt è stato bloccato e non viene restituito alcun candidato. Riformula il prompt.
safetyRatings[]
object (SafetyRating
)
Valutazioni della sicurezza del prompt. È presente al massimo una classificazione per categoria.
Rappresentazione JSON |
---|
{ "blockReason": enum ( |
BlockReason
Specifica il motivo per cui la richiesta è stata bloccata.
Enum | |
---|---|
BLOCK_REASON_UNSPECIFIED |
Valore predefinito. Questo valore non viene utilizzato. |
SAFETY |
Il prompt è stato bloccato per motivi di sicurezza. Ispeziona safetyRatings per capire quale categoria di sicurezza lo ha bloccato. |
OTHER |
Il prompt è stato bloccato per motivi sconosciuti. |
BLOCKLIST |
Il prompt è stato bloccato a causa dei termini inclusi nell'elenco bloccato di terminologia. |
PROHIBITED_CONTENT |
Il prompt è stato bloccato a causa di contenuti vietati. |
IMAGE_SAFETY |
Candidati bloccati a causa di contenuti di generazione di immagini non sicuri. |
UsageMetadata
Metadati sull'utilizzo dei token della richiesta di generazione.
promptTokenCount
integer
Numero di token nel prompt. Quando cachedContent
è impostato, questa è comunque la dimensione effettiva totale del prompt, il che significa che include il numero di token nei contenuti memorizzati nella cache.
cachedContentTokenCount
integer
Numero di token nella parte memorizzata nella cache del prompt (i contenuti memorizzati nella cache)
candidatesTokenCount
integer
Numero totale di token in tutti i candidati di risposta generati.
toolUsePromptTokenCount
integer
Solo output. Numero di token presenti nei prompt di utilizzo degli strumenti.
thoughtsTokenCount
integer
Solo output. Numero di token di pensieri per i modelli di pensiero.
totalTokenCount
integer
Numero totale di token per la richiesta di generazione (prompt + candidati di risposta).
promptTokensDetails[]
object (ModalityTokenCount
)
Solo output. Elenco delle modalità elaborate nell'input della richiesta.
cacheTokensDetails[]
object (ModalityTokenCount
)
Solo output. Elenco delle modalità dei contenuti memorizzati nella cache nell'input della richiesta.
candidatesTokensDetails[]
object (ModalityTokenCount
)
Solo output. Elenco delle modalità restituite nella risposta.
toolUsePromptTokensDetails[]
object (ModalityTokenCount
)
Solo output. Elenco delle modalità elaborate per gli input delle richieste di utilizzo degli strumenti.
Rappresentazione JSON |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "toolUsePromptTokenCount": integer, "thoughtsTokenCount": integer, "totalTokenCount": integer, "promptTokensDetails": [ { object ( |
Candidato
- Rappresentazione JSON
- FinishReason
- GroundingAttribution
- AttributionSourceId
- GroundingPassageId
- SemanticRetrieverChunk
- GroundingMetadata
- SearchEntryPoint
- GroundingChunk
- Web
- GroundingSupport
- Segmento
- RetrievalMetadata
- LogprobsResult
- TopCandidates
- Candidato
- UrlContextMetadata
- UrlMetadata
- UrlRetrievalStatus
Una risposta candidata generata dal modello.
content
object (Content
)
Solo output. Contenuti generati restituiti dal modello.
finishReason
enum (FinishReason
)
(Facoltativo) Solo output. Il motivo per cui il modello ha smesso di generare token.
Se è vuoto, il modello non ha smesso di generare token.
safetyRatings[]
object (SafetyRating
)
Elenco delle valutazioni per la sicurezza di una risposta candidata.
È presente al massimo una classificazione per categoria.
citationMetadata
object (CitationMetadata
)
Solo output. Informazioni sulla citazione per il candidato generato dal modello.
Questo campo può essere compilato con informazioni sulla recitazione per qualsiasi testo incluso in content
. Si tratta di passaggi "recitati" da materiale protetto da copyright nei dati di addestramento del modello LLM di base.
tokenCount
integer
Solo output. Conteggio dei token per questo candidato.
groundingAttributions[]
object (GroundingAttribution
)
Solo output. Informazioni sull'attribuzione per le fonti che hanno contribuito a una risposta basata sui dati.
Questo campo viene compilato per le chiamate GenerateAnswer
.
groundingMetadata
object (GroundingMetadata
)
Solo output. Metadati di base per il candidato.
Questo campo viene compilato per le chiamate GenerateContent
.
avgLogprobs
number
Solo output. Punteggio di probabilità logaritmica medio del candidato.
logprobsResult
object (LogprobsResult
)
Solo output. Punteggi di log-verosimiglianza per i token di risposta e i token principali
urlContextMetadata
object (UrlContextMetadata
)
Solo output. Metadati relativi allo strumento di recupero del contesto dell'URL.
index
integer
Solo output. Indice del candidato nell'elenco dei candidati per la risposta.
Rappresentazione JSON |
---|
{ "content": { object ( |
FinishReason
Definisce il motivo per cui il modello ha smesso di generare token.
Enum | |
---|---|
FINISH_REASON_UNSPECIFIED |
Valore predefinito. Questo valore non viene utilizzato. |
STOP |
Punto di interruzione naturale del modello o sequenza di interruzione fornita. |
MAX_TOKENS |
È stato raggiunto il numero massimo di token specificato nella richiesta. |
SAFETY |
I contenuti della risposta candidata sono stati segnalati per motivi di sicurezza. |
RECITATION |
I contenuti del candidato alla risposta sono stati segnalati per motivi di recitazione. |
LANGUAGE |
I contenuti del candidato alla risposta sono stati segnalati per l'utilizzo di una lingua non supportata. |
OTHER |
Motivo sconosciuto. |
BLOCKLIST |
La generazione di token è stata interrotta perché i contenuti includono termini vietati. |
PROHIBITED_CONTENT |
La generazione di token è stata interrotta perché potrebbero contenere contenuti vietati. |
SPII |
La generazione di token è stata interrotta perché i contenuti potrebbero contenere informazioni sensibili che consentono l'identificazione personale (SPII). |
MALFORMED_FUNCTION_CALL |
La chiamata di funzione generata dal modello non è valida. |
IMAGE_SAFETY |
La generazione di token è stata interrotta perché le immagini generate contengono violazioni della sicurezza. |
UNEXPECTED_TOOL_CALL |
Il modello ha generato una chiamata allo strumento, ma non sono stati abilitati strumenti nella richiesta. |
GroundingAttribution
Attribuzione di una fonte che ha contribuito a una risposta.
sourceId
object (AttributionSourceId
)
Solo output. Identificatore dell'origine che contribuisce a questa attribuzione.
content
object (Content
)
Contenuti dell'origine di base che compongono questa attribuzione.
Rappresentazione JSON |
---|
{ "sourceId": { object ( |
AttributionSourceId
Identificatore dell'origine che contribuisce a questa attribuzione.
source
Union type
source
può essere solo uno dei seguenti:groundingPassage
object (GroundingPassageId
)
Identificatore di un passaggio in linea.
semanticRetrieverChunk
object (SemanticRetrieverChunk
)
Identificatore di un Chunk
recuperato tramite Semantic Retriever.
Rappresentazione JSON |
---|
{ // source "groundingPassage": { object ( |
GroundingPassageId
Identificatore di una parte all'interno di un GroundingPassage
.
passageId
string
Solo output. ID del passaggio corrispondente al GenerateAnswerRequest
del GroundingPassage.id
.
partIndex
integer
Solo output. Indice della parte all'interno di GroundingPassage.content
di GenerateAnswerRequest
.
Rappresentazione JSON |
---|
{ "passageId": string, "partIndex": integer } |
SemanticRetrieverChunk
Identificatore di un Chunk
recuperato tramite Semantic Retriever specificato in GenerateAnswerRequest
utilizzando SemanticRetrieverConfig
.
source
string
Solo output. Nome dell'origine corrispondente al valore SemanticRetrieverConfig.source
della richiesta. Esempio: corpora/123
o corpora/123/documents/abc
chunk
string
Solo output. Nome del Chunk
contenente il testo attribuito. Esempio: corpora/123/documents/abc/chunks/xyz
Rappresentazione JSON |
---|
{ "source": string, "chunk": string } |
GroundingMetadata
Metadati restituiti al client quando è abilitata la funzionalità di grounding.
groundingChunks[]
object (GroundingChunk
)
Elenco dei riferimenti di supporto recuperati dall'origine di grounding specificata.
groundingSupports[]
object (GroundingSupport
)
Elenco del supporto per la messa a terra.
webSearchQueries[]
string
Query di ricerca web per la ricerca web successiva.
searchEntryPoint
object (SearchEntryPoint
)
(Facoltativo) Voce della Ricerca Google per le ricerche sul web successive.
retrievalMetadata
object (RetrievalMetadata
)
Metadati relativi al recupero nel flusso di grounding.
Rappresentazione JSON |
---|
{ "groundingChunks": [ { object ( |
SearchEntryPoint
Punto di accesso alla Ricerca Google.
renderedContent
string
(Facoltativo) Snippet di contenuti web che può essere incorporato in una pagina web o in una webview di un'app.
sdkBlob
string (bytes format)
(Facoltativo) JSON codificato in base64 che rappresenta l'array di tuple <termine di ricerca, URL di ricerca>.
Una stringa con codifica Base64.
Rappresentazione JSON |
---|
{ "renderedContent": string, "sdkBlob": string } |
GroundingChunk
Chunk di grounding.
chunk_type
Union type
chunk_type
può essere solo uno dei seguenti:web
object (Web
)
Chunk di grounding dal web.
Rappresentazione JSON |
---|
{
// chunk_type
"web": {
object ( |
Web
Brano dal web.
uri
string
Riferimento URI del blocco.
title
string
Il titolo del segmento.
Rappresentazione JSON |
---|
{ "uri": string, "title": string } |
GroundingSupport
Supporto del grounding.
groundingChunkIndices[]
integer
Un elenco di indici (in "grounding_chunk") che specificano le citazioni associate alla rivendicazione. Ad esempio, [1,3,4] significa che grounding_chunk[1], grounding_chunk[3], grounding_chunk[4] sono i contenuti recuperati attribuiti all'affermazione.
confidenceScores[]
number
Punteggio di confidenza dei riferimenti di supporto. Valore compreso tra 0 e 1. 1 indica il livello di fiducia più alto. Questo elenco deve avere le stesse dimensioni di groundingChunkIndices.
segment
object (Segment
)
Segmento dei contenuti a cui appartiene questo supporto.
Rappresentazione JSON |
---|
{
"groundingChunkIndices": [
integer
],
"confidenceScores": [
number
],
"segment": {
object ( |
Segmento
Segmento dei contenuti.
partIndex
integer
Solo output. L'indice di un oggetto Part all'interno del relativo oggetto Content principale.
startIndex
integer
Solo output. Indice iniziale nella parte specificata, misurato in byte. Offset dall'inizio della parte, incluso, a partire da zero.
endIndex
integer
Solo output. Indice finale nella parte specificata, misurato in byte. Offset dall'inizio della parte, esclusivo, a partire da zero.
text
string
Solo output. Il testo corrispondente al segmento della risposta.
Rappresentazione JSON |
---|
{ "partIndex": integer, "startIndex": integer, "endIndex": integer, "text": string } |
RetrievalMetadata
Metadati relativi al recupero nel flusso di grounding.
googleSearchDynamicRetrievalScore
number
(Facoltativo) Punteggio che indica la probabilità che le informazioni della Ricerca Google possano contribuire a rispondere al prompt. Il punteggio è compreso nell'intervallo [0, 1], dove 0 è il meno probabile e 1 è il più probabile. Questo punteggio viene compilato solo quando sono abilitati il grounding della Ricerca Google e il recupero dinamico. Verrà confrontato con la soglia per determinare se attivare la Ricerca Google.
Rappresentazione JSON |
---|
{ "googleSearchDynamicRetrievalScore": number } |
LogprobsResult
Risultato Logprobs
topCandidates[]
object (TopCandidates
)
Lunghezza = numero totale di passaggi di decodifica.
chosenCandidates[]
object (Candidate
)
Lunghezza = numero totale di passaggi di decodifica. I candidati scelti potrebbero essere presenti o meno in topCandidates.
Rappresentazione JSON |
---|
{ "topCandidates": [ { object ( |
TopCandidates
Candidati con le probabilità logaritmiche più alte a ogni passaggio di decodifica.
candidates[]
object (Candidate
)
Ordinate in base alla probabilità logaritmica in ordine decrescente.
Rappresentazione JSON |
---|
{
"candidates": [
{
object ( |
Candidato
Candidato per il token e il punteggio logprobs.
token
string
Il valore stringa del token del candidato.
tokenId
integer
Il valore dell'ID token del candidato.
logProbability
number
La probabilità logaritmica del candidato.
Rappresentazione JSON |
---|
{ "token": string, "tokenId": integer, "logProbability": number } |
UrlContextMetadata
Metadati relativi allo strumento di recupero del contesto dell'URL.
urlMetadata[]
object (UrlMetadata
)
Elenco del contesto URL.
Rappresentazione JSON |
---|
{
"urlMetadata": [
{
object ( |
UrlMetadata
Contesto del recupero di un singolo URL.
retrievedUrl
string
URL recuperato dallo strumento.
urlRetrievalStatus
enum (UrlRetrievalStatus
)
Stato del recupero dell'URL.
Rappresentazione JSON |
---|
{
"retrievedUrl": string,
"urlRetrievalStatus": enum ( |
UrlRetrievalStatus
Stato del recupero dell'URL.
Enum | |
---|---|
URL_RETRIEVAL_STATUS_UNSPECIFIED |
Valore predefinito. Questo valore non viene utilizzato. |
URL_RETRIEVAL_STATUS_SUCCESS |
Il recupero dell'URL è riuscito. |
URL_RETRIEVAL_STATUS_ERROR |
Il recupero dell'URL non è riuscito a causa di un errore. |
CitationMetadata
Una raccolta di attribuzioni delle fonti per un contenuto.
citationSources[]
object (CitationSource
)
Citazioni delle fonti per una risposta specifica.
Rappresentazione JSON |
---|
{
"citationSources": [
{
object ( |
CitationSource
Una citazione di una fonte per una parte di una risposta specifica.
startIndex
integer
(Facoltativo) Inizio del segmento della risposta attribuito a questa fonte.
L'indice indica l'inizio del segmento, misurato in byte.
endIndex
integer
(Facoltativo) Fine del segmento attribuito, escluso.
uri
string
(Facoltativo) URI attribuito come fonte per una parte del testo.
license
string
(Facoltativo) Licenza per il progetto GitHub attribuito come origine del segmento.
Le informazioni sulla licenza sono obbligatorie per le citazioni di codice.
Rappresentazione JSON |
---|
{ "startIndex": integer, "endIndex": integer, "uri": string, "license": string } |
GenerationConfig
- Rappresentazione JSON
- Modalità
- SpeechConfig
- VoiceConfig
- PrebuiltVoiceConfig
- MultiSpeakerVoiceConfig
- SpeakerVoiceConfig
- ThinkingConfig
- MediaResolution
Opzioni di configurazione per la generazione e gli output del modello. Non tutti i parametri sono configurabili per ogni modello.
stopSequences[]
string
(Facoltativo) Il set di sequenze di caratteri (fino a 5) che interromperanno la generazione dell'output. Se specificato, l'API si interromperà alla prima occorrenza di un stop_sequence
. La sequenza di fermate non verrà inclusa nella risposta.
responseMimeType
string
(Facoltativo) Tipo MIME del testo candidato generato. I tipi MIME supportati sono: text/plain
: (predefinito) output di testo. application/json
: Risposta JSON nei candidati alla risposta. text/x.enum
: ENUM come risposta stringa nei candidati alla risposta. Consulta la documentazione per un elenco di tutti i tipi MIME di testo supportati.
responseSchema
object (Schema
)
(Facoltativo) Schema di output del testo candidato generato. Gli schemi devono essere un sottoinsieme dello schema OpenAPI e possono essere oggetti, primitive o array.
Se impostato, deve essere impostato anche un responseMimeType
compatibile. Tipi MIME compatibili: application/json
: schema per la risposta JSON. Per ulteriori dettagli, consulta la guida alla generazione di testo JSON.
responseJsonSchema
value (Value
format)
(Facoltativo) Schema di output della risposta generata. Si tratta di un'alternativa a responseSchema
che accetta lo schema JSON.
Se impostato, responseSchema
deve essere omesso, ma responseMimeType
è obbligatorio.
Anche se è possibile inviare lo schema JSON completo, non tutte le funzionalità sono supportate. Nello specifico, sono supportate solo le seguenti proprietà:
$id
$defs
$ref
$anchor
type
format
title
description
enum
(per stringhe e numeri)items
prefixItems
minItems
maxItems
minimum
maximum
anyOf
oneOf
(interpretato comeanyOf
)properties
additionalProperties
required
Può essere impostata anche la proprietà non standard propertyOrdering
.
I riferimenti ciclici vengono srotolati in misura limitata e, pertanto, possono essere utilizzati solo all'interno di proprietà non obbligatorie. Le proprietà Nullable non sono sufficienti. Se $ref
è impostato in un sottoschema, non è possibile impostare altre proprietà, ad eccezione di quelle che iniziano con $
.
responseModalities[]
enum (Modality
)
(Facoltativo) Le modalità di risposta richieste. Rappresenta l'insieme delle modalità che il modello può restituire e che devono essere previste nella risposta. Questa è una corrispondenza esatta con le modalità della risposta.
Un modello può avere più combinazioni di modalità supportate. Se le modalità richieste non corrispondono a nessuna delle combinazioni supportate, verrà restituito un errore.
Un elenco vuoto equivale a richiedere solo il testo.
candidateCount
integer
(Facoltativo) Numero di risposte generate da restituire. Se non viene impostato, il valore predefinito è 1. Tieni presente che questa funzionalità non è disponibile per i modelli di generazione precedente (famiglia Gemini 1.0).
maxOutputTokens
integer
(Facoltativo) Il numero massimo di token da includere in un candidato di risposta.
Nota: il valore predefinito varia in base al modello. Consulta l'attributo Model.output_token_limit
di Model
restituito dalla funzione getModel
.
temperature
number
(Facoltativo) Controlla la casualità dell'output.
Nota: il valore predefinito varia in base al modello. Consulta l'attributo Model.temperature
di Model
restituito dalla funzione getModel
.
I valori possono variare da [0.0, 2.0].
topP
number
(Facoltativo) La probabilità cumulativa massima dei token da considerare durante il campionamento.
Il modello utilizza il campionamento combinato Top-k e Top-p (nucleo).
I token vengono ordinati in base alle probabilità assegnate, in modo che vengano presi in considerazione solo i token più probabili. Il campionamento top-k limita direttamente il numero massimo di token da considerare, mentre il campionamento Nucleus limita il numero di token in base alla probabilità cumulativa.
Nota: il valore predefinito varia in base a Model
ed è specificato dall'attributo Model.top_p
restituito dalla funzione getModel
. Un attributo topK
vuoto indica che il modello non applica il campionamento top-k e non consente di impostare topK
nelle richieste.
topK
integer
(Facoltativo) Il numero massimo di token da considerare durante il campionamento.
I modelli Gemini utilizzano il campionamento Top-p (nucleo) o una combinazione di campionamento Top-k e nucleo. Il campionamento Top-k considera l'insieme dei topK
token più probabili. I modelli in esecuzione con il campionamento del nucleo non consentono l'impostazione topK.
Nota: il valore predefinito varia in base a Model
ed è specificato dall'attributo Model.top_p
restituito dalla funzione getModel
. Un attributo topK
vuoto indica che il modello non applica il campionamento top-k e non consente di impostare topK
nelle richieste.
seed
integer
(Facoltativo) Seed utilizzato nella decodifica. Se non viene impostato, la richiesta utilizza un seme generato in modo casuale.
presencePenalty
number
(Facoltativo) Penalità di presenza applicata alle probabilità logaritmiche del token successivo se il token è già stato visualizzato nella risposta.
Questa sanzione è binaria (on/off) e non dipende dal numero di volte in cui viene utilizzato il token (dopo la prima). Utilizza frequencyPenalty
per una penalità che aumenta a ogni utilizzo.
Una penalità positiva scoraggerà l'uso di token già utilizzati nella risposta, aumentando il vocabolario.
Una penalità negativa incoraggerà l'utilizzo di token già utilizzati nella risposta, riducendo il vocabolario.
frequencyPenalty
number
(Facoltativo) Penalità di frequenza applicata alle probabilità logaritmiche del token successivo, moltiplicata per il numero di volte in cui ogni token è stato visualizzato finora nella risposta.
Una penalità positiva scoraggerà l'utilizzo di token già utilizzati, in modo proporzionale al numero di volte in cui il token è stato utilizzato: più un token viene utilizzato, più è difficile per il modello riutilizzarlo, aumentando il vocabolario delle risposte.
Attenzione: una penalità negativa incoraggerà il modello a riutilizzare i token in proporzione al numero di volte in cui sono stati utilizzati. Valori negativi piccoli riducono il vocabolario di una risposta. Valori negativi più grandi faranno sì che il modello inizi a ripetere un token comune fino a raggiungere il limite di maxOutputTokens
.
responseLogprobs
boolean
(Facoltativo) Se true, esporta i risultati di logprobs nella risposta.
logprobs
integer
(Facoltativo) Valido solo se responseLogprobs=True
. Imposta il numero di logprob principali da restituire a ogni passaggio di decodifica in Candidate.logprobs_result
.
enableEnhancedCivicAnswers
boolean
(Facoltativo) Attiva le risposte civiche avanzate. Potrebbe non essere disponibile per tutti i modelli.
speechConfig
object (SpeechConfig
)
(Facoltativo) La configurazione della generazione vocale.
thinkingConfig
object (ThinkingConfig
)
(Facoltativo) Configurazione delle funzionalità di pensiero. Se questo campo è impostato per modelli che non supportano il pensiero, verrà restituito un errore.
mediaResolution
enum (MediaResolution
)
(Facoltativo) Se specificata, verrà utilizzata la risoluzione dei contenuti multimediali specificata.
Rappresentazione JSON |
---|
{ "stopSequences": [ string ], "responseMimeType": string, "responseSchema": { object ( |
Modalità
Modalità supportate della risposta.
Enum | |
---|---|
MODALITY_UNSPECIFIED |
Valore predefinito. |
TEXT |
Indica che il modello deve restituire testo. |
IMAGE |
Indica che il modello deve restituire immagini. |
AUDIO |
Indica che il modello deve restituire l'audio. |
SpeechConfig
La configurazione della generazione vocale.
voiceConfig
object (VoiceConfig
)
La configurazione in caso di output a una sola voce.
multiSpeakerVoiceConfig
object (MultiSpeakerVoiceConfig
)
(Facoltativo) La configurazione per la configurazione multi-speaker. Si esclude a vicenda con il campo voiceConfig.
languageCode
string
(Facoltativo) Codice lingua (in formato BCP 47, ad es. "en-US") per la sintesi vocale.
I valori validi sono: de-DE, en-AU, en-GB, en-IN, en-US, es-US, fr-FR, hi-IN, pt-BR, ar-XA, es-ES, fr-CA, id-ID, it-IT, ja-JP, tr-TR, vi-VN, bn-IN, gu-IN, kn-IN, ml-IN, mr-IN, ta-IN, te-IN, nl-NL, ko-KR, cmn-CN, pl-PL, ru-RU e th-TH.
Rappresentazione JSON |
---|
{ "voiceConfig": { object ( |
VoiceConfig
La configurazione della voce da utilizzare.
voice_config
Union type
voice_config
può essere solo uno dei seguenti:prebuiltVoiceConfig
object (PrebuiltVoiceConfig
)
La configurazione della voce predefinita da utilizzare.
Rappresentazione JSON |
---|
{
// voice_config
"prebuiltVoiceConfig": {
object ( |
PrebuiltVoiceConfig
La configurazione da utilizzare per lo speaker preconfigurato.
voiceName
string
Il nome della voce preimpostata da utilizzare.
Rappresentazione JSON |
---|
{ "voiceName": string } |
MultiSpeakerVoiceConfig
La configurazione per la configurazione multi-speaker.
speakerVoiceConfigs[]
object (SpeakerVoiceConfig
)
Obbligatorio. Tutte le voci del relatore attivate.
Rappresentazione JSON |
---|
{
"speakerVoiceConfigs": [
{
object ( |
SpeakerVoiceConfig
La configurazione per un singolo speaker in una configurazione multi-speaker.
speaker
string
Obbligatorio. Il nome dell'oratore da utilizzare. Deve essere uguale a quello del prompt.
voiceConfig
object (VoiceConfig
)
Obbligatorio. La configurazione della voce da utilizzare.
Rappresentazione JSON |
---|
{
"speaker": string,
"voiceConfig": {
object ( |
ThinkingConfig
Configurazione delle funzionalità di pensiero.
includeThoughts
boolean
Indica se includere i pensieri nella risposta. Se true, i pensieri vengono restituiti solo quando sono disponibili.
thinkingBudget
integer
Il numero di token di pensieri che il modello deve generare.
Rappresentazione JSON |
---|
{ "includeThoughts": boolean, "thinkingBudget": integer } |
MediaResolution
Risoluzione dei contenuti multimediali di input.
Enum | |
---|---|
MEDIA_RESOLUTION_UNSPECIFIED |
La risoluzione dei contenuti multimediali non è stata impostata. |
MEDIA_RESOLUTION_LOW |
Risoluzione dei contenuti multimediali impostata su bassa (64 token). |
MEDIA_RESOLUTION_MEDIUM |
La risoluzione dei contenuti multimediali è impostata su media (256 token). |
MEDIA_RESOLUTION_HIGH |
Risoluzione dei contenuti multimediali impostata su alta (ricomposizione con zoom con 256 token). |
HarmCategory
La categoria di una classificazione.
Queste categorie coprono vari tipi di danni che gli sviluppatori potrebbero voler modificare.
Enum | |
---|---|
HARM_CATEGORY_UNSPECIFIED |
La categoria non è specificata. |
HARM_CATEGORY_DEROGATORY |
PaLM: commenti negativi o dannosi rivolti all'identità e/o agli attributi protetti. |
HARM_CATEGORY_TOXICITY |
PaLM: contenuti maleducati, irrispettosi o profani. |
HARM_CATEGORY_VIOLENCE |
PaLM: descrive scenari che rappresentano violenza contro un individuo o un gruppo oppure descrizioni generali di scene cruente. |
HARM_CATEGORY_SEXUAL |
PaLM: contiene riferimenti ad atti sessuali o ad altri contenuti osceni. |
HARM_CATEGORY_MEDICAL |
PaLM: promuove consigli medici non verificati. |
HARM_CATEGORY_DANGEROUS |
PaLM: contenuti pericolosi che promuovono, facilitano o incoraggiano azioni dannose. |
HARM_CATEGORY_HARASSMENT |
Gemini - Contenuti molesti. |
HARM_CATEGORY_HATE_SPEECH |
Gemini: incitamento all'odio e contenuti. |
HARM_CATEGORY_SEXUALLY_EXPLICIT |
Gemini - Contenuti sessualmente espliciti. |
HARM_CATEGORY_DANGEROUS_CONTENT |
Gemini - Contenuti pericolosi. |
HARM_CATEGORY_CIVIC_INTEGRITY |
Gemini: contenuti che possono essere utilizzati per danneggiare l'integrità civica. |
ModalityTokenCount
Rappresenta le informazioni sul conteggio dei token per una singola modalità.
modality
enum (Modality
)
La modalità associata a questo conteggio dei token.
tokenCount
integer
Numero di token.
Rappresentazione JSON |
---|
{
"modality": enum ( |
Modalità
Modalità della parte di contenuto
Enum | |
---|---|
MODALITY_UNSPECIFIED |
Modalità non specificata. |
TEXT |
Testo normale. |
IMAGE |
Immagine. |
VIDEO |
Video. |
AUDIO |
Audio. |
DOCUMENT |
Documento, ad esempio PDF. |
SafetyRating
Valutazione di sicurezza per un contenuto.
La valutazione di sicurezza contiene la categoria di danno e il livello di probabilità di danno in quella categoria per un contenuto. I contenuti vengono classificati in base alla sicurezza in diverse categorie di danni e qui è inclusa la probabilità della classificazione del danno.
category
enum (HarmCategory
)
Obbligatorio. La categoria per questa classificazione.
probability
enum (HarmProbability
)
Obbligatorio. La probabilità di danni per questi contenuti.
blocked
boolean
Questi contenuti sono stati bloccati a causa di questa classificazione?
Rappresentazione JSON |
---|
{ "category": enum ( |
HarmProbability
La probabilità che un contenuto sia dannoso.
Il sistema di classificazione indica la probabilità che i contenuti non siano sicuri. Ciò non indica la gravità del danno per un determinato contenuto.
Enum | |
---|---|
HARM_PROBABILITY_UNSPECIFIED |
La probabilità non è specificata. |
NEGLIGIBLE |
I contenuti hanno una probabilità trascurabile di essere non sicuri. |
LOW |
I contenuti hanno una bassa probabilità di essere non sicuri. |
MEDIUM |
I contenuti hanno una probabilità media di essere non sicuri. |
HIGH |
I contenuti hanno un'alta probabilità di non essere sicuri. |
SafetySetting
Impostazione di sicurezza che influisce sul comportamento di blocco della sicurezza.
Se superi un'impostazione di sicurezza per una categoria, la probabilità consentita che i contenuti vengano bloccati cambia.
category
enum (HarmCategory
)
Obbligatorio. La categoria per questa impostazione.
threshold
enum (HarmBlockThreshold
)
Obbligatorio. Controlla la soglia di probabilità in corrispondenza della quale i danni vengono bloccati.
Rappresentazione JSON |
---|
{ "category": enum ( |
HarmBlockThreshold
Blocca i contenuti in corrispondenza e al di sopra di una probabilità di danno specificata.
Enum | |
---|---|
HARM_BLOCK_THRESHOLD_UNSPECIFIED |
La soglia non è specificata. |
BLOCK_LOW_AND_ABOVE |
I contenuti con NEGLIGIBILE saranno consentiti. |
BLOCK_MEDIUM_AND_ABOVE |
I contenuti con classificazione NEGLIGIBILE e BASSA saranno consentiti. |
BLOCK_ONLY_HIGH |
I contenuti con classificazione NEGLIGIBILE, BASSO e MEDIO saranno consentiti. |
BLOCK_NONE |
Tutti i contenuti saranno consentiti. |
OFF |
Disattiva il filtro di sicurezza. |