Die Gemini API unterstützt die Generierung von Inhalten mit Bildern, Audio, Code, Tools und mehr. Weitere Informationen zu den einzelnen Funktionen finden Sie unten und im aufgabenorientierten Beispielcode oder in den umfassenden Anleitungen.
- Textgenerierung
- Sehvermögen
- Audio
- Einbettungen
- Langer Kontext
- Codeausführung
- JSON-Modus
- Funktionsaufrufe
- Systemanweisungen
Methode: models.generateContent
Generiert eine Modellantwort auf Grundlage einer Eingabe GenerateContentRequest
. Ausführliche Informationen zur Verwendung finden Sie im Leitfaden zur Texterstellung. Die Eingabefunktionen unterscheiden sich je nach Modell, auch bei optimierten Modellen. Weitere Informationen finden Sie im Modellleitfaden und im Leitfaden zum Optimieren.
Endpunkt
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateContent
>
>
Pfadparameter
model
string
Erforderlich. Der Name des Model
, der zum Generieren der Vervollständigung verwendet werden soll.
Format: models/{model}
. Sie hat die Form models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste mit Tools
, die Model
verwenden kann, um die nächste Antwort zu generieren.
Eine Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs der Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Anleitungen zu Funktionsaufrufen und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren unsicherer Inhalte.
Dies wird auf der GenerateContentRequest.contents
und der GenerateContentResponse.candidates
erzwungen. Es sollte nicht mehr als eine Einstellung für jeden SafetyCategory
-Typ geben. Die API blockiert alle Inhalte und Antworten, die die durch diese Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jede SafetyCategory
, die in „safetySettings“ angegeben ist. Wenn für ein bestimmtes SafetyCategory
kein SafetySetting
in der Liste angegeben ist, verwendet die API die Standardeinstellung für die Sicherheit für diese Kategorie. Die Kategorien schädlicher Inhalte HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT und HARM_CATEGORY_CIVIC_INTEGRITY werden unterstützt. Hier finden Sie eine Anleitung mit detaillierten Informationen zu den verfügbaren Sicherheitseinstellungen. Sicherheitshinweise
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und ‑ausgabe.
cachedContent
string
Optional. Der Name des zwischengespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Bild
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Audio
Python
Node.js
Ok
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Ok
Muschel
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Cache
Python
Node.js
Ok
Abgestimmtes Modell
Python
JSON-Modus
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Codeausführung
Python
Ok
Kotlin
Java
Funktionsaufrufe
Python
Ok
Node.js
Muschel
Kotlin
Swift
Dart
Java
Generierungskonfiguration
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Sicherheitseinstellungen
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Systemanweisung
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Antworttext
Wenn der Vorgang erfolgreich abgeschlossen wurde, enthält der Antworttext eine Instanz von GenerateContentResponse
.
Methode: models.streamGenerateContent
Generiert eine gestreamte Antwort vom Modell für eine Eingabe GenerateContentRequest
.
Endpunkt
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:streamGenerateContent
>
>
Pfadparameter
model
string
Erforderlich. Der Name des Model
, der zum Generieren der Vervollständigung verwendet werden soll.
Format: models/{model}
. Sie hat die Form models/{model}
.
Anfragetext
Der Anfragetext enthält Daten mit folgender Struktur:
tools[]
object (Tool
)
Optional. Eine Liste mit Tools
, die Model
verwenden kann, um die nächste Antwort zu generieren.
Eine Tool
ist ein Code, der es dem System ermöglicht, mit externen Systemen zu interagieren, um eine Aktion oder eine Reihe von Aktionen außerhalb des Wissens und Umfangs der Model
auszuführen. Unterstützte Tool
s sind Function
und codeExecution
. Weitere Informationen finden Sie in den Anleitungen zu Funktionsaufrufen und Codeausführung.
toolConfig
object (ToolConfig
)
Optional. Toolkonfiguration für alle in der Anfrage angegebenen Tool
. Ein Anwendungsbeispiel finden Sie im Leitfaden zu Funktionsaufrufen.
safetySettings[]
object (SafetySetting
)
Optional. Eine Liste mit eindeutigen SafetySetting
-Instanzen zum Blockieren unsicherer Inhalte.
Dies wird auf der GenerateContentRequest.contents
und der GenerateContentResponse.candidates
erzwungen. Es sollte nicht mehr als eine Einstellung für jeden SafetyCategory
-Typ geben. Die API blockiert alle Inhalte und Antworten, die die durch diese Einstellungen festgelegten Grenzwerte nicht erreichen. Diese Liste überschreibt die Standardeinstellungen für jede SafetyCategory
, die in „safetySettings“ angegeben ist. Wenn für ein bestimmtes SafetyCategory
kein SafetySetting
in der Liste angegeben ist, verwendet die API die Standardeinstellung für die Sicherheit für diese Kategorie. Die Kategorien schädlicher Inhalte HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT und HARM_CATEGORY_CIVIC_INTEGRITY werden unterstützt. Hier finden Sie eine Anleitung mit detaillierten Informationen zu den verfügbaren Sicherheitseinstellungen. Sicherheitshinweise
systemInstruction
object (Content
)
Optional. Der Entwickler hat Systemanweisungen festgelegt. Derzeit nur Text.
generationConfig
object (GenerationConfig
)
Optional. Konfigurationsoptionen für die Modellgenerierung und ‑ausgabe.
cachedContent
string
Optional. Der Name des zwischengespeicherten Inhalts, der als Kontext für die Bereitstellung der Vorhersage verwendet werden soll. Format: cachedContents/{cachedContent}
Beispielanfrage
Text
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Bild
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Audio
Python
Ok
Muschel
Video
Python
Node.js
Ok
Muschel
Python
Ok
Muschel
Chat
Python
Node.js
Ok
Muschel
Kotlin
Swift
Dart
Java
Antworttext
Bei Erfolg enthält der Antworttext einen Stream von GenerateContentResponse
-Instanzen.
GenerateContentResponse
Antwort des Modells, die mehrere Kandidatenantworten unterstützt.
Sicherheitsbewertungen und Inhaltsfilter werden sowohl für den Prompt in GenerateContentResponse.prompt_feedback
als auch für jeden Kandidaten in finishReason
und in safetyRatings
gemeldet. Die API: – Gibt entweder alle angeforderten Kandidaten oder keinen zurück. – Gibt nur dann keine Kandidaten zurück, wenn mit dem Prompt etwas nicht stimmt (siehe promptFeedback
). – Meldet Feedback zu jedem Kandidaten in finishReason
und safetyRatings
.
candidates[]
object (Candidate
)
Kandidatenantworten des Modells.
promptFeedback
object (PromptFeedback
)
Gibt das Feedback des Prompts zu den Inhaltsfiltern zurück.
usageMetadata
object (UsageMetadata
)
Nur Ausgabe. Metadaten zur Tokennutzung der Generierungsanfragen.
modelVersion
string
Nur Ausgabe. Die Modellversion, die zum Generieren der Antwort verwendet wurde.
responseId
string
Nur Ausgabe. responseId wird verwendet, um jede Antwort zu identifizieren.
JSON-Darstellung |
---|
{ "candidates": [ { object ( |
PromptFeedback
Eine Reihe von Feedback-Metadaten, die im Prompt in GenerateContentRequest.content
angegeben wurden.
blockReason
enum (BlockReason
)
Optional. Wenn festgelegt, wurde der Prompt blockiert und es werden keine Kandidaten zurückgegeben. Formulieren Sie den Prompt um.
safetyRatings[]
object (SafetyRating
)
Bewertungen zur Sicherheit des Prompts. Pro Kategorie gibt es maximal eine Bewertung.
JSON-Darstellung |
---|
{ "blockReason": enum ( |
BlockReason
Gibt den Grund an, warum der Prompt blockiert wurde.
Enums | |
---|---|
BLOCK_REASON_UNSPECIFIED |
Standardwert Dieser Wert wird nicht verwendet. |
SAFETY |
Der Prompt wurde aus Sicherheitsgründen blockiert. Sehen Sie sich safetyRatings an, um herauszufinden, durch welche Sicherheitskategorie die Blockierung erfolgt ist. |
OTHER |
Der Prompt wurde aus unbekannten Gründen blockiert. |
BLOCKLIST |
Der Prompt wurde aufgrund der Begriffe blockiert, die in der Sperrliste für Begriffe enthalten sind. |
PROHIBITED_CONTENT |
Der Prompt wurde aufgrund unzulässiger Inhalte blockiert. |
IMAGE_SAFETY |
Kandidaten, die aufgrund unsicherer Inhalte für die Bildgenerierung blockiert wurden. |
UsageMetadata
Metadaten zur Tokennutzung der Generierungsanfrage.
promptTokenCount
integer
Anzahl der Tokens im Prompt. Wenn cachedContent
festgelegt ist, ist dies weiterhin die effektive Gesamtgröße des Prompts, d. h., sie umfasst die Anzahl der Tokens im Cache-Inhalt.
cachedContentTokenCount
integer
Anzahl der Tokens im im Cache gespeicherten Teil des Prompts (im Cache gespeicherte Inhalte)
candidatesTokenCount
integer
Gesamtzahl der Tokens für alle generierten Antwortkandidaten.
toolUsePromptTokenCount
integer
Nur Ausgabe. Anzahl der Tokens in den Tool-Nutzungs-Prompts.
thoughtsTokenCount
integer
Nur Ausgabe. Anzahl der Tokens für Überlegungen für Denkmodelle.
totalTokenCount
integer
Gesamtzahl der Tokens für die Generierungsanfrage (Prompt + Antwortkandidaten).
promptTokensDetails[]
object (ModalityTokenCount
)
Nur Ausgabe. Liste der Modalitäten, die in der Anfrageeingabe verarbeitet wurden.
cacheTokensDetails[]
object (ModalityTokenCount
)
Nur Ausgabe. Liste der Modalitäten der im Cache gespeicherten Inhalte in der Anfrageeingabe.
candidatesTokensDetails[]
object (ModalityTokenCount
)
Nur Ausgabe. Liste der Modalitäten, die in der Antwort zurückgegeben wurden.
toolUsePromptTokensDetails[]
object (ModalityTokenCount
)
Nur Ausgabe. Liste der Modalitäten, die für Eingaben von Tool-Nutzungsanfragen verarbeitet wurden.
JSON-Darstellung |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "toolUsePromptTokenCount": integer, "thoughtsTokenCount": integer, "totalTokenCount": integer, "promptTokensDetails": [ { object ( |
Kandidat
- JSON-Darstellung
- FinishReason
- GroundingAttribution
- AttributionSourceId
- GroundingPassageId
- SemanticRetrieverChunk
- GroundingMetadata
- SearchEntryPoint
- GroundingChunk
- Web
- GroundingSupport
- Segment
- RetrievalMetadata
- LogprobsResult
- TopCandidates
- Kandidat
- UrlContextMetadata
- UrlMetadata
- UrlRetrievalStatus
Ein vom Modell generierter Antwortkandidat.
content
object (Content
)
Nur Ausgabe. Vom Modell zurückgegebene generierte Inhalte.
finishReason
enum (FinishReason
)
Optional. Nur Ausgabe. Der Grund, warum das Modell keine Tokens mehr generiert.
Wenn leer, wird das Modell weiterhin die Tokens generieren.
safetyRatings[]
object (SafetyRating
)
Liste der Bewertungen für die Sicherheit eines Antwortkandidaten.
Pro Kategorie gibt es maximal eine Bewertung.
citationMetadata
object (CitationMetadata
)
Nur Ausgabe. Zitierinformationen für vom Modell generierte Kandidaten.
Dieses Feld kann Rezitationsinformationen für jeden Text enthalten, der in content
enthalten ist. Das sind Passagen, die aus urheberrechtlich geschütztem Material in den Trainingsdaten des zugrunde liegenden LLM „rezitiert“ werden.
tokenCount
integer
Nur Ausgabe. Anzahl der Tokens für diesen Kandidaten.
groundingAttributions[]
object (GroundingAttribution
)
Nur Ausgabe. Angaben zur Quellenangabe für Quellen, die zu einer fundierten Antwort beigetragen haben.
Dieses Feld wird für GenerateAnswer
-Aufrufe ausgefüllt.
groundingMetadata
object (GroundingMetadata
)
Nur Ausgabe. Grounding-Metadaten für den Kandidaten.
Dieses Feld wird für GenerateContent
-Aufrufe ausgefüllt.
avgLogprobs
number
Nur Ausgabe. Durchschnittlicher Log-Wahrscheinlichkeitswert des Kandidaten.
logprobsResult
object (LogprobsResult
)
Nur Ausgabe. Log-Likelihood-Werte für die Antwort-Tokens und Top-Tokens
urlContextMetadata
object (UrlContextMetadata
)
Nur Ausgabe. Metadaten im Zusammenhang mit dem Tool zum Abrufen des URL-Kontexts.
index
integer
Nur Ausgabe. Index des Kandidaten in der Liste der Antwortkandidaten.
JSON-Darstellung |
---|
{ "content": { object ( |
FinishReason
Gibt den Grund an, warum das Modell keine Tokens mehr generiert.
Enums | |
---|---|
FINISH_REASON_UNSPECIFIED |
Standardwert Dieser Wert wird nicht verwendet. |
STOP |
Natürlicher Stopppunkt des Modells oder angegebene Stoppsequenz. |
MAX_TOKENS |
Die in der Anfrage angegebene maximale Anzahl von Tokens wurde erreicht. |
SAFETY |
Der Inhalt des Antwortkandidaten wurde aus Sicherheitsgründen gemeldet. |
RECITATION |
Der Inhalt des Antwortvorschlags wurde aus Rezitationsgründen gemeldet. |
LANGUAGE |
Der Inhalt des Antwortvorschlags wurde als nicht unterstützte Sprache gekennzeichnet. |
OTHER |
Unbekannter Grund. |
BLOCKLIST |
Die Tokengenerierung wurde gestoppt, weil die Inhalte verbotene Begriffe enthalten. |
PROHIBITED_CONTENT |
Die Tokengenerierung wurde gestoppt, weil sie möglicherweise verbotene Inhalte enthält. |
SPII |
Die Tokengenerierung wurde gestoppt, da die Inhalte möglicherweise vertrauliche personenidentifizierbare Informationen enthalten. |
MALFORMED_FUNCTION_CALL |
Der vom Modell generierte Funktionsaufruf ist ungültig. |
IMAGE_SAFETY |
Die Tokengenerierung wurde gestoppt, da die generierten Bilder gegen die Sicherheitsrichtlinien verstoßen. |
UNEXPECTED_TOOL_CALL |
Das Modell hat einen Tool-Aufruf generiert, aber in der Anfrage waren keine Tools aktiviert. |
GroundingAttribution
Quellenangabe für eine Quelle, die zu einer Antwort beigetragen hat.
sourceId
object (AttributionSourceId
)
Nur Ausgabe. ID der Quelle, die zu dieser Zuordnung beiträgt.
content
object (Content
)
Quellinhalte, die dieser Quellenangabe zugrunde liegen.
JSON-Darstellung |
---|
{ "sourceId": { object ( |
AttributionSourceId
ID der Quelle, die zu dieser Zuordnung beiträgt.
source
Union type
source
ist nur einer der folgenden Werte zulässig:groundingPassage
object (GroundingPassageId
)
Kennung für einen Inline-Abschnitt.
semanticRetrieverChunk
object (SemanticRetrieverChunk
)
Kennung für ein Chunk
, das über Semantic Retriever abgerufen wurde.
JSON-Darstellung |
---|
{ // source "groundingPassage": { object ( |
GroundingPassageId
Kennung für einen Teil innerhalb eines GroundingPassage
.
passageId
string
Nur Ausgabe. ID des Abschnitts, der der GroundingPassage.id
des GenerateAnswerRequest
entspricht.
partIndex
integer
Nur Ausgabe. Index des Teils im GroundingPassage.content
von GenerateAnswerRequest
.
JSON-Darstellung |
---|
{ "passageId": string, "partIndex": integer } |
SemanticRetrieverChunk
Kennung für ein Chunk
, das über Semantic Retriever abgerufen und in GenerateAnswerRequest
mit SemanticRetrieverConfig
angegeben wurde.
source
string
Nur Ausgabe. Name der Quelle, die dem SemanticRetrieverConfig.source
der Anfrage entspricht. Beispiel: corpora/123
oder corpora/123/documents/abc
chunk
string
Nur Ausgabe. Name des Chunk
, das den zugeordneten Text enthält. Beispiel: corpora/123/documents/abc/chunks/xyz
JSON-Darstellung |
---|
{ "source": string, "chunk": string } |
GroundingMetadata
Metadaten, die an den Client zurückgegeben werden, wenn Grounding aktiviert ist.
groundingChunks[]
object (GroundingChunk
)
Liste der unterstützenden Referenzen, die aus der angegebenen Fundierungsquelle abgerufen wurden.
groundingSupports[]
object (GroundingSupport
)
Liste der unterstützten Fundierungen.
webSearchQueries[]
string
Websuchanfragen für die anschließende Websuche.
searchEntryPoint
object (SearchEntryPoint
)
Optional. Google-Sucheintrag für die nachfolgenden Websuchen.
retrievalMetadata
object (RetrievalMetadata
)
Metadaten im Zusammenhang mit dem Abrufen im Grounding-Ablauf.
JSON-Darstellung |
---|
{ "groundingChunks": [ { object ( |
SearchEntryPoint
Einstiegspunkt für die Google Suche.
renderedContent
string
Optional. Webinhalts-Snippet, das in eine Webseite oder eine App-Webview eingebettet werden kann.
sdkBlob
string (bytes format)
Optional. Base64-codiertes JSON, das ein Array von Tupeln aus <Suchbegriff, Such-URL> darstellt.
Ein base64-codierter String.
JSON-Darstellung |
---|
{ "renderedContent": string, "sdkBlob": string } |
GroundingChunk
Fundierungs-Chunk.
chunk_type
Union type
chunk_type
ist nur einer der folgenden Werte zulässig:web
object (Web
)
Fundierungs-Chunk aus dem Web.
JSON-Darstellung |
---|
{
// chunk_type
"web": {
object ( |
Web
Chunk aus dem Web.
uri
string
URI-Referenz des Chunks.
title
string
Titel des Chunks.
JSON-Darstellung |
---|
{ "uri": string, "title": string } |
GroundingSupport
Unterstützung für die Fundierung
groundingChunkIndices[]
integer
Eine Liste von Indexen (in „grounding_chunk“), die die mit dem Anspruch verknüpften Quellenangaben angeben. [1,3,4] bedeutet beispielsweise, dass grounding_chunk[1], grounding_chunk[3] und grounding_chunk[4] die abgerufenen Inhalte sind, die der Behauptung zugeordnet werden.
confidenceScores[]
number
Konfidenzwert der Supportreferenzen. Liegt im Bereich von 0 bis 1. 1 ist die höchste Stufe. Diese Liste muss dieselbe Größe wie die groundingChunkIndices haben.
segment
object (Segment
)
Segment des Inhalts, zu dem dieser Support gehört.
JSON-Darstellung |
---|
{
"groundingChunkIndices": [
integer
],
"confidenceScores": [
number
],
"segment": {
object ( |
Segment
Segment des Inhalts.
partIndex
integer
Nur Ausgabe. Der Index eines Part-Objekts innerhalb des übergeordneten Content-Objekts.
startIndex
integer
Nur Ausgabe. Startindex im angegebenen Teil, gemessen in Byte. Offset vom Beginn des Teils, einschließlich, beginnend mit null.
endIndex
integer
Nur Ausgabe. Endindex im angegebenen Teil, gemessen in Byte. Offset vom Beginn des Teils, exklusiv, beginnend bei null.
text
string
Nur Ausgabe. Der Text, der dem Segment aus der Antwort entspricht.
JSON-Darstellung |
---|
{ "partIndex": integer, "startIndex": integer, "endIndex": integer, "text": string } |
RetrievalMetadata
Metadaten im Zusammenhang mit dem Abrufen im Grounding-Ablauf.
googleSearchDynamicRetrievalScore
number
Optional. Wert, der angibt, wie wahrscheinlich es ist, dass Informationen aus der Google Suche helfen können, den Prompt zu beantworten. Der Wert liegt im Bereich [0, 1], wobei 0 die geringste und 1 die höchste Wahrscheinlichkeit darstellt. Dieser Wert wird nur ausgegeben, wenn die Fundierung mit der Google Suche und die dynamische Abfrage aktiviert sind. Er wird mit dem Schwellenwert verglichen, um zu entscheiden, ob die Google Suche ausgelöst werden soll.
JSON-Darstellung |
---|
{ "googleSearchDynamicRetrievalScore": number } |
LogprobsResult
Logprobs-Ergebnis
topCandidates[]
object (TopCandidates
)
Länge = Gesamtzahl der Decodierungsschritte.
chosenCandidates[]
object (Candidate
)
Länge = Gesamtzahl der Decodierungsschritte. Die ausgewählten Kandidaten sind möglicherweise in „topCandidates“ enthalten.
JSON-Darstellung |
---|
{ "topCandidates": [ { object ( |
TopCandidates
Kandidaten mit den höchsten Log-Wahrscheinlichkeiten bei jedem Decodierungsschritt.
candidates[]
object (Candidate
)
In absteigender Reihenfolge nach Log-Wahrscheinlichkeit sortiert.
JSON-Darstellung |
---|
{
"candidates": [
{
object ( |
Kandidat
Kandidat für das Logprobs-Token und den Logprobs-Score.
token
string
Der Token-Stringwert des Kandidaten.
tokenId
integer
Der Token-ID-Wert des Kandidaten.
logProbability
number
Die Logwahrscheinlichkeit des Kandidaten.
JSON-Darstellung |
---|
{ "token": string, "tokenId": integer, "logProbability": number } |
UrlContextMetadata
Metadaten im Zusammenhang mit dem Tool zum Abrufen des URL-Kontexts.
urlMetadata[]
object (UrlMetadata
)
Liste des URL-Kontexts.
JSON-Darstellung |
---|
{
"urlMetadata": [
{
object ( |
UrlMetadata
Kontext des Abrufs einer einzelnen URL.
retrievedUrl
string
Vom Tool abgerufene URL.
urlRetrievalStatus
enum (UrlRetrievalStatus
)
Status des URL-Abrufs.
JSON-Darstellung |
---|
{
"retrievedUrl": string,
"urlRetrievalStatus": enum ( |
UrlRetrievalStatus
Status des URL-Abrufs.
Enums | |
---|---|
URL_RETRIEVAL_STATUS_UNSPECIFIED |
Standardwert Dieser Wert wird nicht verwendet. |
URL_RETRIEVAL_STATUS_SUCCESS |
Der Abruf der URL war erfolgreich. |
URL_RETRIEVAL_STATUS_ERROR |
Der URL-Abruf ist aufgrund eines Fehlers fehlgeschlagen. |
Zitat-MetadatenS
Eine Sammlung von Quellenangaben für einen Inhalt.
citationSources[]
object (CitationSource
)
Quellenangaben für eine bestimmte Antwort.
JSON-Darstellung |
---|
{
"citationSources": [
{
object ( |
CitationSource
Eine Quellenangabe für einen Teil einer bestimmten Antwort.
startIndex
integer
Optional. Der Beginn des Antwortsegments, das dieser Quelle zugeordnet wird.
Der Index gibt den Anfang des Segments in Byte an.
endIndex
integer
Optional. Ende des zugeordneten Segments (ausschließlich).
uri
string
Optional. URI, der als Quelle für einen Teil des Texts angegeben wird.
license
string
Optional. Lizenz für das GitHub-Projekt, das als Quelle für das Segment angegeben wird.
Für Code-Zitationen sind Lizenzinformationen erforderlich.
JSON-Darstellung |
---|
{ "startIndex": integer, "endIndex": integer, "uri": string, "license": string } |
GenerationConfig
- JSON-Darstellung
- Modalität
- SpeechConfig
- VoiceConfig
- PrebuiltVoiceConfig
- MultiSpeakerVoiceConfig
- SpeakerVoiceConfig
- ThinkingConfig
- MediaResolution
Konfigurationsoptionen für die Modellgenerierung und ‑ausgabe. Nicht alle Parameter sind für jedes Modell konfigurierbar.
stopSequences[]
string
Optional. Die Menge der Zeichenfolgen (bis zu 5), die die Ausgabegenerierung stoppen. Falls angegeben, wird die API beim ersten Auftreten von stop_sequence
beendet. Die Stoppsequenz ist nicht Teil der Antwort.
responseMimeType
string
Optional. MIME-Typ des generierten Kandidatentextes. Unterstützte MIME-Typen: text/plain
(Standard): Textausgabe. application/json
: JSON-Antwort in den Antwortkandidaten. text/x.enum
: ENUM als String-Antwort in den Antwortkandidaten. Eine Liste aller unterstützten Text-MIME-Typen finden Sie in der Dokumentation.
responseSchema
object (Schema
)
Optional. Ausgabeschema des generierten Kandidatentextes. Schemas müssen eine Teilmenge des OpenAPI-Schemas sein und können Objekte, Primitiven oder Arrays sein.
Wenn dieser Wert festgelegt ist, muss auch ein kompatibler responseMimeType
-Wert festgelegt werden. Kompatible MIME-Typen: application/json
: Schema für die JSON-Antwort. Weitere Informationen finden Sie im Leitfaden zur JSON-Texterstellung.
responseJsonSchema
value (Value
format)
Optional. Ausgabeschema der generierten Antwort. Dies ist eine Alternative zu responseSchema
, die JSON-Schema akzeptiert.
Wenn festgelegt, muss responseSchema
weggelassen werden, responseMimeType
ist jedoch erforderlich.
Das vollständige JSON-Schema wird zwar möglicherweise gesendet, aber nicht alle Funktionen werden unterstützt. Es werden nur die folgenden Eigenschaften unterstützt:
$id
$defs
$ref
$anchor
type
format
title
description
enum
(für Strings und Zahlen)items
prefixItems
minItems
maxItems
minimum
maximum
anyOf
oneOf
(wird genauso interpretiert wieanyOf
)properties
additionalProperties
required
Die nicht standardmäßige Property propertyOrdering
kann ebenfalls festgelegt werden.
Zyklische Verweise werden nur bis zu einem gewissen Grad entrollt und dürfen daher nur in nicht erforderlichen Properties verwendet werden. (Nullable-Eigenschaften reichen nicht aus.) Wenn $ref
für ein Unterschema festgelegt ist, dürfen keine anderen Attribute als die, die mit $
beginnen, festgelegt werden.
responseModalities[]
enum (Modality
)
Optional. Die angeforderten Modalitäten der Antwort. Stellt die Menge der Modalitäten dar, die das Modell zurückgeben kann und die in der Antwort erwartet werden sollten. Das ist eine genaue Übereinstimmung mit den Modalitäten der Antwort.
Ein Modell kann mehrere Kombinationen unterstützter Modalitäten haben. Wenn die angeforderten Modalitäten mit keiner der unterstützten Kombinationen übereinstimmen, wird ein Fehler zurückgegeben.
Eine leere Liste entspricht einer Anfrage nur nach Text.
candidateCount
integer
Optional. Anzahl der generierten Antworten, die zurückgegeben werden sollen. Wenn kein Wert festgelegt ist, wird standardmäßig 1 verwendet. Das funktioniert nicht bei Modellen der vorherigen Generation (Gemini 1.0-Familie).
maxOutputTokens
integer
Optional. Die maximale Anzahl von Tokens, die in einem Antwortvorschlag enthalten sein dürfen.
Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.output_token_limit
des Model
, das von der Funktion getModel
zurückgegeben wird.
temperature
number
Optional. Steuert die Zufälligkeit der Ausgabe.
Hinweis: Der Standardwert variiert je nach Modell. Weitere Informationen finden Sie im Attribut Model.temperature
des Model
, das von der Funktion getModel
zurückgegeben wird.
Die Werte können zwischen [0,0, 2,0] liegen.
topP
number
Optional. Die maximale kumulative Wahrscheinlichkeit der Tokens, die beim Sampling berücksichtigt werden sollen.
Das Modell verwendet eine kombinierte Top-k- und Top-p-Stichprobenerhebung (Nucleus).
Tokens werden nach ihren zugewiesenen Wahrscheinlichkeiten sortiert, sodass nur die wahrscheinlichsten Tokens berücksichtigt werden. Beim Top-k-Sampling wird die maximale Anzahl der zu berücksichtigenden Tokens direkt begrenzt, während beim Nucleus-Sampling die Anzahl der Tokens auf der Grundlage der kumulativen Wahrscheinlichkeit begrenzt wird.
Hinweis: Der Standardwert variiert je nach Model
und wird durch das Attribut Model.top_p
angegeben, das von der getModel
-Funktion zurückgegeben wird. Ein leeres topK
-Attribut gibt an, dass das Modell kein Top-K-Sampling anwendet und das Festlegen von topK
für Anfragen nicht zulässt.
topK
integer
Optional. Die maximale Anzahl von Tokens, die beim Sampling berücksichtigt werden sollen.
Gemini-Modelle verwenden Top-P-Sampling (Nucleus Sampling) oder eine Kombination aus Top-K- und Nucleus Sampling. Beim Top-K-Sampling wird die Menge der topK
wahrscheinlichsten Tokens berücksichtigt. Bei Modellen, die mit Nucleus-Sampling ausgeführt werden, ist keine TopK-Einstellung möglich.
Hinweis: Der Standardwert variiert je nach Model
und wird durch das Attribut Model.top_p
angegeben, das von der getModel
-Funktion zurückgegeben wird. Ein leeres topK
-Attribut gibt an, dass das Modell kein Top-K-Sampling anwendet und das Festlegen von topK
für Anfragen nicht zulässt.
seed
integer
Optional. Seed, der bei der Dekodierung verwendet wird. Wenn nicht festgelegt, wird für die Anfrage ein zufällig generiertes Seed verwendet.
presencePenalty
number
Optional. Die Anwesenheitsstrafe, die auf die Log-Wahrscheinlichkeiten des nächsten Tokens angewendet wird, wenn das Token bereits in der Antwort enthalten ist.
Diese Strafe ist binär (an/aus) und hängt nicht davon ab, wie oft das Token nach dem ersten Mal verwendet wird. Verwenden Sie frequencyPenalty
für eine Strafe, die mit jeder Nutzung steigt.
Eine positive Strafe soll die Verwendung von Tokens verhindern, die bereits in der Antwort verwendet wurden, und so den Wortschatz erweitern.
Eine negative Strafe fördert die Verwendung von Tokens, die bereits in der Antwort verwendet wurden, wodurch der Wortschatz verringert wird.
frequencyPenalty
number
Optional. Die Häufigkeitsstrafe, die auf die Log-Wahrscheinlichkeiten des nächsten Tokens angewendet wird, multipliziert mit der Anzahl der Male, die jedes Token bisher in der Antwort gesehen wurde.
Eine positive Strafe soll die Verwendung von Tokens, die bereits verwendet wurden, proportional zur Anzahl der Verwendungen des Tokens verhindern: Je häufiger ein Token verwendet wird, desto schwieriger ist es für das Modell, dieses Token wieder zu verwenden, wodurch das Vokabular der Antworten erweitert wird.
Achtung: Eine negative Strafe führt dazu, dass das Modell Tokens proportional zur Anzahl der Verwendungen wiederverwendet. Kleine negative Werte verringern den Wortschatz einer Antwort. Bei größeren negativen Werten wiederholt das Modell ein gemeinsames Token, bis das maxOutputTokens
-Limit erreicht ist.
responseLogprobs
boolean
Optional. Bei „true“ werden die Ergebnisse für „logprobs“ in der Antwort exportiert.
logprobs
integer
Optional. Nur gültig, wenn responseLogprobs=True
. Damit wird die Anzahl der Top-Log-Wahrscheinlichkeiten festgelegt, die bei jedem Decodierungsschritt in Candidate.logprobs_result
zurückgegeben werden sollen.
enableEnhancedCivicAnswers
boolean
Optional. Aktiviert verbesserte zivilgesellschaftliche Antworten. Möglicherweise ist sie nicht für alle Modelle verfügbar.
speechConfig
object (SpeechConfig
)
Optional. Die Konfiguration für die Spracherzeugung.
thinkingConfig
object (ThinkingConfig
)
Optional. Konfiguration für Denkfunktionen. Ein Fehler wird zurückgegeben, wenn dieses Feld für Modelle festgelegt ist, die keine Denkprozesse unterstützen.
mediaResolution
enum (MediaResolution
)
Optional. Wenn angegeben, wird die angegebene Media-Auflösung verwendet.
JSON-Darstellung |
---|
{ "stopSequences": [ string ], "responseMimeType": string, "responseSchema": { object ( |
Modalität
Unterstützte Antworttypen.
Enums | |
---|---|
MODALITY_UNSPECIFIED |
Standardwert. |
TEXT |
Gibt an, dass das Modell Text zurückgeben soll. |
IMAGE |
Gibt an, dass das Modell Bilder zurückgeben soll. |
AUDIO |
Gibt an, dass das Modell Audio zurückgeben soll. |
SpeechConfig
Die Konfiguration für die Spracherzeugung.
voiceConfig
object (VoiceConfig
)
Die Konfiguration bei der Ausgabe mit einer Stimme.
multiSpeakerVoiceConfig
object (MultiSpeakerVoiceConfig
)
Optional. Die Konfiguration für die Einrichtung mit mehreren Lautsprechern. Sie schließt sich mit dem Feld „voiceConfig“ gegenseitig aus.
languageCode
string
Optional. Sprachcode (im BCP 47-Format, z.B. „en-US“) für die Sprachsynthese.
Gültige Werte sind: de-DE, en-AU, en-GB, en-IN, en-US, es-US, fr-FR, hi-IN, pt-BR, ar-XA, es-ES, fr-CA, id-ID, it-IT, ja-JP, tr-TR, vi-VN, bn-IN, gu-IN, kn-IN, ml-IN, mr-IN, ta-IN, te-IN, nl-NL, ko-KR, cmn-CN, pl-PL, ru-RU und th-TH.
JSON-Darstellung |
---|
{ "voiceConfig": { object ( |
VoiceConfig
Die Konfiguration für die zu verwendende Stimme.
voice_config
Union type
voice_config
ist nur einer der folgenden Werte zulässig:prebuiltVoiceConfig
object (PrebuiltVoiceConfig
)
Die Konfiguration für die zu verwendende vordefinierte Stimme.
JSON-Darstellung |
---|
{
// voice_config
"prebuiltVoiceConfig": {
object ( |
PrebuiltVoiceConfig
Die Konfiguration für den vordefinierten Lautsprecher.
voiceName
string
Der Name der voreingestellten Stimme, die verwendet werden soll.
JSON-Darstellung |
---|
{ "voiceName": string } |
MultiSpeakerVoiceConfig
Die Konfiguration für die Einrichtung mit mehreren Lautsprechern.
speakerVoiceConfigs[]
object (SpeakerVoiceConfig
)
Erforderlich. Alle aktivierten Sprecherstimmen.
JSON-Darstellung |
---|
{
"speakerVoiceConfigs": [
{
object ( |
SpeakerVoiceConfig
Die Konfiguration für einen einzelnen Lautsprecher in einem Setup mit mehreren Lautsprechern.
speaker
string
Erforderlich. Der Name des zu verwendenden Lautsprechers. Sollte mit dem Prompt übereinstimmen.
voiceConfig
object (VoiceConfig
)
Erforderlich. Die Konfiguration für die zu verwendende Stimme.
JSON-Darstellung |
---|
{
"speaker": string,
"voiceConfig": {
object ( |
ThinkingConfig
Konfiguration für Denkfunktionen.
includeThoughts
boolean
Gibt an, ob Überlegungen in die Antwort einbezogen werden sollen. Bei „true“ werden Gedanken nur zurückgegeben, wenn sie verfügbar sind.
thinkingBudget
integer
Die Anzahl der „Gedanken“-Tokens, die das Modell generieren soll.
JSON-Darstellung |
---|
{ "includeThoughts": boolean, "thinkingBudget": integer } |
MediaResolution
Die Auflösung der Eingabemedien.
Enums | |
---|---|
MEDIA_RESOLUTION_UNSPECIFIED |
Die Media-Auflösung wurde nicht festgelegt. |
MEDIA_RESOLUTION_LOW |
Die Medienauflösung ist auf „Niedrig“ eingestellt (64 Tokens). |
MEDIA_RESOLUTION_MEDIUM |
Die Medienauflösung ist auf „Mittel“ (256 Tokens) eingestellt. |
MEDIA_RESOLUTION_HIGH |
Die Medienauflösung ist auf „Hoch“ eingestellt (herangezoomtes Reframing mit 256 Tokens). |
HarmCategory
Die Kategorie einer Bewertung.
Diese Kategorien umfassen verschiedene Arten von Schäden, die Entwickler möglicherweise anpassen möchten.
Enums | |
---|---|
HARM_CATEGORY_UNSPECIFIED |
Die Kategorie ist nicht angegeben. |
HARM_CATEGORY_DEROGATORY |
PaLM – Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind. |
HARM_CATEGORY_TOXICITY |
PaLM: Unhöfliche, respektlose oder vulgäre Inhalte. |
HARM_CATEGORY_VIOLENCE |
PaLM: Beschreibt Szenarien, in denen Gewalt gegen eine Person oder Gruppe dargestellt wird, oder allgemein blutrünstige Inhalte. |
HARM_CATEGORY_SEXUAL |
PaLM: Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte. |
HARM_CATEGORY_MEDICAL |
PaLM – Fördert ungeprüfte medizinische Ratschläge. |
HARM_CATEGORY_DANGEROUS |
PaLM – Gefährliche Inhalte, die schädliche Handlungen fördern, erleichtern oder begünstigen. |
HARM_CATEGORY_HARASSMENT |
Gemini – Belästigende Inhalte. |
HARM_CATEGORY_HATE_SPEECH |
Gemini – Hassrede und Inhalte. |
HARM_CATEGORY_SEXUALLY_EXPLICIT |
Gemini – Sexuell explizite Inhalte. |
HARM_CATEGORY_DANGEROUS_CONTENT |
Gemini – Gefährliche Inhalte. |
HARM_CATEGORY_CIVIC_INTEGRITY |
Gemini: Inhalte, die verwendet werden können, um die bürgerliche Integrität zu schädigen. |
ModalityTokenCount
Stellt Informationen zur Tokenzählung für eine einzelne Modalität dar.
modality
enum (Modality
)
Die Modalität, die mit dieser Tokenanzahl verknüpft ist.
tokenCount
integer
Anzahl der Tokens.
JSON-Darstellung |
---|
{
"modality": enum ( |
Modalität
Modalität des Inhaltsteils
Enums | |
---|---|
MODALITY_UNSPECIFIED |
Nicht angegebene Modalität. |
TEXT |
Nur Text |
IMAGE |
Bild. |
VIDEO |
Video. |
AUDIO |
Audio. |
DOCUMENT |
Dokument, z.B. PDF. |
SafetyRating
Sicherheitsbewertung für einen Inhalt.
Die Sicherheitsbewertung enthält die Schadenskategorie und die Wahrscheinlichkeit des Schadens in dieser Kategorie für einen Inhalt. Inhalte werden anhand einer Reihe von Schadenskategorien auf Sicherheit hin klassifiziert. Die Wahrscheinlichkeit der Klassifizierung als schädlich ist hier enthalten.
category
enum (HarmCategory
)
Erforderlich. Die Kategorie für diese Altersfreigabe.
probability
enum (HarmProbability
)
Erforderlich. Die Wahrscheinlichkeit von Schäden bei diesen Inhalten.
blocked
boolean
Wurde dieser Inhalt aufgrund dieser Altersfreigabe blockiert?
JSON-Darstellung |
---|
{ "category": enum ( |
HarmProbability
Die Wahrscheinlichkeit, dass ein Inhalt schädlich ist.
Das Klassifizierungssystem gibt die Wahrscheinlichkeit an, dass die Inhalte unsicher sind. Diese Kategorie gibt nicht an, wie schwerwiegend der Schaden ist, der durch die Inhalte verursacht wird.
Enums | |
---|---|
HARM_PROBABILITY_UNSPECIFIED |
Die Wahrscheinlichkeit ist nicht angegeben. |
NEGLIGIBLE |
Inhalte haben eine vernachlässigbare Wahrscheinlichkeit, unsicher zu sein. |
LOW |
Inhalte haben eine geringe Wahrscheinlichkeit, unsicher zu sein. |
MEDIUM |
Inhalte haben eine mittlere Wahrscheinlichkeit, unsicher zu sein. |
HIGH |
Inhalte haben eine hohe Wahrscheinlichkeit, unsicher zu sein. |
SafetySetting
Sicherheitseinstellung, die sich auf das Verhalten bei Sicherheitsblockierungen auswirkt.
Wenn Sie eine Sicherheitseinstellung für eine Kategorie festlegen, ändert sich die zulässige Wahrscheinlichkeit, dass Inhalte blockiert werden.
category
enum (HarmCategory
)
Erforderlich. Die Kategorie für diese Einstellung.
threshold
enum (HarmBlockThreshold
)
Erforderlich. Steuert den Wahrscheinlichkeitsschwellenwert, ab dem Schäden blockiert werden.
JSON-Darstellung |
---|
{ "category": enum ( |
HarmBlockThreshold
Blockieren bei und über einer bestimmten Wahrscheinlichkeit für Schäden.
Enums | |
---|---|
HARM_BLOCK_THRESHOLD_UNSPECIFIED |
Der Grenzwert ist nicht angegeben. |
BLOCK_LOW_AND_ABOVE |
Inhalte mit der Kennzeichnung NEGLIGIBLE sind zulässig. |
BLOCK_MEDIUM_AND_ABOVE |
Inhalte mit den Kennzeichnungen NEGLIGIBLE und LOW sind zulässig. |
BLOCK_ONLY_HIGH |
Inhalte mit den Werten NEGLIGIBLE, LOW und MEDIUM sind zulässig. |
BLOCK_NONE |
Alle Inhalte sind zulässig. |
OFF |
Deaktivieren Sie den Sicherheitsfilter. |