PaLM (decommissioned)

Méthode : models.generateText

Génère une réponse du modèle à partir d'un message d'entrée.

Point de terminaison

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Paramètres de chemin d'accès

model string

Obligatoire. Nom du Model ou du TunedModel à utiliser pour générer la complétion. Exemples : models/text-bison-001, tunedModels/sentence-translator-u3b7m. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

Champs
prompt object (TextPrompt)

Obligatoire. Texte d'entrée en forme libre fourni au modèle en tant que requête.

À partir d'une requête, le modèle génère une réponse TextCompletion qu'il prédit comme étant la fin du texte saisi.

safetySettings[] object (SafetySetting)

Facultatif. Liste d'instances SafetySetting uniques permettant de bloquer le contenu non sécurisé.

qui seront appliquées sur GenerateTextRequest.prompt et GenerateTextResponse.candidates. Il ne doit pas y avoir plus d'un paramètre pour chaque type SafetyCategory. L'API bloquera les requêtes et les réponses qui ne respectent pas les seuils définis par ces paramètres. Cette liste remplace les paramètres par défaut de chaque SafetyCategory spécifié dans safetySettings. Si aucun SafetySetting n'est associé à un SafetyCategory donné dans la liste, l'API utilise le paramètre de sécurité par défaut pour cette catégorie. Les catégories de préjudice HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL et HARM_CATEGORY_DANGEROUS sont acceptées dans le service de texte.

stopSequences[] string

Ensemble de séquences de caractères (jusqu'à cinq) qui arrêteront la génération de sortie. Si une séquence d'arrêt est spécifiée, l'API s'arrête à la première occurrence de cette séquence. La séquence d'arrêt ne sera pas incluse dans la réponse.

temperature number

Facultatif. Contrôle le caractère aléatoire de la sortie. Remarque : La valeur par défaut varie selon le modèle. Consultez l'attribut Model.temperature de Model renvoyé par la fonction getModel.

Les valeurs peuvent être comprises entre 0,0 et 1,0 (inclus). Une valeur plus proche de 1 générera des réponses plus variées et créatives, tandis qu'une valeur plus proche de 0 entraînera généralement des réponses plus directes de la part du modèle.

candidateCount integer

Facultatif. Nombre de réponses générées à renvoyer.

Cette valeur doit être comprise entre 1 et 8, inclus. Si cette valeur n'est pas définie, la valeur par défaut est 1.

maxOutputTokens integer

Facultatif. Nombre maximal de jetons à inclure dans un candidat.

Si cette valeur n'est pas définie, la valeur par défaut sera celle de outputTokenLimit spécifiée dans la spécification Model.

topP number

Facultatif. Probabilité cumulée maximale des jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage combiné Top-k et du noyau.

Les jetons sont triés en fonction des probabilités qui leur sont attribuées, de sorte que seuls les jetons les plus probables sont pris en compte. L'échantillonnage Top-k limite directement le nombre maximal de jetons à prendre en compte, tandis que l'échantillonnage Nucleus limite le nombre de jetons en fonction de la probabilité cumulée.

Remarque : La valeur par défaut varie selon le modèle. Consultez l'attribut Model.top_p de Model renvoyé par la fonction getModel.

topK integer

Facultatif. Nombre maximal de jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage combiné Top-k et du noyau.

L'échantillonnage top-k prend en compte l'ensemble des topK jetons les plus probables. La valeur par défaut est 40.

Remarque : La valeur par défaut varie selon le modèle. Consultez l'attribut Model.top_k de Model renvoyé par la fonction getModel.

Corps de la réponse

Si la requête aboutit, le corps de la réponse contient une instance de GenerateTextResponse.

Méthode : models.countTextTokens

Exécute le tokenizer d'un modèle sur un texte et renvoie le nombre de jetons.

Point de terminaison

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Paramètres de chemin d'accès

model string

Obligatoire. Nom de ressource du modèle. Il sert d'ID pour le modèle.

Ce nom doit correspondre à un nom de modèle renvoyé par la méthode models.list.

Format : models/{model}. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

Champs
prompt object (TextPrompt)

Obligatoire. Texte d'entrée en forme libre fourni au modèle en tant que requête.

Corps de la réponse

Réponse de models.countTextTokens.

Elle renvoie le tokenCount du modèle pour le prompt.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
tokenCount integer

Nombre de jetons dans lesquels model tokenise prompt.

Toujours non négatif.

Représentation JSON
{
  "tokenCount": integer
}

Méthode : models.generateMessage

Génère une réponse du modèle à partir d'une entrée MessagePrompt.

Point de terminaison

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Paramètres de chemin d'accès

model string

Obligatoire. Nom du modèle à utiliser.

Format : name=models/{model}. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

Champs
prompt object (MessagePrompt)

Obligatoire. Entrée textuelle structurée fournie au modèle sous forme de requête.

À partir d'une requête, le modèle renvoie ce qu'il prédit être le prochain message de la discussion.

temperature number

Facultatif. Contrôle le caractère aléatoire de la sortie.

Les valeurs peuvent être comprises dans l'intervalle [0.0,1.0] (inclus). Une valeur plus proche de 1.0 produira des réponses plus variées, tandis qu'une valeur plus proche de 0.0 entraînera généralement des réponses moins surprenantes de la part du modèle.

candidateCount integer

Facultatif. Nombre de messages de réponse générés à renvoyer.

Cette valeur doit être comprise entre [1, 8] inclus. Si cette valeur n'est pas définie, la valeur par défaut est 1.

topP number

Facultatif. Probabilité cumulée maximale des jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage combiné Top-k et du noyau.

L'échantillonnage du noyau prend en compte le plus petit ensemble de jetons dont la somme des probabilités est au moins égale à topP.

topK integer

Facultatif. Nombre maximal de jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage combiné Top-k et du noyau.

L'échantillonnage top-k prend en compte l'ensemble des topK jetons les plus probables.

Corps de la réponse

Réponse du modèle.

Cela inclut les messages candidats et l'historique des conversations sous la forme de messages classés par ordre chronologique.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
candidates[] object (Message)

Messages de réponse candidats du modèle.

messages[] object (Message)

Historique des conversations utilisé par le modèle.

filters[] object (ContentFilter)

Ensemble de métadonnées de filtrage de contenu pour le texte de la requête et de la réponse.

Cela indique le ou les SafetyCategory qui ont bloqué un candidat à partir de cette réponse, le HarmProbability le plus bas qui a déclenché un blocage et le paramètre HarmThreshold pour cette catégorie.

Représentation JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Méthode : models.countMessageTokens

Exécute le tokenizer d'un modèle sur une chaîne et renvoie le nombre de jetons.

Point de terminaison

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Paramètres de chemin d'accès

model string

Obligatoire. Nom de ressource du modèle. Il sert d'ID pour le modèle.

Ce nom doit correspondre à un nom de modèle renvoyé par la méthode models.list.

Format : models/{model}. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

Champs
prompt object (MessagePrompt)

Obligatoire. Requête dont le nombre de jetons doit être renvoyé.

Corps de la réponse

Réponse de models.countMessageTokens.

Elle renvoie le tokenCount du modèle pour le prompt.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
tokenCount integer

Nombre de jetons dans lesquels model tokenise prompt.

Toujours non négatif.

Représentation JSON
{
  "tokenCount": integer
}

Méthode : models.embedText

Génère un embedding à partir du modèle, en fonction d'un message d'entrée.

Point de terminaison

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Paramètres de chemin d'accès

model string

Obligatoire. Nom du modèle à utiliser au format model=models/{model}. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

Champs
text string

Facultatif. Texte d'entrée au format libre que le modèle transformera en embedding.

Corps de la réponse

Réponse à une requête EmbedTextRequest.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
embedding object (Embedding)

Uniquement en sortie. Embedding généré à partir du texte d'entrée.

Représentation JSON
{
  "embedding": {
    object (Embedding)
  }
}

Méthode : models.batchEmbedText

Génère plusieurs embeddings à partir du texte d'entrée du modèle dans un appel synchrone.

Point de terminaison

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Paramètres de chemin d'accès

model string

Obligatoire. Nom du Model à utiliser pour générer l'embedding. Exemples : models/embedding-gecko-001. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

Champs
texts[] string

Facultatif. Textes d'entrée au format libre que le modèle transformera en embedding. La limite actuelle est de 100 textes. Au-delà, une erreur sera générée.

requests[] object (EmbedTextRequest)

Facultatif. Requêtes d'intégration pour le lot. Vous ne pouvez définir qu'un seul élément texts ou requests.

Corps de la réponse

Réponse à une requête EmbedTextRequest.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
embeddings[] object (Embedding)

Uniquement en sortie. Embeddings générés à partir du texte d'entrée.

Représentation JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Demandez à obtenir un embedding de texte à partir du modèle.

Champs
model string

Obligatoire. Nom du modèle à utiliser au format model=models/{model}.

text string

Facultatif. Texte d'entrée au format libre que le modèle transformera en embedding.

Représentation JSON
{
  "model": string,
  "text": string
}

ContentFilter

Métadonnées de filtrage de contenu associées au traitement d'une seule requête.

ContentFilter contient un motif et une chaîne d'assistance facultative. Le motif peut ne pas être spécifié.

Champs
reason enum (BlockedReason)

Raison pour laquelle le contenu a été bloqué lors du traitement de la demande.

message string

Chaîne décrivant plus en détail le comportement de filtrage.

Représentation JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

Liste des raisons pour lesquelles le contenu a pu être bloqué.

Enums
BLOCKED_REASON_UNSPECIFIED Aucun motif de blocage n'a été spécifié.
SAFETY Le contenu a été bloqué par les paramètres de sécurité.
OTHER Le contenu a été bloqué, mais la raison n'est pas classée dans une catégorie.

Embedding

Liste de nombres à virgule flottante représentant l'embedding.

Champs
value[] number

Valeurs d'embedding.

Représentation JSON
{
  "value": [
    number
  ]
}

Message

Unité de base du texte structuré.

Un Message inclut un author et le content du Message.

author est utilisé pour taguer les messages lorsqu'ils sont fournis au modèle sous forme de texte.

Champs
author string

Facultatif. Auteur de ce message.

Il sert de clé pour taguer le contenu de ce message lorsqu'il est transmis au modèle sous forme de texte.

L'auteur peut être n'importe quelle chaîne alphanumérique.

content string

Obligatoire. Contenu textuel de la Message structurée.

citationMetadata object (CitationMetadata)

Uniquement en sortie. Informations de citation pour les content générés par le modèle dans ce Message.

Si ce Message a été généré en tant que sortie du modèle, ce champ peut être renseigné avec des informations d'attribution pour tout texte inclus dans le content. Ce champ n'est utilisé que dans la sortie.

Représentation JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

Tout le texte d'entrée structuré transmis au modèle sous forme de requête.

Un MessagePrompt contient un ensemble structuré de champs qui fournissent le contexte de la conversation, des exemples de paires de messages d'entrée utilisateur/sortie du modèle qui préparent le modèle à répondre de différentes manières, ainsi que l'historique de la conversation ou la liste des messages représentant les tours de conversation alternés entre l'utilisateur et le modèle.

Champs
context string

Facultatif. Texte qui doit être fourni au modèle en premier pour ancrer la réponse.

Si cette context n'est pas vide, elle sera d'abord fournie au modèle avant examples et messages. Lorsque vous utilisez un context, veillez à le fournir pour chaque requête afin de maintenir la continuité.

Ce champ peut contenir une description de votre requête au modèle pour fournir du contexte et guider les réponses. Exemples : "Traduis cette phrase de l'anglais vers le français" ou "Étant donné une affirmation, classe le sentiment comme joyeux, triste ou neutre".

Tout ce qui est inclus dans ce champ prévaudra sur l'historique des messages si la taille totale de l'entrée dépasse la inputTokenLimit du modèle et que la requête d'entrée est tronquée.

examples[] object (Example)

Facultatif. Exemples de ce que le modèle doit générer.

Cela inclut à la fois l'entrée utilisateur et la réponse que le modèle doit imiter.

Ces examples sont traités de la même manière que les messages de conversation, sauf qu'ils ont la priorité sur l'historique dans messages : si la taille totale de l'entrée dépasse la inputTokenLimit du modèle, l'entrée sera tronquée. Les éléments seront supprimés de messages avant le examples.

messages[] object (Message)

Obligatoire. Instantané de l'historique des conversations récentes, trié par ordre chronologique.

Les tours alternent entre deux auteurs.

Si la taille totale de l'entrée dépasse la limite de inputTokenLimit du modèle, l'entrée sera tronquée : les éléments les plus anciens seront supprimés de messages.

Représentation JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Exemple

Exemple d'entrée/sortie utilisé pour donner des instructions au modèle.

Il montre comment le modèle doit répondre ou mettre en forme sa réponse.

Champs
input object (Message)

Obligatoire. Exemple d'entrée Message de l'utilisateur.

output object (Message)

Obligatoire. Exemple de ce que le modèle doit générer en fonction de l'entrée.

Représentation JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

Réponse du modèle, y compris les suggestions de saisie.

Champs
candidates[] object (TextCompletion)

Réponses candidates du modèle.

filters[] object (ContentFilter)

Ensemble de métadonnées de filtrage de contenu pour le texte de la requête et de la réponse.

Cela indique le ou les SafetyCategory qui ont bloqué un candidat à partir de cette réponse, le HarmProbability le plus bas qui a déclenché un blocage et le paramètre HarmThreshold pour cette catégorie. Cela indique la plus petite modification à apporter à SafetySettings pour débloquer au moins une réponse.

Le blocage est configuré par le SafetySettings dans la requête (ou le SafetySettings par défaut de l'API).

safetyFeedback[] object (SafetyFeedback)

Renvoie tout commentaire sur la sécurité lié au filtrage de contenu.

Représentation JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Texte de sortie renvoyé par un modèle.

Champs
output string

Uniquement en sortie. Texte généré renvoyé par le modèle.

safetyRatings[] object (SafetyRating)

Évaluations de la sécurité d'une réponse.

Il ne peut y avoir qu'une seule note par catégorie.

citationMetadata object (CitationMetadata)

Uniquement en sortie. Informations de citation pour les output générés par le modèle dans ce TextCompletion.

Ce champ peut être renseigné avec des informations sur l'attribution pour tout texte inclus dans output.

Représentation JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

Commentaires sur la sécurité pour une requête entière.

Ce champ est renseigné si le contenu de l'entrée et/ou de la réponse est bloqué en raison des paramètres de sécurité. Il est possible que SafetyFeedback n'existe pas pour chaque HarmCategory. Chaque SafetyFeedback renverra les paramètres de sécurité utilisés par la requête, ainsi que la HarmProbability la plus faible qui devrait être autorisée pour renvoyer un résultat.

Champs
rating object (SafetyRating)

Classification de sécurité évaluée à partir du contenu.

setting object (SafetySetting)

Paramètres de sécurité appliqués à la requête.

Représentation JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Texte fourni au modèle en tant que requête.

Le modèle utilisera ce TextPrompt pour générer une complétion de texte.

Champs
text string

Obligatoire. Texte de l'invite.

Représentation JSON
{
  "text": string
}