PaLM (decommissioned)

Metoda: models.generateText

Generuje odpowiedź modelu na podstawie wiadomości wejściowej.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Parametry ścieżki

model string

Wymagane. Nazwa Model lub TunedModel, która ma być użyta do wygenerowania dokończenia. Przykłady: models/text-bison-001, tunedModels/sentence-translator-u3b7m. Ma on postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (TextPrompt)

Wymagane. Tekst wejściowy w formie swobodnej, który jest przekazywany do modelu jako prompt.

Na podstawie prompta model wygeneruje odpowiedź TextCompletion, która według niego jest dokończeniem tekstu wejściowego.

safetySettings[] object (SafetySetting)

Opcjonalnie. Lista unikalnych instancji SafetySetting do blokowania niebezpiecznych treści.

które będą egzekwowane w przypadku GenerateTextRequest.promptGenerateTextResponse.candidates. Nie powinno być więcej niż 1 ustawienia dla każdego typu SafetyCategory. Interfejs API będzie blokować wszystkie prompty i odpowiedzi, które nie spełniają progów określonych w tych ustawieniach. Ta lista zastępuje domyślne ustawienia każdego parametru SafetyCategory określonego w parametrze safetySettings. Jeśli na liście nie ma wartości SafetySetting dla danego SafetyCategory, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. W usłudze tekstowej obsługiwane są kategorie szkodliwości HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL i HARM_CATEGORY_DANGEROUS.

stopSequences[] string

Zestaw sekwencji znaków (maksymalnie 5), które zatrzymają generowanie danych wyjściowych. Jeśli zostanie określona, interfejs API zatrzyma się przy pierwszym wystąpieniu sekwencji zatrzymania. Sekwencja zatrzymania nie będzie częścią odpowiedzi.

temperature number

Opcjonalnie. Określa losowość danych wyjściowych. Uwaga: wartość domyślna różni się w zależności od modelu. Sprawdź atrybut Model.temperature elementu Model zwróconego przez funkcję getModel.

Wartości mogą mieścić się w zakresie [0,0, 1,0] (włącznie). Wartość bliższa 1,0 spowoduje, że odpowiedzi będą bardziej zróżnicowane i kreatywne, a wartość bliższa 0,0 zwykle spowoduje, że model będzie generować bardziej bezpośrednie odpowiedzi.

candidateCount integer

Opcjonalnie. Liczba wygenerowanych odpowiedzi do zwrócenia.

Ta wartość musi mieścić się w przedziale [1, 8] włącznie. Jeśli nie podasz tu żadnej wartości, zostanie użyta wartość domyślna 1.

maxOutputTokens integer

Opcjonalnie. Maksymalna liczba tokenów do uwzględnienia w propozycji.

Jeśli nie jest ustawiona, domyślnie będzie używana wartość outputTokenLimit określona w specyfikacji Model.

topP number

Opcjonalnie. Maksymalne skumulowane prawdopodobieństwo tokenów, które należy wziąć pod uwagę podczas próbkowania.

Model korzysta z połączenia próbkowania Top-k i próbkowania jądrowego.

Tokeny są sortowane na podstawie przypisanych im prawdopodobieństw, dzięki czemu brane pod uwagę są tylko najbardziej prawdopodobne tokeny. Próbkowanie Top-k bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, a próbkowanie Nucleus ogranicza liczbę tokenów na podstawie prawdopodobieństwa skumulowanego.

Uwaga: wartość domyślna różni się w zależności od modelu. Sprawdź atrybut Model.top_p elementu Model zwróconego przez funkcję getModel.

topK integer

Opcjonalnie. Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.

Model korzysta z połączenia próbkowania Top-k i próbkowania jądrowego.

Próbkowanie Top-k uwzględnia zbiór topK najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.

Uwaga: wartość domyślna różni się w zależności od modelu. Sprawdź atrybut Model.top_k elementu Model zwróconego przez funkcję getModel.

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse.

Metoda: models.countTextTokens

Uruchamia tokenizator modelu na tekście i zwraca liczbę tokenów.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Parametry ścieżki

model string

Wymagane. Nazwa zasobu modelu. Służy on jako identyfikator modelu.

Ta nazwa powinna pasować do nazwy modelu zwróconej przez metodę models.list.

Format: models/{model}. Przyjmuje postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (TextPrompt)

Wymagane. Tekst wejściowy w formie swobodnej, który jest przekazywany do modelu jako prompt.

Treść odpowiedzi

Odpowiedź od models.countTextTokens.

Zwraca tokenCount modelu dla prompt.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
tokenCount integer

Liczba tokenów, na które model dzieli prompt.

Zawsze nieujemna.

Zapis JSON
{
  "tokenCount": integer
}

Metoda: models.generateMessage

Generuje odpowiedź modelu na podstawie danych wejściowych MessagePrompt.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Parametry ścieżki

model string

Wymagane. Nazwa modelu do użycia.

Format: name=models/{model}. Ma on postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (MessagePrompt)

Wymagane. Ustrukturyzowane dane wejściowe w formie tekstu przekazywane do modelu jako prompt.

Na podstawie promptu model zwróci to, co według niego będzie następną wiadomością w dyskusji.

temperature number

Opcjonalnie. Określa losowość danych wyjściowych.

Wartości mogą mieścić się w zakresie [0.0,1.0] (włącznie). Wartość bliższa 1.0 spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość bliższa 0.0 – mniej zaskakujące.

candidateCount integer

Opcjonalnie. Liczba wygenerowanych wiadomości z odpowiedzią do zwrócenia.

Ta wartość musi mieścić się w przedziale od [1, 8] włącznie. Jeśli nie podasz żadnej wartości, domyślnie zostanie użyta wartość 1.

topP number

Opcjonalnie. Maksymalne skumulowane prawdopodobieństwo tokenów, które należy wziąć pod uwagę podczas próbkowania.

Model korzysta z połączenia próbkowania Top-k i próbkowania jądrowego.

Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP.

topK integer

Opcjonalnie. Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.

Model korzysta z połączenia próbkowania Top-k i próbkowania jądrowego.

Próbkowanie Top-k uwzględnia zbiór topK najbardziej prawdopodobnych tokenów.

Treść odpowiedzi

Odpowiedź modelu.

Obejmuje to wiadomości z propozycjami i historię rozmów w postaci wiadomości uporządkowanych chronologicznie.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
candidates[] object (Message)

Wiadomości z odpowiedziami kandydującymi od modelu.

messages[] object (Message)

Historia rozmowy używana przez model.

filters[] object (ContentFilter)

Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.

Wskazuje to, które SafetyCategory zablokowały kandydata w tej odpowiedzi, najniższy HarmProbability, który spowodował blokadę, oraz ustawienie HarmThreshold dla tej kategorii.

Zapis JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Metoda: models.countMessageTokens

Uruchamia tokenizer modelu na ciągu znaków i zwraca liczbę tokenów.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Parametry ścieżki

model string

Wymagane. Nazwa zasobu modelu. Służy on jako identyfikator modelu.

Ta nazwa powinna pasować do nazwy modelu zwróconej przez metodę models.list.

Format: models/{model}. Przyjmuje postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (MessagePrompt)

Wymagane. Prompt, którego liczba tokenów ma zostać zwrócona.

Treść odpowiedzi

Odpowiedź od models.countMessageTokens.

Zwraca tokenCount modelu dla prompt.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
tokenCount integer

Liczba tokenów, na które model dzieli prompt.

Zawsze nieujemna.

Zapis JSON
{
  "tokenCount": integer
}

Metoda: models.embedText

Generuje wektor na podstawie modelu na podstawie wiadomości wejściowej.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Parametry ścieżki

model string

Wymagane. Nazwa modelu do użycia w formacie model=models/{model}. Ma on postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
text string

Opcjonalnie. Tekst wejściowy w formie swobodnej, który model przekształci w wektor.

Treść odpowiedzi

Odpowiedź na EmbedTextRequest.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
embedding object (Embedding)

Tylko dane wyjściowe. Osadzenie wygenerowane na podstawie tekstu wejściowego.

Zapis JSON
{
  "embedding": {
    object (Embedding)
  }
}

Metoda: models.batchEmbedText

Generuje wiele osadzeń z modelu na podstawie tekstu wejściowego w wywołaniu synchronicznym.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Parametry ścieżki

model string

Wymagane. Nazwa Model, która ma zostać użyta do wygenerowania osadzania. Przykłady: models/embedding-gecko-001. Ma on format models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
texts[] string

Opcjonalnie. Teksty wejściowe w formie dowolnej, które model przekształci w wektor. Obecny limit to 100 tekstów. Jeśli zostanie przekroczony, pojawi się błąd.

requests[] object (EmbedTextRequest)

Opcjonalnie. Umieść prośby w pakiecie. Można ustawić tylko jedną wartość texts lub requests.

Treść odpowiedzi

Odpowiedź na EmbedTextRequest.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
embeddings[] object (Embedding)

Tylko dane wyjściowe. Wektory dystrybucyjne wygenerowane na podstawie tekstu wejściowego.

Zapis JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Żądanie uzyskania wektora dystrybucyjnego tekstu z modelu.

Pola
model string

Wymagane. Nazwa modelu do użycia w formacie model=models/{model}.

text string

Opcjonalnie. Tekst wejściowy w formie swobodnej, który model przekształci w wektor.

Zapis JSON
{
  "model": string,
  "text": string
}

ContentFilter

Metadane filtrowania treści powiązane z przetwarzaniem pojedynczego żądania.

ContentFilter zawiera powód i opcjonalny ciąg pomocniczy. Przyczyna może być nieokreślona.

Pola
reason enum (BlockedReason)

Przyczyna zablokowania treści podczas przetwarzania żądania.

message string

Ciąg znaków, który szczegółowo opisuje sposób filtrowania.

Zapis JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

Lista powodów, dla których treści mogły zostać zablokowane.

Wartości w polu enum
BLOCKED_REASON_UNSPECIFIED Nie podano przyczyny blokady.
SAFETY Treści zostały zablokowane przez ustawienia bezpieczeństwa.
OTHER Treści zostały zablokowane, ale przyczyna nie została sklasyfikowana.

Umieszczanie

Lista liczb zmiennoprzecinkowych reprezentujących wektor.

Pola
value[] number

Wartości wektora dystrybucyjnego.

Zapis JSON
{
  "value": [
    number
  ]
}

Wiadomość

Podstawowa jednostka tekstu strukturalnego.

Message zawiera authorcontent Message.

Symbol author służy do oznaczania wiadomości, gdy są one przekazywane do modelu w formie tekstu.

Pola
author string

Opcjonalnie. Autor tej wiadomości.

Służy on jako klucz do oznaczania treści tej wiadomości, gdy jest ona przekazywana do modelu w postaci tekstu.

Autorem może być dowolny ciąg alfanumeryczny.

content string

Wymagane. Treść tekstowa strukturalnego elementu Message.

citationMetadata object (CitationMetadata)

Tylko dane wyjściowe. Informacje o cytowaniu wygenerowanych przez model content w tym Message.

Jeśli ten Message został wygenerowany jako dane wyjściowe modelu, to pole może zawierać informacje o atrybucji dotyczące tekstu zawartego w content. To pole jest używane tylko w danych wyjściowych.

Zapis JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

Cały tekst wejściowy o strukturze przekazany do modelu jako prompt.

MessagePrompt zawiera uporządkowany zestaw pól, które dostarczają kontekstu rozmowy, przykłady par wiadomości wejściowych użytkownika i wyjściowych modelu, które przygotowują model do odpowiadania na różne sposoby, oraz historię rozmowy lub listę wiadomości reprezentujących naprzemienne tury rozmowy między użytkownikiem a modelem.

Pola
context string

Opcjonalnie. Tekst, który należy najpierw przekazać modelowi, aby ugruntować odpowiedź.

Jeśli nie jest pusta, ta wartość context zostanie przekazana do modelu przed wartościami examplesmessages. Jeśli używasz context, pamiętaj, aby podawać go w każdym żądaniu, aby zachować ciągłość.

To pole może zawierać opis prompta dla modelu, który pomoże mu zrozumieć kontekst i udzielać odpowiednich odpowiedzi. Przykłady: „Przetłumacz to zdanie z angielskiego na francuski” lub „Na podstawie podanego stwierdzenia określ nastawienie jako pozytywne, negatywne lub neutralne”.

Wszystko, co znajduje się w tym polu, ma pierwszeństwo przed historią wiadomości, jeśli łączny rozmiar danych wejściowych przekracza limit inputTokenLimit modelu, a żądanie wejściowe jest obcinane.

examples[] object (Example)

Opcjonalnie. Przykłady tego, co model powinien generować.

Obejmuje to zarówno dane wejściowe użytkownika, jak i odpowiedź, którą model powinien naśladować.

Te examples są traktowane tak samo jak wiadomości w konwersacji, z tym że mają pierwszeństwo przed historią w messages: jeśli łączny rozmiar danych wejściowych przekroczy inputTokenLimit modelu, dane wejściowe zostaną obcięte. Elementy zostaną usunięte z messages przed examples.

messages[] object (Message)

Wymagane. Zrzut ostatniej historii rozmów posortowanej chronologicznie.

Kolejność wypowiedzi jest naprzemienna.

Jeśli łączny rozmiar danych wejściowych przekracza inputTokenLimit, dane wejściowe zostaną obcięte: najstarsze elementy zostaną usunięte z messages.

Zapis JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Przykład

Przykład danych wejściowych i wyjściowych używany do instruowania modelu.

Pokazuje, jak model powinien odpowiadać lub formatować odpowiedź.

Pola
input object (Message)

Wymagane. Przykład danych wejściowych Message od użytkownika.

output object (Message)

Wymagane. Przykład danych wyjściowych, które model powinien wygenerować na podstawie danych wejściowych.

Zapis JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

Odpowiedź modelu, w tym proponowane dokończenia.

Pola
candidates[] object (TextCompletion)

Odpowiedzi kandydujące modelu.

filters[] object (ContentFilter)

Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.

Wskazuje to, które SafetyCategory zablokowały kandydata w tej odpowiedzi, najniższy HarmProbability, który spowodował blokadę, oraz ustawienie HarmThreshold dla tej kategorii. Wskazuje to najmniejszą zmianę w SafetySettings, która byłaby konieczna do odblokowania co najmniej 1 odpowiedzi.

Blokowanie jest konfigurowane przez parametr SafetySettings w żądaniu (lub domyślny parametr SafetySettings interfejsu API).

safetyFeedback[] object (SafetyFeedback)

Zwraca wszelkie opinie dotyczące bezpieczeństwa związane z filtrowaniem treści.

Zapis JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Tekst wyjściowy zwrócony przez model.

Pola
output string

Tylko dane wyjściowe. Wygenerowany tekst zwrócony przez model.

safetyRatings[] object (SafetyRating)

oceny bezpieczeństwa odpowiedzi.

W każdej kategorii może być maksymalnie 1 ocena.

citationMetadata object (CitationMetadata)

Tylko dane wyjściowe. Informacje o cytowaniu wygenerowanych przez model output w tym TextCompletion.

To pole może zawierać informacje o atrybucji dowolnego tekstu zawartego w output.

Zapis JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

Opinia dotycząca bezpieczeństwa całego żądania.

To pole jest wypełniane, jeśli treści w danych wejściowych lub odpowiedzi są blokowane z powodu ustawień bezpieczeństwa. W przypadku niektórych kategorii szkodliwości może nie być dostępna informacja zwrotna dotycząca bezpieczeństwa. Każda odpowiedź SafetyFeedback będzie zawierać ustawienia bezpieczeństwa użyte w żądaniu oraz najniższe prawdopodobieństwo szkodliwości, które powinno być dozwolone, aby zwrócić wynik.

Pola
rating object (SafetyRating)

Ocena bezpieczeństwa na podstawie treści.

setting object (SafetySetting)

Ustawienia bezpieczeństwa zastosowane w żądaniu.

Zapis JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Tekst przekazany do modelu jako prompt.

Model użyje tego elementu TextPrompt do wygenerowania dokończenia tekstu.

Pola
text string

Wymagane. Tekst promptu.

Zapis JSON
{
  "text": string
}