Metoda: models.generateText
Generuje odpowiedź modelu na podstawie wiadomości wejściowej.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
Parametry ścieżki
model
string
Wymagane. Nazwa Model
lub TunedModel
, która ma być użyta do wygenerowania dokończenia. Przykłady: models/text-bison-001, tunedModels/sentence-translator-u3b7m. Ma on postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (TextPrompt
)
Wymagane. Tekst wejściowy w formie swobodnej, który jest przekazywany do modelu jako prompt.
Na podstawie prompta model wygeneruje odpowiedź TextCompletion, która według niego jest dokończeniem tekstu wejściowego.
safetySettings[]
object (SafetySetting
)
Opcjonalnie. Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
które będą egzekwowane w przypadku GenerateTextRequest.prompt
i GenerateTextResponse.candidates
. Nie powinno być więcej niż 1 ustawienia dla każdego typu SafetyCategory
. Interfejs API będzie blokować wszystkie prompty i odpowiedzi, które nie spełniają progów określonych w tych ustawieniach. Ta lista zastępuje domyślne ustawienia każdego parametru SafetyCategory
określonego w parametrze safetySettings. Jeśli na liście nie ma wartości SafetySetting
dla danego SafetyCategory
, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. W usłudze tekstowej obsługiwane są kategorie szkodliwości HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL i HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
Zestaw sekwencji znaków (maksymalnie 5), które zatrzymają generowanie danych wyjściowych. Jeśli zostanie określona, interfejs API zatrzyma się przy pierwszym wystąpieniu sekwencji zatrzymania. Sekwencja zatrzymania nie będzie częścią odpowiedzi.
temperature
number
Opcjonalnie. Określa losowość danych wyjściowych. Uwaga: wartość domyślna różni się w zależności od modelu. Sprawdź atrybut Model.temperature
elementu Model
zwróconego przez funkcję getModel
.
Wartości mogą mieścić się w zakresie [0,0, 1,0] (włącznie). Wartość bliższa 1,0 spowoduje, że odpowiedzi będą bardziej zróżnicowane i kreatywne, a wartość bliższa 0,0 zwykle spowoduje, że model będzie generować bardziej bezpośrednie odpowiedzi.
candidateCount
integer
Opcjonalnie. Liczba wygenerowanych odpowiedzi do zwrócenia.
Ta wartość musi mieścić się w przedziale [1, 8] włącznie. Jeśli nie podasz tu żadnej wartości, zostanie użyta wartość domyślna 1.
maxOutputTokens
integer
Opcjonalnie. Maksymalna liczba tokenów do uwzględnienia w propozycji.
Jeśli nie jest ustawiona, domyślnie będzie używana wartość outputTokenLimit określona w specyfikacji Model
.
topP
number
Opcjonalnie. Maksymalne skumulowane prawdopodobieństwo tokenów, które należy wziąć pod uwagę podczas próbkowania.
Model korzysta z połączenia próbkowania Top-k i próbkowania jądrowego.
Tokeny są sortowane na podstawie przypisanych im prawdopodobieństw, dzięki czemu brane pod uwagę są tylko najbardziej prawdopodobne tokeny. Próbkowanie Top-k bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, a próbkowanie Nucleus ogranicza liczbę tokenów na podstawie prawdopodobieństwa skumulowanego.
Uwaga: wartość domyślna różni się w zależności od modelu. Sprawdź atrybut Model.top_p
elementu Model
zwróconego przez funkcję getModel
.
topK
integer
Opcjonalnie. Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Model korzysta z połączenia próbkowania Top-k i próbkowania jądrowego.
Próbkowanie Top-k uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.
Uwaga: wartość domyślna różni się w zależności od modelu. Sprawdź atrybut Model.top_k
elementu Model
zwróconego przez funkcję getModel
.
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse
.
Metoda: models.countTextTokens
Uruchamia tokenizator modelu na tekście i zwraca liczbę tokenów.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
Parametry ścieżki
model
string
Wymagane. Nazwa zasobu modelu. Służy on jako identyfikator modelu.
Ta nazwa powinna pasować do nazwy modelu zwróconej przez metodę models.list
.
Format: models/{model}
. Przyjmuje postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (TextPrompt
)
Wymagane. Tekst wejściowy w formie swobodnej, który jest przekazywany do modelu jako prompt.
Treść odpowiedzi
Odpowiedź od models.countTextTokens
.
Zwraca tokenCount
modelu dla prompt
.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
tokenCount
integer
Liczba tokenów, na które model
dzieli prompt
.
Zawsze nieujemna.
Zapis JSON |
---|
{ "tokenCount": integer } |
Metoda: models.generateMessage
Generuje odpowiedź modelu na podstawie danych wejściowych MessagePrompt
.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
Parametry ścieżki
model
string
Wymagane. Nazwa modelu do użycia.
Format: name=models/{model}
. Ma on postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (MessagePrompt
)
Wymagane. Ustrukturyzowane dane wejściowe w formie tekstu przekazywane do modelu jako prompt.
Na podstawie promptu model zwróci to, co według niego będzie następną wiadomością w dyskusji.
temperature
number
Opcjonalnie. Określa losowość danych wyjściowych.
Wartości mogą mieścić się w zakresie [0.0,1.0]
(włącznie). Wartość bliższa 1.0
spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość bliższa 0.0
– mniej zaskakujące.
candidateCount
integer
Opcjonalnie. Liczba wygenerowanych wiadomości z odpowiedzią do zwrócenia.
Ta wartość musi mieścić się w przedziale od [1, 8]
włącznie. Jeśli nie podasz żadnej wartości, domyślnie zostanie użyta wartość 1
.
topP
number
Opcjonalnie. Maksymalne skumulowane prawdopodobieństwo tokenów, które należy wziąć pod uwagę podczas próbkowania.
Model korzysta z połączenia próbkowania Top-k i próbkowania jądrowego.
Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP
.
topK
integer
Opcjonalnie. Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Model korzysta z połączenia próbkowania Top-k i próbkowania jądrowego.
Próbkowanie Top-k uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów.
Treść odpowiedzi
Odpowiedź modelu.
Obejmuje to wiadomości z propozycjami i historię rozmów w postaci wiadomości uporządkowanych chronologicznie.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
candidates[]
object (Message
)
Wiadomości z odpowiedziami kandydującymi od modelu.
messages[]
object (Message
)
Historia rozmowy używana przez model.
filters[]
object (ContentFilter
)
Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.
Wskazuje to, które SafetyCategory
zablokowały kandydata w tej odpowiedzi, najniższy HarmProbability
, który spowodował blokadę, oraz ustawienie HarmThreshold dla tej kategorii.
Zapis JSON |
---|
{ "candidates": [ { object ( |
Metoda: models.countMessageTokens
Uruchamia tokenizer modelu na ciągu znaków i zwraca liczbę tokenów.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
Parametry ścieżki
model
string
Wymagane. Nazwa zasobu modelu. Służy on jako identyfikator modelu.
Ta nazwa powinna pasować do nazwy modelu zwróconej przez metodę models.list
.
Format: models/{model}
. Przyjmuje postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (MessagePrompt
)
Wymagane. Prompt, którego liczba tokenów ma zostać zwrócona.
Treść odpowiedzi
Odpowiedź od models.countMessageTokens
.
Zwraca tokenCount
modelu dla prompt
.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
tokenCount
integer
Liczba tokenów, na które model
dzieli prompt
.
Zawsze nieujemna.
Zapis JSON |
---|
{ "tokenCount": integer } |
Metoda: models.embedText
Generuje wektor na podstawie modelu na podstawie wiadomości wejściowej.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
Parametry ścieżki
model
string
Wymagane. Nazwa modelu do użycia w formacie model=models/{model}. Ma on postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
text
string
Opcjonalnie. Tekst wejściowy w formie swobodnej, który model przekształci w wektor.
Metoda: models.batchEmbedText
Generuje wiele osadzeń z modelu na podstawie tekstu wejściowego w wywołaniu synchronicznym.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
Parametry ścieżki
model
string
Wymagane. Nazwa Model
, która ma zostać użyta do wygenerowania osadzania. Przykłady: models/embedding-gecko-001. Ma on format models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
texts[]
string
Opcjonalnie. Teksty wejściowe w formie dowolnej, które model przekształci w wektor. Obecny limit to 100 tekstów. Jeśli zostanie przekroczony, pojawi się błąd.
requests[]
object (EmbedTextRequest
)
Opcjonalnie. Umieść prośby w pakiecie. Można ustawić tylko jedną wartość texts
lub requests
.
Treść odpowiedzi
Odpowiedź na EmbedTextRequest.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
embeddings[]
object (Embedding
)
Tylko dane wyjściowe. Wektory dystrybucyjne wygenerowane na podstawie tekstu wejściowego.
Zapis JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Żądanie uzyskania wektora dystrybucyjnego tekstu z modelu.
model
string
Wymagane. Nazwa modelu do użycia w formacie model=models/{model}.
text
string
Opcjonalnie. Tekst wejściowy w formie swobodnej, który model przekształci w wektor.
Zapis JSON |
---|
{ "model": string, "text": string } |
ContentFilter
Metadane filtrowania treści powiązane z przetwarzaniem pojedynczego żądania.
ContentFilter zawiera powód i opcjonalny ciąg pomocniczy. Przyczyna może być nieokreślona.
reason
enum (BlockedReason
)
Przyczyna zablokowania treści podczas przetwarzania żądania.
message
string
Ciąg znaków, który szczegółowo opisuje sposób filtrowania.
Zapis JSON |
---|
{
"reason": enum ( |
BlockedReason
Lista powodów, dla których treści mogły zostać zablokowane.
Wartości w polu enum | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Nie podano przyczyny blokady. |
SAFETY |
Treści zostały zablokowane przez ustawienia bezpieczeństwa. |
OTHER |
Treści zostały zablokowane, ale przyczyna nie została sklasyfikowana. |
Umieszczanie
Lista liczb zmiennoprzecinkowych reprezentujących wektor.
value[]
number
Wartości wektora dystrybucyjnego.
Zapis JSON |
---|
{ "value": [ number ] } |
Wiadomość
Podstawowa jednostka tekstu strukturalnego.
Message
zawiera author
i content
Message
.
Symbol author
służy do oznaczania wiadomości, gdy są one przekazywane do modelu w formie tekstu.
content
string
Wymagane. Treść tekstowa strukturalnego elementu Message
.
citationMetadata
object (CitationMetadata
)
Tylko dane wyjściowe. Informacje o cytowaniu wygenerowanych przez model content
w tym Message
.
Jeśli ten Message
został wygenerowany jako dane wyjściowe modelu, to pole może zawierać informacje o atrybucji dotyczące tekstu zawartego w content
. To pole jest używane tylko w danych wyjściowych.
Zapis JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Cały tekst wejściowy o strukturze przekazany do modelu jako prompt.
MessagePrompt
zawiera uporządkowany zestaw pól, które dostarczają kontekstu rozmowy, przykłady par wiadomości wejściowych użytkownika i wyjściowych modelu, które przygotowują model do odpowiadania na różne sposoby, oraz historię rozmowy lub listę wiadomości reprezentujących naprzemienne tury rozmowy między użytkownikiem a modelem.
context
string
Opcjonalnie. Tekst, który należy najpierw przekazać modelowi, aby ugruntować odpowiedź.
Jeśli nie jest pusta, ta wartość context
zostanie przekazana do modelu przed wartościami examples
i messages
. Jeśli używasz context
, pamiętaj, aby podawać go w każdym żądaniu, aby zachować ciągłość.
To pole może zawierać opis prompta dla modelu, który pomoże mu zrozumieć kontekst i udzielać odpowiednich odpowiedzi. Przykłady: „Przetłumacz to zdanie z angielskiego na francuski” lub „Na podstawie podanego stwierdzenia określ nastawienie jako pozytywne, negatywne lub neutralne”.
Wszystko, co znajduje się w tym polu, ma pierwszeństwo przed historią wiadomości, jeśli łączny rozmiar danych wejściowych przekracza limit inputTokenLimit
modelu, a żądanie wejściowe jest obcinane.
examples[]
object (Example
)
Opcjonalnie. Przykłady tego, co model powinien generować.
Obejmuje to zarówno dane wejściowe użytkownika, jak i odpowiedź, którą model powinien naśladować.
Te examples
są traktowane tak samo jak wiadomości w konwersacji, z tym że mają pierwszeństwo przed historią w messages
: jeśli łączny rozmiar danych wejściowych przekroczy inputTokenLimit
modelu, dane wejściowe zostaną obcięte. Elementy zostaną usunięte z messages
przed examples
.
messages[]
object (Message
)
Wymagane. Zrzut ostatniej historii rozmów posortowanej chronologicznie.
Kolejność wypowiedzi jest naprzemienna.
Jeśli łączny rozmiar danych wejściowych przekracza inputTokenLimit
, dane wejściowe zostaną obcięte: najstarsze elementy zostaną usunięte z messages
.
Przykład
Przykład danych wejściowych i wyjściowych używany do instruowania modelu.
Pokazuje, jak model powinien odpowiadać lub formatować odpowiedź.
input
object (Message
)
Wymagane. Przykład danych wejściowych Message
od użytkownika.
output
object (Message
)
Wymagane. Przykład danych wyjściowych, które model powinien wygenerować na podstawie danych wejściowych.
GenerateTextResponse
Odpowiedź modelu, w tym proponowane dokończenia.
candidates[]
object (TextCompletion
)
Odpowiedzi kandydujące modelu.
filters[]
object (ContentFilter
)
Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.
Wskazuje to, które SafetyCategory
zablokowały kandydata w tej odpowiedzi, najniższy HarmProbability
, który spowodował blokadę, oraz ustawienie HarmThreshold dla tej kategorii. Wskazuje to najmniejszą zmianę w SafetySettings
, która byłaby konieczna do odblokowania co najmniej 1 odpowiedzi.
Blokowanie jest konfigurowane przez parametr SafetySettings
w żądaniu (lub domyślny parametr SafetySettings
interfejsu API).
safetyFeedback[]
object (SafetyFeedback
)
Zwraca wszelkie opinie dotyczące bezpieczeństwa związane z filtrowaniem treści.
Zapis JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
Tekst wyjściowy zwrócony przez model.
output
string
Tylko dane wyjściowe. Wygenerowany tekst zwrócony przez model.
safetyRatings[]
object (SafetyRating
)
oceny bezpieczeństwa odpowiedzi.
W każdej kategorii może być maksymalnie 1 ocena.
citationMetadata
object (CitationMetadata
)
Tylko dane wyjściowe. Informacje o cytowaniu wygenerowanych przez model output
w tym TextCompletion
.
To pole może zawierać informacje o atrybucji dowolnego tekstu zawartego w output
.
Zapis JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Opinia dotycząca bezpieczeństwa całego żądania.
To pole jest wypełniane, jeśli treści w danych wejściowych lub odpowiedzi są blokowane z powodu ustawień bezpieczeństwa. W przypadku niektórych kategorii szkodliwości może nie być dostępna informacja zwrotna dotycząca bezpieczeństwa. Każda odpowiedź SafetyFeedback będzie zawierać ustawienia bezpieczeństwa użyte w żądaniu oraz najniższe prawdopodobieństwo szkodliwości, które powinno być dozwolone, aby zwrócić wynik.
rating
object (SafetyRating
)
Ocena bezpieczeństwa na podstawie treści.
setting
object (SafetySetting
)
Ustawienia bezpieczeństwa zastosowane w żądaniu.
Zapis JSON |
---|
{ "rating": { object ( |