Funkcja dostrajania interfejsu Gemini API umożliwia dostosowywanie danych wyjściowych, gdy masz mały zbiór danych z przykładami danych wejściowych i wyjściowych. Więcej informacji znajdziesz w przewodniku po dostrajaniu modelu i samouczku.
Metoda: tunedModels.create
Tworzy model dostrojony. Sprawdź postęp dostrajania pośredniego (jeśli występuje) za pomocą usługi google.longrunning.Operations
.
Dostęp do stanu i wyników za pomocą usługi Operations. Przykład: GET /v1/tunedModels/az2mb0bpw6i/operations/000-111-222
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /tunedModels
Parametry zapytania
tunedModelId
string
Opcjonalnie. Unikalny identyfikator dostosowanego modelu, jeśli został określony. Ta wartość powinna mieć maksymalnie 40 znaków. Pierwszy znak musi być literą, a ostatni może być literą lub cyfrą. Identyfikator musi być zgodny z wyrażeniem regularnym: [a-z]([a-z0-9-]{0,38}[a-z0-9])?
.
Treść żądania
Treść żądania zawiera wystąpienie elementu TunedModel
.
displayName
string
Opcjonalnie. Nazwa, która ma być wyświetlana w interfejsach użytkownika. Wyświetlana nazwa może mieć maksymalnie 40 znaków, w tym spacje.
description
string
Opcjonalnie. Krótki opis tego modelu.
tuningTask
object (TuningTask
)
Wymagane. Zadanie dostrajania, które tworzy dostrojony model.
readerProjectNumbers[]
string (int64 format)
Opcjonalnie. Lista numerów projektów, które mają dostęp do odczytu dostrojonego modelu.
source_model
Union type
source_model
może mieć tylko jedną z tych wartości:tunedModelSource
object (TunedModelSource
)
Opcjonalnie. Dostrojony model, który będzie punktem wyjścia do trenowania nowego modelu.
baseModel
string
Niezmienne. Nazwa Model
do dostrojenia. Przykład: models/gemini-1.5-flash-001
temperature
number
Opcjonalnie. Określa losowość danych wyjściowych.
Wartości mogą mieścić się w zakresie [0.0,1.0]
(włącznie). Wartość bliższa 1.0
spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość bliższa 0.0
– mniej zaskakujące.
Ta wartość określa domyślny model podstawowy, który będzie używany podczas tworzenia modelu.
topP
number
Opcjonalnie. W przypadku próbkowania Nucleus.
Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP
.
Ta wartość określa domyślny model podstawowy, który będzie używany podczas tworzenia modelu.
topK
integer
Opcjonalnie. W przypadku próbkowania Top-K.
Próbkowanie Top-k uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów. Ta wartość określa domyślne ustawienie, które ma być używane przez backend podczas wywoływania modelu.
Ta wartość określa domyślny model podstawowy, który będzie używany podczas tworzenia modelu.
Przykładowe żądanie
Python
Treść odpowiedzi
Jeśli operacja się uda, treść odpowiedzi będzie zawierała nowo utworzoną instancję Operation
.
Metoda: tunedModels.generateContent
Generuje odpowiedź modelu na podstawie danych wejściowych GenerateContentRequest
. Szczegółowe informacje o korzystaniu z tej funkcji znajdziesz w przewodniku po generowaniu tekstu. Możliwości wprowadzania danych różnią się w zależności od modelu, w tym od modeli dostrojonych. Szczegółowe informacje znajdziesz w przewodniku po modelach i przewodniku po dostrajaniu.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateContent
Parametry ścieżki
model
string
Wymagane. Nazwa Model
, która ma być użyta do wygenerowania dokończenia.
Format: models/{model}
. Ma on postać tunedModels/{tunedmodel}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
tools[]
object (Tool
)
Opcjonalnie. Lista Tools
, której Model
może użyć do wygenerowania następnej odpowiedzi.
Tool
to fragment kodu, który umożliwia systemowi interakcję z systemami zewnętrznymi w celu wykonania działania lub zestawu działań wykraczających poza wiedzę i zakres Model
. Obsługiwane Tool
to Function
i codeExecution
. Więcej informacji znajdziesz w przewodnikach Wywoływanie funkcji i Wykonywanie kodu.
toolConfig
object (ToolConfig
)
Opcjonalnie. Konfiguracja narzędzia dla dowolnego Tool
określonego w żądaniu. Przykład użycia znajdziesz w przewodniku po wywoływaniu funkcji.
safetySettings[]
object (SafetySetting
)
Opcjonalnie. Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
Będzie to egzekwowane w przypadku GenerateContentRequest.contents
i GenerateContentResponse.candidates
. Nie powinno być więcej niż 1 ustawienia dla każdego typu SafetyCategory
. Interfejs API będzie blokować treści i odpowiedzi, które nie spełniają progów określonych w tych ustawieniach. Ta lista zastępuje domyślne ustawienia każdego parametru SafetyCategory
określonego w parametrze safetySettings. Jeśli na liście nie ma wartości SafetySetting
dla danego SafetyCategory
, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. Obsługiwane są kategorie szkodliwych treści HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT i HARM_CATEGORY_CIVIC_INTEGRITY. Szczegółowe informacje o dostępnych ustawieniach bezpieczeństwa znajdziesz w przewodniku. Zapoznaj się też z wytycznymi dotyczącymi bezpieczeństwa, aby dowiedzieć się, jak uwzględniać kwestie bezpieczeństwa w aplikacjach AI.
systemInstruction
object (Content
)
Opcjonalnie. Deweloper ustawił instrukcje systemowe. Obecnie tylko tekst.
generationConfig
object (GenerationConfig
)
Opcjonalnie. Opcje konfiguracji generowania modelu i danych wyjściowych.
cachedContent
string
Opcjonalnie. Nazwa treści w pamięci podręcznej, która ma być używana jako kontekst do wyświetlania prognozy. Format: cachedContents/{cachedContent}
Przykładowe żądanie
Tekst
Python
Node.js
Przeczytaj
Muszla
Java
Obraz
Python
Node.js
Przeczytaj
Muszla
Java
Dźwięk
Python
Node.js
Przeczytaj
Muszla
Wideo
Python
Node.js
Przeczytaj
Muszla
Python
Przeczytaj
Muszla
Czat
Python
Node.js
Przeczytaj
Muszla
Java
Cache (Pamięć podręczna)
Python
Node.js
Przeczytaj
Dostrojony model
Python
Tryb JSON
Python
Node.js
Przeczytaj
Muszla
Java
Wykonanie kodu
Python
Przeczytaj
Java
Wywoływanie funkcji
Python
Przeczytaj
Node.js
Muszla
Java
Konfiguracja generowania
Python
Node.js
Przeczytaj
Muszla
Java
Ustawienia bezpieczeństwa
Python
Node.js
Przeczytaj
Muszla
Java
Instrukcja systemowa
Python
Node.js
Przeczytaj
Muszla
Java
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateContentResponse
.
Metoda: tunedModels.streamGenerateContent
Generuje odpowiedź strumieniową z modelu na podstawie danych wejściowych GenerateContentRequest
.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:streamGenerateContent
Parametry ścieżki
model
string
Wymagane. Nazwa Model
, która ma być użyta do wygenerowania dokończenia.
Format: models/{model}
. Ma on postać tunedModels/{tunedmodel}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
tools[]
object (Tool
)
Opcjonalnie. Lista Tools
, której Model
może użyć do wygenerowania następnej odpowiedzi.
Tool
to fragment kodu, który umożliwia systemowi interakcję z systemami zewnętrznymi w celu wykonania działania lub zestawu działań wykraczających poza wiedzę i zakres Model
. Obsługiwane Tool
to Function
i codeExecution
. Więcej informacji znajdziesz w przewodnikach Wywoływanie funkcji i Wykonywanie kodu.
toolConfig
object (ToolConfig
)
Opcjonalnie. Konfiguracja narzędzia dla dowolnego Tool
określonego w żądaniu. Przykład użycia znajdziesz w przewodniku po wywoływaniu funkcji.
safetySettings[]
object (SafetySetting
)
Opcjonalnie. Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
Będzie to egzekwowane w przypadku GenerateContentRequest.contents
i GenerateContentResponse.candidates
. Nie powinno być więcej niż 1 ustawienia dla każdego typu SafetyCategory
. Interfejs API będzie blokować treści i odpowiedzi, które nie spełniają progów określonych w tych ustawieniach. Ta lista zastępuje domyślne ustawienia każdego parametru SafetyCategory
określonego w parametrze safetySettings. Jeśli na liście nie ma wartości SafetySetting
dla danego SafetyCategory
, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. Obsługiwane są kategorie szkodliwych treści HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT i HARM_CATEGORY_CIVIC_INTEGRITY. Szczegółowe informacje o dostępnych ustawieniach bezpieczeństwa znajdziesz w przewodniku. Zapoznaj się też z wytycznymi dotyczącymi bezpieczeństwa, aby dowiedzieć się, jak uwzględniać kwestie bezpieczeństwa w aplikacjach AI.
systemInstruction
object (Content
)
Opcjonalnie. Deweloper ustawił instrukcje systemowe. Obecnie tylko tekst.
generationConfig
object (GenerationConfig
)
Opcjonalnie. Opcje konfiguracji generowania modelu i danych wyjściowych.
cachedContent
string
Opcjonalnie. Nazwa treści w pamięci podręcznej, która ma być używana jako kontekst do wyświetlania prognozy. Format: cachedContents/{cachedContent}
Przykładowe żądanie
Tekst
Python
Node.js
Przeczytaj
Muszla
Java
Obraz
Python
Node.js
Przeczytaj
Muszla
Java
Dźwięk
Python
Przeczytaj
Muszla
Wideo
Python
Node.js
Przeczytaj
Muszla
Python
Przeczytaj
Muszla
Czat
Python
Node.js
Przeczytaj
Muszla
Java
Treść odpowiedzi
Jeśli operacja się uda, treść odpowiedzi będzie zawierała strumień instancji GenerateContentResponse
.
Metoda: tunedModels.get
Pobiera informacje o konkretnym modelu TunedModel.
Punkt końcowy
gethttps: / /generativelanguage.googleapis.com /v1beta /{name=tunedModels /*}
Parametry ścieżki
name
string
Wymagane. Nazwa zasobu modelu.
Format: tunedModels/my-model-id
. Przyjmuje postać tunedModels/{tunedmodel}
.
Treść żądania
Treść żądania musi być pusta.
Przykładowe żądanie
Python
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu TunedModel
.
Metoda: tunedModels.list
- Punkt końcowy
- Parametry zapytania
- Treść żądania
- Treść odpowiedzi
- Zakresy autoryzacji
- Przykładowe żądanie
Wyświetla listę utworzonych modeli dostrojonych.
Punkt końcowy
gethttps: / /generativelanguage.googleapis.com /v1beta /tunedModels
Parametry zapytania
pageSize
integer
Opcjonalnie. Maksymalna liczba zwracanych TunedModels
(na stronę). Usługa może zwrócić mniejszą liczbę dostrojonych modeli.
Jeśli nie podasz tej wartości, zostanie zwróconych maksymalnie 10 dostosowanych modeli. Ta metoda zwraca maksymalnie 1000 modeli na stronę, nawet jeśli podasz większą wartość parametru pageSize.
pageToken
string
Opcjonalnie. Token strony otrzymany z poprzedniego wywołania tunedModels.list
.
Podaj wartość pageToken
zwróconą przez jedno żądanie jako argument następnego żądania, aby pobrać następną stronę.
Podczas paginacji wszystkie inne parametry przekazane do funkcji tunedModels.list
muszą być zgodne z wywołaniem, które dostarczyło token strony.
filter
string
Opcjonalnie. Filtr to wyszukiwanie pełnotekstowe w opisie i wyświetlanej nazwie dostosowanego modelu. Domyślnie wyniki nie będą obejmować dostrojonych modeli udostępnionych wszystkim użytkownikom.
Dodatkowi operatorzy: - owner:me - writers:me - readers:me - readers:everyone
Przykłady: „owner:me” zwraca wszystkie dostrojone modele, w których przypadku wywołujący ma rolę właściciela; „readers:me” zwraca wszystkie dostrojone modele, w których przypadku wywołujący ma rolę czytelnika; „readers:everyone” zwraca wszystkie dostrojone modele, które są udostępnione wszystkim.
Treść żądania
Treść żądania musi być pusta.
Przykładowe żądanie
Python
Treść odpowiedzi
Odpowiedź z usługi tunedModels.list
zawierająca podzieloną na strony listę modeli.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
tunedModels[]
object (TunedModel
)
Zwrócone modele.
nextPageToken
string
Token, który można wysłać jako pageToken
, aby pobrać następną stronę.
Jeśli pominiesz to pole, nie będzie kolejnych stron.
Zapis JSON |
---|
{
"tunedModels": [
{
object ( |
Metoda: tunedModels.patch
Aktualizuje dostrojony model.
Punkt końcowy
patchhttps: / /generativelanguage.googleapis.com /v1beta /{tunedModel.name=tunedModels /*}
PATCH https://generativelanguage.googleapis.com/v1beta/{tunedModel.name=tunedModels/*}
Parametry ścieżki
tunedModel.name
string
Tylko dane wyjściowe. Nazwa dostrojonego modelu. Podczas tworzenia zostanie wygenerowana unikalna nazwa. Przykład: tunedModels/az2mb0bpw6i
jeśli nazwa wyświetlana jest ustawiona podczas tworzenia, część identyfikatora nazwy zostanie ustawiona przez połączenie słów nazwy wyświetlanej z myślnikami i dodanie losowej części w celu zapewnienia niepowtarzalności.
Przykład:
- displayName =
Sentence Translator
- name =
tunedModels/sentence-translator-u3b7m
Przyjmuje postaćtunedModels/{tunedmodel}
.
Parametry zapytania
updateMask
string (FieldMask
format)
Opcjonalnie. Lista pól do zaktualizowania.
Jest to lista w pełni kwalifikowanych nazw pól rozdzielonych przecinkami. Przykład: "user.displayName,photo"
.
Treść żądania
Treść żądania zawiera wystąpienie elementu TunedModel
.
displayName
string
Opcjonalnie. Nazwa, która ma być wyświetlana w interfejsach użytkownika. Wyświetlana nazwa może mieć maksymalnie 40 znaków, w tym spacje.
description
string
Opcjonalnie. Krótki opis tego modelu.
tuningTask
object (TuningTask
)
Wymagane. Zadanie dostrajania, które tworzy dostrojony model.
readerProjectNumbers[]
string (int64 format)
Opcjonalnie. Lista numerów projektów, które mają dostęp do odczytu dostrojonego modelu.
source_model
Union type
source_model
może mieć tylko jedną z tych wartości:tunedModelSource
object (TunedModelSource
)
Opcjonalnie. Dostrojony model, który będzie punktem wyjścia do trenowania nowego modelu.
temperature
number
Opcjonalnie. Określa losowość danych wyjściowych.
Wartości mogą mieścić się w zakresie [0.0,1.0]
(włącznie). Wartość bliższa 1.0
spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość bliższa 0.0
– mniej zaskakujące.
Ta wartość określa domyślny model podstawowy, który będzie używany podczas tworzenia modelu.
topP
number
Opcjonalnie. W przypadku próbkowania Nucleus.
Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP
.
Ta wartość określa domyślny model podstawowy, który będzie używany podczas tworzenia modelu.
topK
integer
Opcjonalnie. W przypadku próbkowania Top-K.
Próbkowanie Top-k uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów. Ta wartość określa domyślne ustawienie, które ma być używane przez backend podczas wywoływania modelu.
Ta wartość określa domyślny model podstawowy, który będzie używany podczas tworzenia modelu.
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu TunedModel
.
Metoda: tunedModels.delete
Usuwa dostrojony model.
Punkt końcowy
deletehttps: / /generativelanguage.googleapis.com /v1beta /{name=tunedModels /*}
Parametry ścieżki
name
string
Wymagane. Nazwa zasobu modelu. Format: tunedModels/my-model-id
. Przyjmuje postać tunedModels/{tunedmodel}
.
Treść żądania
Treść żądania musi być pusta.
Treść odpowiedzi
Jeśli operacja się uda, treść odpowiedzi będzie pustym obiektem JSON.
Zasób REST: tunedModels
- Zasób: TunedModel
- TunedModelSource
- Stan
- TuningTask
- TuningSnapshot
- Zbiór danych
- TuningExamples
- TuningExample
- Hiperparametry
- Metody
Zasób: TunedModel
Model dostrojony utworzony za pomocą ModelService.CreateTunedModel.
name
string
Tylko dane wyjściowe. Nazwa dostrojonego modelu. Podczas tworzenia zostanie wygenerowana unikalna nazwa. Przykład: tunedModels/az2mb0bpw6i
jeśli nazwa wyświetlana jest ustawiona podczas tworzenia, część identyfikatora nazwy zostanie ustawiona przez połączenie słów nazwy wyświetlanej z myślnikami i dodanie losowej części w celu zapewnienia niepowtarzalności.
Przykład:
- displayName =
Sentence Translator
- name =
tunedModels/sentence-translator-u3b7m
displayName
string
Opcjonalnie. Nazwa, która ma być wyświetlana w interfejsach użytkownika. Wyświetlana nazwa może mieć maksymalnie 40 znaków, w tym spacje.
description
string
Opcjonalnie. Krótki opis tego modelu.
state
enum (State
)
Tylko dane wyjściowe. Stan dostrojonego modelu.
createTime
string (Timestamp
format)
Tylko dane wyjściowe. Sygnatura czasowa utworzenia tego modelu.
Korzysta ze standardu RFC 3339, w którym wygenerowane dane wyjściowe są zawsze znormalizowane do formatu Z i zawierają 0, 3, 6 lub 9 cyfr po przecinku. Akceptowane są też przesunięcia inne niż „Z”. Przykłady: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
lub "2014-10-02T15:01:23+05:30"
.
updateTime
string (Timestamp
format)
Tylko dane wyjściowe. Sygnatura czasowa aktualizacji tego modelu.
Korzysta ze standardu RFC 3339, w którym wygenerowane dane wyjściowe są zawsze znormalizowane do formatu Z i zawierają 0, 3, 6 lub 9 cyfr po przecinku. Akceptowane są też przesunięcia inne niż „Z”. Przykłady: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
lub "2014-10-02T15:01:23+05:30"
.
tuningTask
object (TuningTask
)
Wymagane. Zadanie dostrajania, które tworzy dostrojony model.
readerProjectNumbers[]
string (int64 format)
Opcjonalnie. Lista numerów projektów, które mają dostęp do odczytu dostrojonego modelu.
source_model
Union type
source_model
może mieć tylko jedną z tych wartości:tunedModelSource
object (TunedModelSource
)
Opcjonalnie. Dostrojony model, który będzie punktem wyjścia do trenowania nowego modelu.
baseModel
string
Niezmienne. Nazwa Model
do dostrojenia. Przykład: models/gemini-1.5-flash-001
temperature
number
Opcjonalnie. Określa losowość danych wyjściowych.
Wartości mogą mieścić się w zakresie [0.0,1.0]
(włącznie). Wartość bliższa 1.0
spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość bliższa 0.0
– mniej zaskakujące.
Ta wartość określa domyślny model podstawowy, który będzie używany podczas tworzenia modelu.
topP
number
Opcjonalnie. W przypadku próbkowania Nucleus.
Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP
.
Ta wartość określa domyślny model podstawowy, który będzie używany podczas tworzenia modelu.
topK
integer
Opcjonalnie. W przypadku próbkowania Top-K.
Próbkowanie Top-k uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów. Ta wartość określa domyślne ustawienie, które ma być używane przez backend podczas wywoływania modelu.
Ta wartość określa domyślny model podstawowy, który będzie używany podczas tworzenia modelu.
Zapis JSON |
---|
{ "name": string, "displayName": string, "description": string, "state": enum ( |
TunedModelSource
Model dostrojony jako źródło do trenowania nowego modelu.
tunedModel
string
Niezmienne. Nazwa TunedModel
, która ma być używana jako punkt wyjścia do trenowania nowego modelu. Przykład: tunedModels/my-tuned-model
baseModel
string
Tylko dane wyjściowe. Nazwa modelu bazowego, na którym opiera się ten TunedModel
.Model
Przykład: models/gemini-1.5-flash-001
Zapis JSON |
---|
{ "tunedModel": string, "baseModel": string } |
Stan
Stan dostrojonego modelu.
Wartości w polu enum | |
---|---|
STATE_UNSPECIFIED |
Wartość domyślna. Ta wartość nie jest używana. |
CREATING |
Tworzę model. |
ACTIVE |
Model jest gotowy do użycia. |
FAILED |
Nie udało się utworzyć modelu. |
TuningTask
Zadania dostrajania, które tworzą modele dostrojone.
startTime
string (Timestamp
format)
Tylko dane wyjściowe. Sygnatura czasowa rozpoczęcia dostrajania tego modelu.
Korzysta ze standardu RFC 3339, w którym wygenerowane dane wyjściowe są zawsze znormalizowane do formatu Z i zawierają 0, 3, 6 lub 9 cyfr po przecinku. Akceptowane są też przesunięcia inne niż „Z”. Przykłady: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
lub "2014-10-02T15:01:23+05:30"
.
completeTime
string (Timestamp
format)
Tylko dane wyjściowe. Sygnatura czasowa zakończenia dostrajania tego modelu.
Korzysta ze standardu RFC 3339, w którym wygenerowane dane wyjściowe są zawsze znormalizowane do formatu Z i zawierają 0, 3, 6 lub 9 cyfr po przecinku. Akceptowane są też przesunięcia inne niż „Z”. Przykłady: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
lub "2014-10-02T15:01:23+05:30"
.
snapshots[]
object (TuningSnapshot
)
Tylko dane wyjściowe. Dane zbierane podczas dostrajania.
trainingData
object (Dataset
)
Wymagane. Tylko dane wejściowe. Niezmienne. Dane treningowe modelu.
hyperparameters
object (Hyperparameters
)
Niezmienne. Hiperparametry kontrolujące proces dostrajania. Jeśli nie podasz wartości, zostaną użyte wartości domyślne.
Zapis JSON |
---|
{ "startTime": string, "completeTime": string, "snapshots": [ { object ( |
TuningSnapshot
Nagrywanie dla pojedynczego kroku strojenia.
step
integer
Tylko dane wyjściowe. Krok dostrajania.
epoch
integer
Tylko dane wyjściowe. Epoka, której częścią był ten krok.
meanLoss
number
Tylko dane wyjściowe. Średnia strata przykładów treningowych na tym etapie.
computeTime
string (Timestamp
format)
Tylko dane wyjściowe. Sygnatura czasowa obliczenia tych danych.
Korzysta ze standardu RFC 3339, w którym wygenerowane dane wyjściowe są zawsze znormalizowane do formatu Z i zawierają 0, 3, 6 lub 9 cyfr po przecinku. Akceptowane są też przesunięcia inne niż „Z”. Przykłady: "2014-10-02T15:01:23Z"
, "2014-10-02T15:01:23.045123456Z"
lub "2014-10-02T15:01:23+05:30"
.
Zapis JSON |
---|
{ "step": integer, "epoch": integer, "meanLoss": number, "computeTime": string } |
Zbiór danych
Zbiór danych do trenowania lub walidacji.
dataset
Union type
dataset
może mieć tylko jedną z tych wartości:examples
object (TuningExamples
)
Opcjonalnie. Przykłady w tekście z prostym tekstem wejściowym i wyjściowym.
Zapis JSON |
---|
{
// dataset
"examples": {
object ( |
TuningExamples
Zestaw przykładów dostrajania. Mogą to być dane treningowe lub weryfikacyjne.
examples[]
object (TuningExample
)
Przykłady. Przykładowe dane wejściowe mogą dotyczyć tekstu lub dyskusji, ale wszystkie przykłady w zestawie muszą być tego samego typu.
Zapis JSON |
---|
{
"examples": [
{
object ( |
TuningExample
Pojedynczy przykład dostrajania.
output
string
Wymagane. Oczekiwane dane wyjściowe modelu.
model_input
Union type
model_input
może mieć tylko jedną z tych wartości:textInput
string
Opcjonalnie. Dane wejściowe modelu tekstowego.
Zapis JSON |
---|
{ "output": string, // model_input "textInput": string // Union type } |
Hiperparametry
Hiperparametry kontrolujące proces dostrajania. Więcej informacji znajdziesz na stronie https://ai.google.dev/docs/model_tuning_guidance
learning_rate_option
Union type
learning_rate_option
może mieć tylko jedną z tych wartości:learningRate
number
Opcjonalnie. Niezmienne. Hiperparametr tempa uczenia się do dostrajania. Jeśli nie zostanie ustawiona, zostanie obliczona wartość domyślna 0,001 lub 0,0002 na podstawie liczby przykładów trenujących.
learningRateMultiplier
number
Opcjonalnie. Niezmienne. Mnożnik tempa uczenia się służy do obliczania ostatecznej wartości parametru learningRate na podstawie wartości domyślnej (zalecanej). Rzeczywiste tempo uczenia się := mnożnik tempa uczenia się * domyślne tempo uczenia się. Domyślne tempo uczenia się zależy od modelu podstawowego i rozmiaru zbioru danych. Jeśli nie zostanie ustawiona, używana będzie wartość domyślna 1,0.
epochCount
integer
Niezmienne. Liczba epok trenowania. Epoka to jeden przebieg danych treningowych. Jeśli nie zostanie ustawiona, używana będzie wartość domyślna 5.
batchSize
integer
Niezmienne. Hiperparametr wielkości wsadu do dostrajania. Jeśli nie zostanie skonfigurowana, w zależności od liczby przykładów treningowych zostanie użyta wartość domyślna 4 lub 16.
Zapis JSON |
---|
{ // learning_rate_option "learningRate": number, "learningRateMultiplier": number // Union type "epochCount": integer, "batchSize": integer } |