שיטה: models.generateText
יצירת תשובה מהמודל בהינתן הודעת קלט.
נקודת קצה
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
פרמטרים של נתיב
model
string
חובה. השם של Model
או TunedModel
שבהם רוצים להשתמש כדי ליצור את ההשלמה. דוגמאות: models/text-bison-001 tunedModels/sentence-translator-u3b7m הפורמט הוא models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט החופשי שניתן למודל כפרומפט.
בהינתן הנחיה, המודל ייצור תשובה מסוג TextCompletion שהוא חוזה כהשלמה של טקסט הקלט.
safetySettings[]
object (SafetySetting
)
אופציונלי. רשימה של מקרים ייחודיים של SafetySetting
לחסימת תוכן לא בטוח.
האכיפה תתבצע ב-GenerateTextRequest.prompt
וב-GenerateTextResponse.candidates
. לא יכולות להיות יותר מהגדרה אחת לכל סוג SafetyCategory
. ה-API יחסום הנחיות ותשובות שלא יעמדו בסף שנקבע בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל של כל SafetyCategory
שצוין ב-safetySettings. אם לא מופיע SafetySetting
עבור SafetyCategory
מסוים ברשימה, ממשק ה-API ישתמש בהגדרת הבטיחות שמוגדרת כברירת מחדל עבור הקטגוריה הזו. שירות הטקסט תומך בקטגוריות הפגיעה HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
קבוצת רצפי התווים (עד 5) שיגרמו להפסקת יצירת הפלט. אם מציינים רצף עצירה, ה-API יפסיק כשהוא ייתקל ברצף העצירה בפעם הראשונה. רצף העצירה לא ייכלל בתשובה.
temperature
number
אופציונלי. המדיניות קובעת את מידת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לראות את מאפיין Model.temperature
של Model
שמוחזר על ידי הפונקציה getModel
.
הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך שקרוב יותר ל-1.0 יניב תשובות מגוונות ויצירתיות יותר, ואילו ערך שקרוב יותר ל-0.0 בדרך כלל יניב תשובות פשוטות יותר מהמודל.
candidateCount
integer
אופציונלי. מספר התשובות שנוצרו שיוחזרו.
הערך צריך להיות בין 1 ל-8, כולל. אם לא מגדירים ערך, ברירת המחדל היא 1.
maxOutputTokens
integer
אופציונלי. המספר המקסימלי של טוקנים שייכללו במועמד.
אם לא מציינים ערך, ברירת המחדל היא outputTokenLimit שצוין במפרט Model
.
topP
number
אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך לקחת בחשבון כשמבצעים דגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.
האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שרק האסימונים הסבירים ביותר נלקחים בחשבון. דגימת k המובילים מגבילה ישירות את המספר המקסימלי של טוקנים שצריך לקחת בחשבון, בעוד שדגימת הגרעין מגבילה את מספר הטוקנים על סמך ההסתברות המצטברת.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לראות את מאפיין Model.top_p
של Model
שמוחזר על ידי הפונקציה getModel
.
topK
integer
אופציונלי. מספר האסימונים המקסימלי שצריך לקחת בחשבון כשמבצעים דגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.
דגימת k המובילים מתבססת על קבוצת topK
האסימונים הסבירים ביותר. ברירת המחדל היא 40.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לראות את מאפיין Model.top_k
של Model
שמוחזר על ידי הפונקציה getModel
.
גוף התשובה
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל מופע של GenerateTextResponse
.
שיטה: models.countTextTokens
מפעילה את טוקנייזר של מודל על טקסט ומחזירה את מספר הטוקנים.
נקודת קצה
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
פרמטרים של נתיב
model
string
חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.
השם הזה צריך להיות זהה לשם של מודל שמוחזר על ידי השיטה models.list
.
פורמט: models/{model}
הפורמט הוא models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט החופשי שניתן למודל כפרומפט.
גוף התשובה
תשובה מאת models.countTextTokens
.
הפונקציה מחזירה את tokenCount
של המודל עבור prompt
.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
tokenCount
integer
מספר הטוקנים שאליהם הטוקן model
מחלק את prompt
.
תמיד לא שלילי.
ייצוג ב-JSON |
---|
{ "tokenCount": integer } |
שיטה: models.generateMessage
יצירת תגובה מהמודל בהינתן קלט MessagePrompt
.
נקודת קצה
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
פרמטרים של נתיב
model
string
חובה. שם המודל שבו רוצים להשתמש.
פורמט: name=models/{model}
הוא מקבל את הצורה models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
prompt
object (MessagePrompt
)
חובה. קלט טקסטואלי מובנה שניתן למודל כפרומפט.
בהינתן הנחיה, המודל יחזיר את מה שהוא חוזה שתהיה ההודעה הבאה בדיון.
temperature
number
אופציונלי. המדיניות קובעת את מידת הרנדומיזציה של הפלט.
הערכים יכולים לנוע בין [0.0,1.0]
, כולל. ערך שקרוב יותר ל-1.0
יפיק תשובות מגוונות יותר, ואילו ערך שקרוב יותר ל-0.0
בדרך כלל יניב תשובות פחות מפתיעות מהמודל.
candidateCount
integer
אופציונלי. מספר הודעות התשובה שנוצרו שיוחזרו.
הערך צריך להיות בין [1, 8]
, כולל. אם לא מגדירים את המדיניות הזו, ברירת המחדל היא 1
.
topP
number
אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך לקחת בחשבון כשמבצעים דגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.
בשיטת הדגימה Nucleus נבחן הסט הקטן ביותר של טוקנים שסכום ההסתברות שלהם הוא לפחות topP
.
topK
integer
אופציונלי. מספר האסימונים המקסימלי שצריך לקחת בחשבון כשמבצעים דגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.
דגימת k המובילים מתבססת על קבוצת topK
האסימונים הסבירים ביותר.
גוף התשובה
התשובה מהמודל.
המידע הזה כולל הודעות ממועמדים והיסטוריית שיחות בצורה של הודעות בסדר כרונולוגי.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
candidates[]
object (Message
)
הודעות עם תשובות אפשריות מהמודל.
messages[]
object (Message
)
היסטוריית השיחות שבה נעשה שימוש על ידי המודל.
filters[]
object (ContentFilter
)
קבוצה של מטא-נתונים לסינון תוכן של הטקסט בהנחיה ובתשובה.
התגובה הזו מציינת אילו SafetyCategory
חסמו את השילוב האפשרי למיקוד, מהו הערך הכי נמוך של HarmProbability
שהפעיל חסימה ומהי הגדרת HarmThreshold של הקטגוריה הזו.
ייצוג ב-JSON |
---|
{ "candidates": [ { object ( |
שיטה: models.countMessageTokens
מפעילה את טוקנייזר של מודל על מחרוזת ומחזירה את מספר הטוקנים.
נקודת קצה
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
פרמטרים של נתיב
model
string
חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.
השם הזה צריך להיות זהה לשם של מודל שמוחזר על ידי השיטה models.list
.
פורמט: models/{model}
הפורמט הוא models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
prompt
object (MessagePrompt
)
חובה. ההנחיה שמספר הטוקנים שלה יוחזר.
גוף התשובה
תשובה מאת models.countMessageTokens
.
הפונקציה מחזירה את tokenCount
של המודל עבור prompt
.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
tokenCount
integer
מספר הטוקנים שאליהם הטוקן model
מחלק את prompt
.
תמיד לא שלילי.
ייצוג ב-JSON |
---|
{ "tokenCount": integer } |
שיטה: models.embedText
יוצרת הטמעה מהמודל בהינתן הודעת קלט.
נקודת קצה
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
פרמטרים של נתיב
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}. הוא מקבל את הצורה models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
text
string
אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.
שיטה: models.batchEmbedText
יוצר הטמעות (embeddings) מרובות מהמודל בהינתן טקסט קלט בקריאה סינכרונית.
נקודת קצה
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
פרמטרים של נתיב
model
string
חובה. השם של Model
שבו משתמשים כדי ליצור את ההטמעה. דוגמאות: models/embedding-gecko-001 הפורמט הוא models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
texts[]
string
אופציונלי. טקסטים חופשיים שיוזנו כקלט והמודל יהפוך אותם להטמעה. המגבלה הנוכחית היא 100 הודעות טקסט, ואם תחרגו ממנה תוצג שגיאה.
requests[]
object (EmbedTextRequest
)
אופציונלי. הטמעת בקשות באצווה. אפשר להגדיר רק אחד מהמאפיינים texts
או requests
.
גוף התשובה
התשובה ל-EmbedTextRequest.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
embeddings[]
object (Embedding
)
פלט בלבד. הטמעות (embeddings) שנוצרו מטקסט הקלט.
ייצוג ב-JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
שליחת בקשה לקבלת הטמעה של טקסט מהמודל.
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}.
text
string
אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.
ייצוג ב-JSON |
---|
{ "model": string, "text": string } |
ContentFilter
מטא-נתונים של סינון תוכן שמשויכים לעיבוד של בקשה יחידה.
המאפיין ContentFilter מכיל סיבה ומחרוזת תומכת אופציונלית. יכול להיות שהסיבה לא צוינה.
reason
enum (BlockedReason
)
הסיבה לחסימת התוכן במהלך עיבוד הבקשה.
message
string
מחרוזת שמתארת את התנהגות הסינון בפירוט רב יותר.
ייצוג ב-JSON |
---|
{
"reason": enum ( |
BlockedReason
רשימת סיבות אפשריות לחסימת תוכן.
טיפוסים בני מנייה (enum) | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
לא צוינה סיבה לחסימה. |
SAFETY |
התוכן נחסם על ידי הגדרות הבטיחות. |
OTHER |
התוכן נחסם, אבל הסיבה לא סווגה. |
הטמעה
רשימה של מספרים ממשיים שמייצגים את ההטמעה.
value[]
number
ערכי ההטמעה.
ייצוג ב-JSON |
---|
{ "value": [ number ] } |
הודעה
יחידת הבסיס של טקסט מובנה.
Message
כולל author
וcontent
של Message
.
התווית author
משמשת לתיוג הודעות כשהן מוזנות למודל כטקסט.
content
string
חובה. תוכן הטקסט של הנתונים המובְנים Message
.
citationMetadata
object (CitationMetadata
)
פלט בלבד. פרטי הציטוט של content
שנוצר על ידי המודל בMessage
הזה.
אם Message
נוצר כפלט מהמודל, יכול להיות שהשדה הזה יאוכלס בפרטי שיוך לכל טקסט שכלול ב-content
. השדה הזה משמש רק בפלט.
ייצוג ב-JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
כל הטקסט המובנה שמועבר למודל כהנחיה.
MessagePrompt
מכיל קבוצה מובנית של שדות שמספקים הקשר לשיחה, דוגמאות לזוגות של הודעות קלט של משתמשים ופלט של המודל שמכינות את המודל להגיב בדרכים שונות, ואת היסטוריית השיחה או רשימת ההודעות שמייצגות את התורות המתחלפות של השיחה בין המשתמש למודל.
context
string
אופציונלי. טקסט שצריך לספק למודל קודם כדי להבטיח שהתשובה תהיה מבוססת על מידע מהימן.
אם השדה הזה לא ריק, הערך context
יינתן למודל לפני הערכים examples
ו-messages
. כשמשתמשים ב-context
, חשוב לספק אותו בכל בקשה כדי לשמור על רצף.
בשדה הזה אפשר לתת תיאור של ההנחיה למודל כדי לספק הקשר ולכוון את התשובות. דוגמאות: "Translate the phrase from English to French" (תרגם את הביטוי מאנגלית לצרפתית) או "Given a statement, classify the sentiment as happy, sad or neutral" (בהינתן הצהרה, סווג את הסנטימנט כחיובי, שלילי או ניטרלי).
אם גודל הקלט הכולל חורג מinputTokenLimit
של המודל והבקשה לקלט נחתכת, כל מה שכלול בשדה הזה יקבל עדיפות על פני היסטוריית ההודעות.
examples[]
object (Example
)
אופציונלי. דוגמאות למה שהמודל צריך ליצור.
ההנחיה כוללת את הקלט של המשתמש ואת התגובה שהמודל צריך לחקות.
ההודעות האלה examples
מטופלות באופן זהה להודעות בצ'אט, אלא שהן מקבלות עדיפות על פני ההיסטוריה ב-messages
: אם הגודל הכולל של הקלט חורג מ-inputTokenLimit
של המודל, הקלט ייחתך. הפריטים יוסרו מ-messages
לפני examples
.
messages[]
object (Message
)
חובה. תמונת מצב של היסטוריית השיחות האחרונות, ממוינת לפי סדר כרונולוגי.
התור עובר לסירוגין בין שני מחברים.
אם הגודל הכולל של הקלט חורג מ-inputTokenLimit
של המודל, הקלט ייחתך: הפריטים הכי ישנים יוסרו מ-messages
.
דוגמה
GenerateTextResponse
התשובה מהמודל, כולל השלמות אפשריות.
candidates[]
object (TextCompletion
)
תשובות אפשריות מהמודל.
filters[]
object (ContentFilter
)
קבוצה של מטא-נתונים לסינון תוכן של הטקסט בהנחיה ובתשובה.
התגובה הזו מציינת אילו SafetyCategory
חסמו את השילוב האפשרי למיקוד, מהו הערך הכי נמוך של HarmProbability
שהפעיל חסימה ומהי הגדרת HarmThreshold של הקטגוריה הזו. הערך הזה מציין את השינוי הקטן ביותר ב-SafetySettings
שנדרש כדי לבטל את החסימה של תגובה אחת לפחות.
החסימה מוגדרת על ידי SafetySettings
בבקשה (או על ידי SafetySettings
שמוגדר כברירת מחדל ב-API).
safetyFeedback[]
object (SafetyFeedback
)
מחזירה משוב על בטיחות שקשור לסינון תוכן.
ייצוג ב-JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
טקסט הפלט שמוחזר ממודל.
output
string
פלט בלבד. הטקסט שנוצר ומוחזר מהמודל.
safetyRatings[]
object (SafetyRating
)
דירוגים של בטיחות התשובה.
לכל קטגוריה יש סיווג אחד לכל היותר.
citationMetadata
object (CitationMetadata
)
פלט בלבד. פרטי הציטוט של output
שנוצר על ידי המודל בTextCompletion
הזה.
יכול להיות שהשדה הזה יאוכלס בפרטי שיוך לכל טקסט שכלול ב-output
.
ייצוג ב-JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
משוב על בטיחות לגבי בקשה שלמה.
השדה הזה מאוכלס אם התוכן בקלט או בתגובה נחסם בגלל הגדרות בטיחות. יכול להיות שלא יהיה SafetyFeedback לכל HarmCategory. כל SafetyFeedback יחזיר את הגדרות הבטיחות שבהן נעשה שימוש בבקשה, וגם את ההסתברות הכי נמוכה לפגיעה שצריך לאפשר כדי להחזיר תוצאה.
rating
object (SafetyRating
)
דירוג הבטיחות נקבע לפי התוכן.
setting
object (SafetySetting
)
הגדרות הבטיחות שחלות על הבקשה.
ייצוג ב-JSON |
---|
{ "rating": { object ( |