PaLM (decommissioned)

שיטה: models.generateText

יצירת תשובה מהמודל בהינתן הודעת קלט.

נקודת קצה

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

פרמטרים של נתיב

model string

חובה. השם של Model או TunedModel שבהם רוצים להשתמש כדי ליצור את ההשלמה. דוגמאות: models/text-bison-001 tunedModels/sentence-translator-u3b7m הפורמט הוא models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים עם המבנה הבא:

Fields
prompt object (TextPrompt)

חובה. טקסט הקלט החופשי שניתן למודל כפרומפט.

בהינתן הנחיה, המודל ייצור תשובה מסוג TextCompletion שהוא חוזה כהשלמה של טקסט הקלט.

safetySettings[] object (SafetySetting)

אופציונלי. רשימה של מקרים ייחודיים של SafetySetting לחסימת תוכן לא בטוח.

האכיפה תתבצע ב-GenerateTextRequest.prompt וב-GenerateTextResponse.candidates. לא יכולות להיות יותר מהגדרה אחת לכל סוג SafetyCategory. ה-API יחסום הנחיות ותשובות שלא יעמדו בסף שנקבע בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל של כל SafetyCategory שצוין ב-safetySettings. אם לא מופיע SafetySetting עבור SafetyCategory מסוים ברשימה, ממשק ה-API ישתמש בהגדרת הבטיחות שמוגדרת כברירת מחדל עבור הקטגוריה הזו. שירות הטקסט תומך בקטגוריות הפגיעה HARM_CATEGORY_DEROGATORY, ‏ HARM_CATEGORY_TOXICITY, ‏ HARM_CATEGORY_VIOLENCE, ‏ HARM_CATEGORY_SEXUAL, ‏ HARM_CATEGORY_MEDICAL, ‏ HARM_CATEGORY_DANGEROUS.

stopSequences[] string

קבוצת רצפי התווים (עד 5) שיגרמו להפסקת יצירת הפלט. אם מציינים רצף עצירה, ה-API יפסיק כשהוא ייתקל ברצף העצירה בפעם הראשונה. רצף העצירה לא ייכלל בתשובה.

temperature number

אופציונלי. המדיניות קובעת את מידת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לראות את מאפיין Model.temperature של Model שמוחזר על ידי הפונקציה getModel.

הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך שקרוב יותר ל-1.0 יניב תשובות מגוונות ויצירתיות יותר, ואילו ערך שקרוב יותר ל-0.0 בדרך כלל יניב תשובות פשוטות יותר מהמודל.

candidateCount integer

אופציונלי. מספר התשובות שנוצרו שיוחזרו.

הערך צריך להיות בין 1 ל-8, כולל. אם לא מגדירים ערך, ברירת המחדל היא 1.

maxOutputTokens integer

אופציונלי. המספר המקסימלי של טוקנים שייכללו במועמד.

אם לא מציינים ערך, ברירת המחדל היא outputTokenLimit שצוין במפרט Model.

topP number

אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך לקחת בחשבון כשמבצעים דגימה.

המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.

האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שרק האסימונים הסבירים ביותר נלקחים בחשבון. דגימת k המובילים מגבילה ישירות את המספר המקסימלי של טוקנים שצריך לקחת בחשבון, בעוד שדגימת הגרעין מגבילה את מספר הטוקנים על סמך ההסתברות המצטברת.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לראות את מאפיין Model.top_p של Model שמוחזר על ידי הפונקציה getModel.

topK integer

אופציונלי. מספר האסימונים המקסימלי שצריך לקחת בחשבון כשמבצעים דגימה.

המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.

דגימת k המובילים מתבססת על קבוצת topK האסימונים הסבירים ביותר. ברירת המחדל היא 40.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לראות את מאפיין Model.top_k של Model שמוחזר על ידי הפונקציה getModel.

גוף התשובה

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל מופע של GenerateTextResponse.

שיטה: models.countTextTokens

מפעילה את טוקנייזר של מודל על טקסט ומחזירה את מספר הטוקנים.

נקודת קצה

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

פרמטרים של נתיב

model string

חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.

השם הזה צריך להיות זהה לשם של מודל שמוחזר על ידי השיטה models.list.

פורמט: models/{model} הפורמט הוא models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים עם המבנה הבא:

Fields
prompt object (TextPrompt)

חובה. טקסט הקלט החופשי שניתן למודל כפרומפט.

גוף התשובה

תשובה מאת models.countTextTokens.

הפונקציה מחזירה את tokenCount של המודל עבור prompt.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
tokenCount integer

מספר הטוקנים שאליהם הטוקן model מחלק את prompt.

תמיד לא שלילי.

ייצוג ב-JSON
{
  "tokenCount": integer
}

שיטה: models.generateMessage

יצירת תגובה מהמודל בהינתן קלט MessagePrompt.

נקודת קצה

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

פרמטרים של נתיב

model string

חובה. שם המודל שבו רוצים להשתמש.

פורמט: name=models/{model} הוא מקבל את הצורה models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים עם המבנה הבא:

Fields
prompt object (MessagePrompt)

חובה. קלט טקסטואלי מובנה שניתן למודל כפרומפט.

בהינתן הנחיה, המודל יחזיר את מה שהוא חוזה שתהיה ההודעה הבאה בדיון.

temperature number

אופציונלי. המדיניות קובעת את מידת הרנדומיזציה של הפלט.

הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך שקרוב יותר ל-1.0 יפיק תשובות מגוונות יותר, ואילו ערך שקרוב יותר ל-0.0 בדרך כלל יניב תשובות פחות מפתיעות מהמודל.

candidateCount integer

אופציונלי. מספר הודעות התשובה שנוצרו שיוחזרו.

הערך צריך להיות בין [1, 8], כולל. אם לא מגדירים את המדיניות הזו, ברירת המחדל היא 1.

topP number

אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך לקחת בחשבון כשמבצעים דגימה.

המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.

בשיטת הדגימה Nucleus נבחן הסט הקטן ביותר של טוקנים שסכום ההסתברות שלהם הוא לפחות topP.

topK integer

אופציונלי. מספר האסימונים המקסימלי שצריך לקחת בחשבון כשמבצעים דגימה.

המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.

דגימת k המובילים מתבססת על קבוצת topK האסימונים הסבירים ביותר.

גוף התשובה

התשובה מהמודל.

המידע הזה כולל הודעות ממועמדים והיסטוריית שיחות בצורה של הודעות בסדר כרונולוגי.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
candidates[] object (Message)

הודעות עם תשובות אפשריות מהמודל.

messages[] object (Message)

היסטוריית השיחות שבה נעשה שימוש על ידי המודל.

filters[] object (ContentFilter)

קבוצה של מטא-נתונים לסינון תוכן של הטקסט בהנחיה ובתשובה.

התגובה הזו מציינת אילו SafetyCategory חסמו את השילוב האפשרי למיקוד, מהו הערך הכי נמוך של HarmProbability שהפעיל חסימה ומהי הגדרת HarmThreshold של הקטגוריה הזו.

ייצוג ב-JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

שיטה: models.countMessageTokens

מפעילה את טוקנייזר של מודל על מחרוזת ומחזירה את מספר הטוקנים.

נקודת קצה

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

פרמטרים של נתיב

model string

חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.

השם הזה צריך להיות זהה לשם של מודל שמוחזר על ידי השיטה models.list.

פורמט: models/{model} הפורמט הוא models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים עם המבנה הבא:

Fields
prompt object (MessagePrompt)

חובה. ההנחיה שמספר הטוקנים שלה יוחזר.

גוף התשובה

תשובה מאת models.countMessageTokens.

הפונקציה מחזירה את tokenCount של המודל עבור prompt.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
tokenCount integer

מספר הטוקנים שאליהם הטוקן model מחלק את prompt.

תמיד לא שלילי.

ייצוג ב-JSON
{
  "tokenCount": integer
}

שיטה: models.embedText

יוצרת הטמעה מהמודל בהינתן הודעת קלט.

נקודת קצה

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

פרמטרים של נתיב

model string

חובה. שם המודל לשימוש בפורמט model=models/{model}. הוא מקבל את הצורה models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים עם המבנה הבא:

Fields
text string

אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.

גוף התשובה

התשובה ל-EmbedTextRequest.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
embedding object (Embedding)

פלט בלבד. ה-embedding שנוצר מטקסט הקלט.

ייצוג ב-JSON
{
  "embedding": {
    object (Embedding)
  }
}

שיטה: models.batchEmbedText

יוצר הטמעות (embeddings) מרובות מהמודל בהינתן טקסט קלט בקריאה סינכרונית.

נקודת קצה

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

פרמטרים של נתיב

model string

חובה. השם של Model שבו משתמשים כדי ליצור את ההטמעה. דוגמאות: models/embedding-gecko-001 הפורמט הוא models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים עם המבנה הבא:

Fields
texts[] string

אופציונלי. טקסטים חופשיים שיוזנו כקלט והמודל יהפוך אותם להטמעה. המגבלה הנוכחית היא 100 הודעות טקסט, ואם תחרגו ממנה תוצג שגיאה.

requests[] object (EmbedTextRequest)

אופציונלי. הטמעת בקשות באצווה. אפשר להגדיר רק אחד מהמאפיינים texts או requests.

גוף התשובה

התשובה ל-EmbedTextRequest.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
embeddings[] object (Embedding)

פלט בלבד. הטמעות (embeddings) שנוצרו מטקסט הקלט.

ייצוג ב-JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

שליחת בקשה לקבלת הטמעה של טקסט מהמודל.

שדות
model string

חובה. שם המודל לשימוש בפורמט model=models/{model}.

text string

אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.

ייצוג ב-JSON
{
  "model": string,
  "text": string
}

ContentFilter

מטא-נתונים של סינון תוכן שמשויכים לעיבוד של בקשה יחידה.

המאפיין ContentFilter מכיל סיבה ומחרוזת תומכת אופציונלית. יכול להיות שהסיבה לא צוינה.

שדות
reason enum (BlockedReason)

הסיבה לחסימת התוכן במהלך עיבוד הבקשה.

message string

מחרוזת שמתארת את התנהגות הסינון בפירוט רב יותר.

ייצוג ב-JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

רשימת סיבות אפשריות לחסימת תוכן.

טיפוסים בני מנייה (enum)
BLOCKED_REASON_UNSPECIFIED לא צוינה סיבה לחסימה.
SAFETY התוכן נחסם על ידי הגדרות הבטיחות.
OTHER התוכן נחסם, אבל הסיבה לא סווגה.

הטמעה

רשימה של מספרים ממשיים שמייצגים את ההטמעה.

שדות
value[] number

ערכי ההטמעה.

ייצוג ב-JSON
{
  "value": [
    number
  ]
}

הודעה

יחידת הבסיס של טקסט מובנה.

Message כולל author וcontent של Message.

התווית author משמשת לתיוג הודעות כשהן מוזנות למודל כטקסט.

שדות
author string

אופציונלי. המחבר של ההודעה.

התג הזה משמש כסימן לתוכן של ההודעה הזו כשהיא מוזנת למודל כטקסט.

המחבר יכול להיות כל מחרוזת אלפאנומרית.

content string

חובה. תוכן הטקסט של הנתונים המובְנים Message.

citationMetadata object (CitationMetadata)

פלט בלבד. פרטי הציטוט של content שנוצר על ידי המודל בMessage הזה.

אם Message נוצר כפלט מהמודל, יכול להיות שהשדה הזה יאוכלס בפרטי שיוך לכל טקסט שכלול ב-content. השדה הזה משמש רק בפלט.

ייצוג ב-JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

כל הטקסט המובנה שמועבר למודל כהנחיה.

MessagePrompt מכיל קבוצה מובנית של שדות שמספקים הקשר לשיחה, דוגמאות לזוגות של הודעות קלט של משתמשים ופלט של המודל שמכינות את המודל להגיב בדרכים שונות, ואת היסטוריית השיחה או רשימת ההודעות שמייצגות את התורות המתחלפות של השיחה בין המשתמש למודל.

שדות
context string

אופציונלי. טקסט שצריך לספק למודל קודם כדי להבטיח שהתשובה תהיה מבוססת על מידע מהימן.

אם השדה הזה לא ריק, הערך context יינתן למודל לפני הערכים examples ו-messages. כשמשתמשים ב-context, חשוב לספק אותו בכל בקשה כדי לשמור על רצף.

בשדה הזה אפשר לתת תיאור של ההנחיה למודל כדי לספק הקשר ולכוון את התשובות. דוגמאות: "Translate the phrase from English to French" (תרגם את הביטוי מאנגלית לצרפתית) או "Given a statement, classify the sentiment as happy, sad or neutral" (בהינתן הצהרה, סווג את הסנטימנט כחיובי, שלילי או ניטרלי).

אם גודל הקלט הכולל חורג מinputTokenLimit של המודל והבקשה לקלט נחתכת, כל מה שכלול בשדה הזה יקבל עדיפות על פני היסטוריית ההודעות.

examples[] object (Example)

אופציונלי. דוגמאות למה שהמודל צריך ליצור.

ההנחיה כוללת את הקלט של המשתמש ואת התגובה שהמודל צריך לחקות.

ההודעות האלה examples מטופלות באופן זהה להודעות בצ'אט, אלא שהן מקבלות עדיפות על פני ההיסטוריה ב-messages: אם הגודל הכולל של הקלט חורג מ-inputTokenLimit של המודל, הקלט ייחתך. הפריטים יוסרו מ-messages לפני examples.

messages[] object (Message)

חובה. תמונת מצב של היסטוריית השיחות האחרונות, ממוינת לפי סדר כרונולוגי.

התור עובר לסירוגין בין שני מחברים.

אם הגודל הכולל של הקלט חורג מ-inputTokenLimit של המודל, הקלט ייחתך: הפריטים הכי ישנים יוסרו מ-messages.

ייצוג ב-JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

דוגמה

דוגמה לקלט/פלט שמשמשת להנחיית המודל.

ההנחיה הזו מדגימה למודל איך להשיב או איך לעצב את התשובה.

שדות
input object (Message)

חובה. דוגמה לקלט Message מהמשתמש.

output object (Message)

חובה. דוגמה לפלט שהמודל צריך להפיק בהינתן הקלט.

ייצוג ב-JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

התשובה מהמודל, כולל השלמות אפשריות.

שדות
candidates[] object (TextCompletion)

תשובות אפשריות מהמודל.

filters[] object (ContentFilter)

קבוצה של מטא-נתונים לסינון תוכן של הטקסט בהנחיה ובתשובה.

התגובה הזו מציינת אילו SafetyCategory חסמו את השילוב האפשרי למיקוד, מהו הערך הכי נמוך של HarmProbability שהפעיל חסימה ומהי הגדרת HarmThreshold של הקטגוריה הזו. הערך הזה מציין את השינוי הקטן ביותר ב-SafetySettings שנדרש כדי לבטל את החסימה של תגובה אחת לפחות.

החסימה מוגדרת על ידי SafetySettings בבקשה (או על ידי SafetySettings שמוגדר כברירת מחדל ב-API).

safetyFeedback[] object (SafetyFeedback)

מחזירה משוב על בטיחות שקשור לסינון תוכן.

ייצוג ב-JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

טקסט הפלט שמוחזר ממודל.

שדות
output string

פלט בלבד. הטקסט שנוצר ומוחזר מהמודל.

safetyRatings[] object (SafetyRating)

דירוגים של בטיחות התשובה.

לכל קטגוריה יש סיווג אחד לכל היותר.

citationMetadata object (CitationMetadata)

פלט בלבד. פרטי הציטוט של output שנוצר על ידי המודל בTextCompletion הזה.

יכול להיות שהשדה הזה יאוכלס בפרטי שיוך לכל טקסט שכלול ב-output.

ייצוג ב-JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

משוב על בטיחות לגבי בקשה שלמה.

השדה הזה מאוכלס אם התוכן בקלט או בתגובה נחסם בגלל הגדרות בטיחות. יכול להיות שלא יהיה SafetyFeedback לכל HarmCategory. כל SafetyFeedback יחזיר את הגדרות הבטיחות שבהן נעשה שימוש בבקשה, וגם את ההסתברות הכי נמוכה לפגיעה שצריך לאפשר כדי להחזיר תוצאה.

שדות
rating object (SafetyRating)

דירוג הבטיחות נקבע לפי התוכן.

setting object (SafetySetting)

הגדרות הבטיחות שחלות על הבקשה.

ייצוג ב-JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

טקסט שמועבר למודל כהנחיה.

המודל ישתמש ב-TextPrompt הזה כדי ליצור השלמה של טקסט.

שדות
text string

חובה. הטקסט של ההנחיה.

ייצוג ב-JSON
{
  "text": string
}