PaLM (decommissioned)

तरीका: models.generateText

यह फ़ंक्शन, इनपुट मैसेज के आधार पर मॉडल से जवाब जनरेट करता है.

एंडपॉइंट

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

पाथ पैरामीटर

model string

ज़रूरी है. जवाब जनरेट करने के लिए, Model या TunedModel का नाम. उदाहरण: models/text-bison-001 tunedModels/sentence-translator-u3b7m यह models/{model} के फ़ॉर्म में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, इस स्ट्रक्चर का डेटा शामिल होता है:

Fields
prompt object (TextPrompt)

ज़रूरी है. मॉडल को प्रॉम्प्ट के तौर पर दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.

प्रॉम्प्ट दिए जाने पर, मॉडल TextCompletion का जवाब जनरेट करेगा. यह जवाब, इनपुट किए गए टेक्स्ट को पूरा करने के लिए अनुमानित तौर पर जनरेट किया जाता है.

safetySettings[] object (SafetySetting)

ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने के लिए, यूनीक SafetySetting इंस्टेंस की सूची.

यह नीति, GenerateTextRequest.prompt और GenerateTextResponse.candidates पर लागू होगी. हर SafetyCategory टाइप के लिए, एक से ज़्यादा सेटिंग नहीं होनी चाहिए. एपीआई, उन सभी प्रॉम्प्ट और जवाबों को ब्लॉक कर देगा जो इन सेटिंग के ज़रिए तय की गई थ्रेशोल्ड को पूरा नहीं करते. इस सूची में, safetySettings में बताए गए हर SafetyCategory के लिए डिफ़ॉल्ट सेटिंग को ओवरराइड किया जाता है. अगर सूची में दिए गए किसी SafetyCategory के लिए कोई SafetySetting नहीं है, तो एपीआई उस कैटगरी के लिए डिफ़ॉल्ट सुरक्षा सेटिंग का इस्तेमाल करेगा. टेक्स्ट सेवा में, नुकसान पहुंचाने वाली इन कैटगरी का इस्तेमाल किया जा सकता है: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS.

stopSequences[] string

वर्णों के ऐसे क्रम (ज़्यादा से ज़्यादा पांच) जिन्हें शामिल करने पर, आउटपुट जनरेट होना बंद हो जाएगा. अगर इसे तय किया जाता है, तो एपीआई, स्टॉप सीक्वेंस के पहली बार दिखने पर रुक जाएगा. जवाब में स्टॉप सीक्वेंस शामिल नहीं किया जाएगा.

temperature number

ज़रूरी नहीं. इससे आउटपुट में रैंडमनेस को कंट्रोल किया जाता है. ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel फ़ंक्शन से मिले Model के Model.temperature एट्रिब्यूट को देखें.

वैल्यू [0.0,1.0] के बीच हो सकती है. इसमें ये दोनों वैल्यू भी शामिल हैं. वैल्यू 1.0 के आस-पास होने पर, मॉडल से अलग-अलग तरह के और क्रिएटिव जवाब मिलते हैं. वहीं, वैल्यू 0.0 के आस-पास होने पर, मॉडल से आम तौर पर ज़्यादा सीधे जवाब मिलते हैं.

candidateCount integer

ज़रूरी नहीं. जवाबों की कितनी संख्या जनरेट करके दिखानी है.

यह वैल्यू, [1, 8] के बीच होनी चाहिए. इसमें ये दोनों भी शामिल हैं. अगर यह सेट नहीं है, तो डिफ़ॉल्ट रूप से इसकी वैल्यू 1 होगी.

maxOutputTokens integer

ज़रूरी नहीं. किसी जवाब में शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

अगर इसे सेट नहीं किया जाता है, तो यह Model स्पेसिफ़िकेशन में बताई गई outputTokenLimit पर डिफ़ॉल्ट रूप से सेट हो जाएगा.

topP number

ज़रूरी नहीं. सैंपल लेते समय, टोकन की ज़्यादा से ज़्यादा कुल संभावना.

यह मॉडल, टॉप-के और न्यूक्लियस सैंपलिंग, दोनों का इस्तेमाल करता है.

टोकन को उनकी असाइन की गई संभावनाओं के आधार पर क्रम से लगाया जाता है, ताकि सिर्फ़ सबसे संभावित टोकन पर विचार किया जा सके. टॉप-k सैंपलिंग में, सीधे तौर पर टोकन की ज़्यादा से ज़्यादा संख्या को सीमित किया जाता है. वहीं, न्यूक्लियस सैंपलिंग में, कुल संभावना के आधार पर टोकन की संख्या को सीमित किया जाता है.

ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel फ़ंक्शन से मिले Model के Model.top_p एट्रिब्यूट को देखें.

topK integer

ज़रूरी नहीं. सैंपल लेते समय, ज़्यादा से ज़्यादा टोकन की संख्या.

यह मॉडल, टॉप-के और न्यूक्लियस सैंपलिंग, दोनों का इस्तेमाल करता है.

टॉप-k सैंपलिंग में, topK सबसे ज़्यादा संभावित टोकन के सेट को ध्यान में रखा जाता है. डिफ़ॉल्ट रूप से, यह वैल्यू 40 पर सेट होती है.

ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel फ़ंक्शन से मिले Model के Model.top_k एट्रिब्यूट को देखें.

जवाब का मुख्य भाग

कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse का एक इंस्टेंस शामिल किया जाता है.

तरीका: models.countTextTokens

यह फ़ंक्शन, किसी टेक्स्ट पर मॉडल के टोकनाइज़र को चलाता है और टोकन की संख्या दिखाता है.

एंडपॉइंट

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के लिए आईडी के तौर पर काम करता है.

यह नाम, models.list तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.

फ़ॉर्मैट: models/{model} यह models/{model} के फ़ॉर्म में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, इस स्ट्रक्चर का डेटा शामिल होता है:

Fields
prompt object (TextPrompt)

ज़रूरी है. मॉडल को प्रॉम्प्ट के तौर पर दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.

जवाब का मुख्य भाग

models.countTextTokens से मिला जवाब.

यह prompt के लिए, मॉडल का tokenCount दिखाता है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

Fields
tokenCount integer

model, prompt को जितने टोकन में बदलता है उनकी संख्या.

यह हमेशा ज़ीरो या इससे ज़्यादा होता है.

JSON के काेड में दिखाना
{
  "tokenCount": integer
}

तरीका: models.generateMessage

यह फ़ंक्शन, इनपुट MessagePrompt के आधार पर मॉडल से जवाब जनरेट करता है.

एंडपॉइंट

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

पाथ पैरामीटर

model string

ज़रूरी है. इस्तेमाल किए जाने वाले मॉडल का नाम.

फ़ॉर्मैट: name=models/{model}. यह models/{model} के फ़ॉर्म में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, इस स्ट्रक्चर का डेटा शामिल होता है:

Fields
prompt object (MessagePrompt)

ज़रूरी है. मॉडल को प्रॉम्प्ट के तौर पर दिया गया स्ट्रक्चर्ड टेक्स्ट इनपुट.

किसी प्रॉम्प्ट के आधार पर, मॉडल यह अनुमान लगाकर जवाब देगा कि बातचीत में अगला मैसेज क्या हो सकता है.

temperature number

ज़रूरी नहीं. इससे आउटपुट में रैंडमनेस को कंट्रोल किया जाता है.

वैल्यू [0.0,1.0] तक हो सकती हैं. 1.0 के आस-पास की वैल्यू से, अलग-अलग तरह के जवाब मिलेंगे. वहीं, 0.0 के आस-पास की वैल्यू से, मॉडल से आम तौर पर कम चौंकाने वाले जवाब मिलेंगे.

candidateCount integer

ज़रूरी नहीं. जनरेट किए गए जवाब वाले मैसेज की संख्या.

यह वैल्यू, [1, 8] के बीच होनी चाहिए. इसमें ये दोनों भी शामिल हैं. अगर इसे सेट नहीं किया जाता है, तो यह डिफ़ॉल्ट रूप से 1 पर सेट हो जाएगा.

topP number

ज़रूरी नहीं. सैंपल लेते समय, टोकन की ज़्यादा से ज़्यादा कुल संभावना.

यह मॉडल, टॉप-के और न्यूक्लियस सैंपलिंग, दोनों का इस्तेमाल करता है.

न्यूक्लियस सैंपलिंग में, टोकन के सबसे छोटे सेट को चुना जाता है. इस सेट में शामिल टोकन की संभावनाओं का योग कम से कम topP होता है.

topK integer

ज़रूरी नहीं. सैंपल लेते समय, ज़्यादा से ज़्यादा टोकन की संख्या.

यह मॉडल, टॉप-के और न्यूक्लियस सैंपलिंग, दोनों का इस्तेमाल करता है.

टॉप-k सैंपलिंग में, topK सबसे ज़्यादा संभावित टोकन के सेट को ध्यान में रखा जाता है.

जवाब का मुख्य भाग

मॉडल से मिला जवाब.

इसमें उम्मीदवार के मैसेज और बातचीत का इतिहास शामिल होता है. यह इतिहास, समय के हिसाब से क्रम में लगे मैसेज के तौर पर होता है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

Fields
candidates[] object (Message)

मॉडल से मिले, उम्मीदवार के जवाब वाले मैसेज.

messages[] object (Message)

मॉडल के लिए इस्तेमाल की गई बातचीत का इतिहास.

filters[] object (ContentFilter)

यह प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट फ़िल्टर करने वाले मेटाडेटा का सेट होता है.

इससे पता चलता है कि किन SafetyCategory(s) ने किसी कैंडिडेट को इस जवाब से ब्लॉक किया है, ब्लॉक करने वाला सबसे कम HarmProbability, और उस कैटगरी के लिए HarmThreshold सेटिंग.

JSON के काेड में दिखाना
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

तरीका: models.countMessageTokens

यह फ़ंक्शन, किसी स्ट्रिंग पर मॉडल के टोकनाइज़र को चलाता है और टोकन की संख्या दिखाता है.

एंडपॉइंट

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के लिए आईडी के तौर पर काम करता है.

यह नाम, models.list तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.

फ़ॉर्मैट: models/{model} यह models/{model} के फ़ॉर्म में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, इस स्ट्रक्चर का डेटा शामिल होता है:

Fields
prompt object (MessagePrompt)

ज़रूरी है. वह प्रॉम्प्ट जिसके टोकन की संख्या दिखानी है.

जवाब का मुख्य भाग

models.countMessageTokens से मिला जवाब.

यह prompt के लिए, मॉडल का tokenCount दिखाता है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

Fields
tokenCount integer

model, prompt को जितने टोकन में बदलता है उनकी संख्या.

यह हमेशा ज़ीरो या इससे ज़्यादा होता है.

JSON के काेड में दिखाना
{
  "tokenCount": integer
}

तरीका: models.embedText

यह फ़ंक्शन, इनपुट मैसेज के आधार पर मॉडल से एम्बेडिंग जनरेट करता है.

एंडपॉइंट

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल का नाम, जिसे model=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करना है. यह models/{model} के फ़ॉर्म में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, इस स्ट्रक्चर का डेटा शामिल होता है:

Fields
text string

ज़रूरी नहीं. फ़्री-फ़ॉर्म इनपुट टेक्स्ट, जिसे मॉडल एम्बेडिंग में बदल देगा.

जवाब का मुख्य भाग

EmbedTextRequest का जवाब.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

Fields
embedding object (Embedding)

सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से जनरेट किया गया एम्बेडिंग.

JSON के काेड में दिखाना
{
  "embedding": {
    object (Embedding)
  }
}

मेथड: models.batchEmbedText

यह फ़ंक्शन, मॉडल को दिए गए इनपुट टेक्स्ट से कई एम्बेडिंग जनरेट करता है. इसके लिए, सिंक्रोनस कॉल का इस्तेमाल किया जाता है.

एंडपॉइंट

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

पाथ पैरामीटर

model string

ज़रूरी है. एम्बेडिंग जनरेट करने के लिए, इस्तेमाल किए जाने वाले Model का नाम. उदाहरण: models/embedding-gecko-001 यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, इस स्ट्रक्चर का डेटा शामिल होता है:

Fields
texts[] string

ज़रूरी नहीं. फ़्री-फ़ॉर्म में दिए गए इनपुट टेक्स्ट, जिन्हें मॉडल एम्बेडिंग में बदलेगा. फ़िलहाल, 100 टेक्स्ट मैसेज भेजने की सीमा तय की गई है. इससे ज़्यादा मैसेज भेजने पर, गड़बड़ी का मैसेज दिखेगा.

requests[] object (EmbedTextRequest)

ज़रूरी नहीं. बैच के लिए एम्बेड करने के अनुरोध. सिर्फ़ texts या requests में से किसी एक को सेट किया जा सकता है.

जवाब का मुख्य भाग

EmbedTextRequest का जवाब.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

Fields
embeddings[] object (Embedding)

सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से जनरेट किए गए एम्बेडिंग.

JSON के काेड में दिखाना
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

मॉडल से टेक्स्ट एम्बेडिंग पाने का अनुरोध.

Fields
model string

ज़रूरी है. मॉडल का नाम, जिसे model=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करना है.

text string

ज़रूरी नहीं. फ़्री-फ़ॉर्म इनपुट टेक्स्ट, जिसे मॉडल एम्बेडिंग में बदल देगा.

JSON के काेड में दिखाना
{
  "model": string,
  "text": string
}

ContentFilter

किसी एक अनुरोध को प्रोसेस करने से जुड़ा कॉन्टेंट फ़िल्टर करने वाला मेटाडेटा.

ContentFilter में एक वजह और एक वैकल्पिक स्ट्रिंग होती है. इसकी वजह की जानकारी नहीं दी गई है.

Fields
reason enum (BlockedReason)

अनुरोध प्रोसेस करने के दौरान, कॉन्टेंट को ब्लॉक करने की वजह.

message string

फ़िल्टर करने के तरीके के बारे में ज़्यादा जानकारी देने वाली स्ट्रिंग.

JSON के काेड में दिखाना
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

कॉन्टेंट को ब्लॉक किए जाने की वजहों की सूची.

Enums
BLOCKED_REASON_UNSPECIFIED ब्लॉक करने की वजह नहीं बताई गई.
SAFETY सुरक्षा सेटिंग की वजह से कॉन्टेंट को ब्लॉक कर दिया गया था.
OTHER कॉन्टेंट को ब्लॉक कर दिया गया है, लेकिन इसकी वजह को कैटगरी में नहीं रखा गया है.

एम्बेड करना

एम्बेडिंग दिखाने वाले फ़्लोट की सूची.

Fields
value[] number

एम्बेडिंग वैल्यू.

JSON के काेड में दिखाना
{
  "value": [
    number
  ]
}

मैसेज

स्ट्रक्चर्ड टेक्स्ट की बुनियादी इकाई.

Message में, author और Message का content शामिल होता है.

author का इस्तेमाल, मैसेज को टैग करने के लिए किया जाता है. ऐसा तब किया जाता है, जब मैसेज को टेक्स्ट के तौर पर मॉडल में डाला जाता है.

Fields
author string

ज़रूरी नहीं. इस मैसेज का लेखक.

जब इस मैसेज के कॉन्टेंट को टेक्स्ट के तौर पर मॉडल को दिया जाता है, तब यह कुंजी के तौर पर काम करता है.

लेखक का नाम, अक्षर और अंक वाली कोई भी स्ट्रिंग हो सकती है.

content string

ज़रूरी है. स्ट्रक्चर्ड Message का टेक्स्ट कॉन्टेंट.

citationMetadata object (CitationMetadata)

सिर्फ़ आउटपुट के लिए. इस Message में, मॉडल से जनरेट किए गए content के लिए उद्धरण की जानकारी.

अगर इस Message को मॉडल से जनरेट किया गया है, तो इस फ़ील्ड में content में शामिल किसी भी टेक्स्ट के लिए एट्रिब्यूशन की जानकारी अपने-आप भर सकती है. इस फ़ील्ड का इस्तेमाल सिर्फ़ आउटपुट पर किया जाता है.

JSON के काेड में दिखाना
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

स्ट्रक्चर्ड इनपुट टेक्स्ट का पूरा हिस्सा, जिसे मॉडल को प्रॉम्प्ट के तौर पर पास किया गया है.

MessagePrompt में फ़ील्ड का एक स्ट्रक्चर्ड सेट होता है. इससे बातचीत के बारे में जानकारी मिलती है. इसमें उपयोगकर्ता के इनपुट/मॉडल के आउटपुट मैसेज पेयर के उदाहरण भी होते हैं. इनसे मॉडल को अलग-अलग तरीकों से जवाब देने के लिए तैयार किया जाता है. साथ ही, इसमें बातचीत का इतिहास या मैसेज की सूची होती है. इससे पता चलता है कि उपयोगकर्ता और मॉडल के बीच बातचीत कैसे हुई.

Fields
context string

ज़रूरी नहीं. यह वह टेक्स्ट है जो जवाब देने से पहले मॉडल को दिया जाना चाहिए.

अगर यह खाली नहीं है, तो examples और messages से पहले, मॉडल को यह context दिया जाएगा. context का इस्तेमाल करते समय, हर अनुरोध के साथ इसे ज़रूर दें, ताकि बातचीत जारी रहे.

इस फ़ील्ड में, मॉडल को दिए गए प्रॉम्प्ट के बारे में जानकारी दी जा सकती है. इससे मॉडल को कॉन्टेक्स्ट समझने और जवाब देने में मदद मिलती है. उदाहरण: "इस वाक्यांश का अंग्रेज़ी से फ़्रेंच में अनुवाद करो." या "दिए गए स्टेटमेंट को, खुश, दुखी या सामान्य के तौर पर क्लासिफ़ाई करो."

अगर कुल इनपुट साइज़, मॉडल के inputTokenLimit से ज़्यादा है और इनपुट अनुरोध को छोटा कर दिया गया है, तो इस फ़ील्ड में शामिल की गई कोई भी जानकारी, मैसेज के इतिहास से ज़्यादा अहम मानी जाएगी.

examples[] object (Example)

ज़रूरी नहीं. इस बारे में उदाहरण कि मॉडल को किस तरह का कॉन्टेंट जनरेट करना चाहिए.

इसमें उपयोगकर्ता का इनपुट और वह जवाब शामिल होता है जिसे मॉडल को कॉपी करना चाहिए.

इन examples को बातचीत के मैसेज की तरह ही माना जाता है. हालांकि, messages में मौजूद इतिहास की तुलना में इन्हें ज़्यादा प्राथमिकता दी जाती है: अगर कुल इनपुट का साइज़, मॉडल के inputTokenLimit से ज़्यादा है, तो इनपुट को छोटा कर दिया जाएगा. आइटम को examples से पहले messages से हटा दिया जाएगा.

messages[] object (Message)

ज़रूरी है. हाल ही में हुई बातचीत के इतिहास का स्नैपशॉट. इसे समय के हिसाब से क्रम में लगाया जाता है.

दो लेखकों के बीच बारी-बारी से जवाब देने की सुविधा.

अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit से ज़्यादा है, तो इनपुट को छोटा कर दिया जाएगा: सबसे पुराने आइटम, inputTokenLimit से हटा दिए जाएंगे.messages

JSON के काेड में दिखाना
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

उदाहरण

मॉडल को निर्देश देने के लिए इस्तेमाल किया गया इनपुट/आउटपुट का उदाहरण.

इससे पता चलता है कि मॉडल को किस तरह जवाब देना चाहिए या अपने जवाब को फ़ॉर्मैट करना चाहिए.

Fields
input object (Message)

ज़रूरी है. उपयोगकर्ता से मिले इनपुट Message का उदाहरण.

output object (Message)

ज़रूरी है. इनपुट के हिसाब से मॉडल को कैसा आउटपुट देना चाहिए, इसका उदाहरण.

JSON के काेड में दिखाना
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

मॉडल से मिला जवाब. इसमें, संभावित जवाब भी शामिल हैं.

Fields
candidates[] object (TextCompletion)

मॉडल से मिले उम्मीदवार के जवाब.

filters[] object (ContentFilter)

यह प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट फ़िल्टर करने वाले मेटाडेटा का सेट होता है.

इससे पता चलता है कि किन SafetyCategory(s) ने किसी कैंडिडेट को इस जवाब से ब्लॉक किया है, ब्लॉक करने वाला सबसे कम HarmProbability, और उस कैटगरी के लिए HarmThreshold सेटिंग. इससे SafetySettings में होने वाले सबसे छोटे बदलाव के बारे में पता चलता है. इस बदलाव से, कम से कम एक जवाब को अनब्लॉक किया जा सकेगा.

अनुरोध में मौजूद SafetySettings या एपीआई के डिफ़ॉल्ट SafetySettings के ज़रिए, अनुरोध को ब्लॉक करने की सुविधा कॉन्फ़िगर की जाती है.

safetyFeedback[] object (SafetyFeedback)

यह कॉन्टेंट फ़िल्टर करने से जुड़ी सुरक्षा के बारे में कोई भी सुझाव/राय देता है.

JSON के काेड में दिखाना
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

किसी मॉडल से मिला आउटपुट टेक्स्ट.

Fields
output string

सिर्फ़ आउटपुट के लिए. मॉडल से मिला जनरेट किया गया टेक्स्ट.

safetyRatings[] object (SafetyRating)

जवाब के सुरक्षित होने की रेटिंग.

हर कैटगरी के लिए ज़्यादा से ज़्यादा एक रेटिंग होती है.

citationMetadata object (CitationMetadata)

सिर्फ़ आउटपुट के लिए. इस TextCompletion में, मॉडल से जनरेट किए गए output के लिए उद्धरण की जानकारी.

इस फ़ील्ड में, output में शामिल किसी भी टेक्स्ट के लिए एट्रिब्यूशन की जानकारी अपने-आप भर सकती है.

JSON के काेड में दिखाना
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

पूरे अनुरोध के लिए सुरक्षा से जुड़े सुझाव/राय.

अगर सुरक्षा सेटिंग की वजह से, इनपुट और/या जवाब में मौजूद कॉन्टेंट को ब्लॉक किया जाता है, तो इस फ़ील्ड में जानकारी अपने-आप भर जाती है. ऐसा हो सकता है कि हर HarmCategory के लिए SafetyFeedback मौजूद न हो. हर SafetyFeedback, अनुरोध में इस्तेमाल की गई सुरक्षा सेटिंग के साथ-साथ, HarmProbability की सबसे कम वैल्यू दिखाएगा. इस वैल्यू के आधार पर, नतीजे दिखाए जा सकते हैं.

Fields
rating object (SafetyRating)

कॉन्टेंट के आधार पर सुरक्षा रेटिंग का आकलन किया जाता है.

setting object (SafetySetting)

अनुरोध पर लागू की गई सुरक्षा सेटिंग.

JSON के काेड में दिखाना
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

मॉडल को प्रॉम्प्ट के तौर पर दिया गया टेक्स्ट.

मॉडल, इस TextPrompt का इस्तेमाल करके टेक्स्ट पूरा करेगा.

Fields
text string

ज़रूरी है. प्रॉम्प्ट का टेक्स्ट.

JSON के काेड में दिखाना
{
  "text": string
}