पब्लिश करने की तारीख: 20 मई, 2025, पिछली बार अपडेट किए जाने की तारीख: 21 जुलाई, 2025
ज़्यादा जानकारी देने वाला वीडियो | वेब | एक्सटेंशन | Chrome स्टेटस | मकसद |
---|---|---|---|---|
GitHub | देखें | Intent to Experiment |
Prompt API की मदद से, ब्राउज़र में Gemini Nano को आम बोलचाल वाली भाषा में अनुरोध भेजे जा सकते हैं.
वेब ऐप्लिकेशन या वेबसाइट में, Prompt API का इस्तेमाल कई तरीकों से किया जा सकता है. उदाहरण के लिए, ये बनाए जा सकते हैं:
- एआई की मदद से खोज करने की सुविधा: किसी वेब पेज के कॉन्टेंट के आधार पर सवालों के जवाब पाना.
- आपकी दिलचस्पी के हिसाब से खबरों के फ़ीड: ऐसा फ़ीड बनाएं जो लेखों को कैटगरी के हिसाब से डाइनैमिक तौर पर बांटता हो. साथ ही, उपयोगकर्ताओं को उस कॉन्टेंट को फ़िल्टर करने की अनुमति देता हो.
ये कुछ उदाहरण हैं. हमें यह देखने में खुशी होगी कि आपने क्या बनाया है.
हार्डवेयर से जुड़ी ज़रूरी शर्तें देखें
Chrome में इन एपीआई का इस्तेमाल करके सुविधाएं चलाने वाले डेवलपर और उपयोगकर्ताओं के लिए, ये ज़रूरी शर्तें लागू होती हैं. अन्य ब्राउज़र के लिए, ऑपरेटिंग सिस्टम की अलग-अलग ज़रूरी शर्तें हो सकती हैं.
Language Detector और Translator API, डेस्कटॉप पर Chrome में काम करते हैं. ये एपीआई, फ़ोन या टैबलेट पर काम नहीं करते. Prompt API, Summarizer API, Writer API, और Rewriter API, Chrome में तब काम करते हैं, जब ये शर्तें पूरी होती हैं:
- ऑपरेटिंग सिस्टम: Windows 10 या 11; macOS 13+ (Ventura और उसके बाद के वर्शन); या Linux. Android, iOS, और ChromeOS के लिए Chrome में, Gemini Nano का इस्तेमाल करने वाले एपीआई अभी काम नहीं करते.
- स्टोरेज: जिस वॉल्यूम में आपकी Chrome प्रोफ़ाइल है उसमें कम से कम 22 जीबी खाली जगह होनी चाहिए.
- जीपीयू: इसमें कम से कम 4 जीबी वीआरएएम होना चाहिए.
- नेटवर्क: अनलिमिटेड डेटा या बिना पाबंदी वाला कनेक्शन.
Gemini Nano का सटीक साइज़ अलग-अलग हो सकता है, क्योंकि ब्राउज़र मॉडल को अपडेट करता है. मौजूदा साइज़ जानने के लिए, chrome://on-device-internals
पर जाएं और मॉडल की स्थिति पर जाएं. मॉडल का साइज़ पता करने के लिए, सूची में दिया गया फ़ाइल पाथ खोलें.
Prompt API का इस्तेमाल करना
इस एपीआई का इस्तेमाल करने से पहले, जनरेटिव एआई के इस्तेमाल से जुड़ी पाबंदी की Google की नीति को स्वीकार करें.
LanguageModel
नेमस्पेस में, आपके लिए दो फ़ंक्शन उपलब्ध हैं:
availability()
पर क्लिक करके देखें कि मॉडल क्या-क्या कर सकता है और यह उपलब्ध है या नहीं.create()
पर क्लिक करके, भाषा मॉडल सेशन शुरू करें.
मॉडल डाउनलोड
Prompt API, Chrome में Gemini Nano मॉडल का इस्तेमाल करता है. एपीआई को Chrome में पहले से मौजूद रखा गया है. हालांकि, जब कोई ऑरिजिन पहली बार एपीआई का इस्तेमाल करता है, तब मॉडल को अलग से डाउनलोड किया जाता है.
यह पता लगाने के लिए कि मॉडल इस्तेमाल करने के लिए तैयार है या नहीं, एसिंक्रोनस LanguageModel.availability()
फ़ंक्शन को कॉल करें. इससे इनमें से कोई एक जवाब मिलना चाहिए:
"unavailable"
का मतलब है कि लागू करने के लिए, अनुरोध किए गए विकल्पों का इस्तेमाल नहीं किया जा सकता या भाषा मॉडल को प्रॉम्प्ट करने की सुविधा उपलब्ध नहीं है."downloadable"
का मतलब है कि लागू करने की प्रोसेस में, अनुरोध किए गए विकल्पों के साथ काम किया जा सकता है. हालांकि, इन विकल्पों का इस्तेमाल करके सेशन बनाने से पहले, इसे कुछ डाउनलोड करना होगा. उदाहरण के लिए, भाषा मॉडल या फ़ाइन-ट्यूनिंग."downloading"
का मतलब है कि लागू करने की प्रोसेस में, अनुरोध किए गए विकल्पों के साथ काम किया जा सकता है. हालांकि, उन विकल्पों का इस्तेमाल करके सेशन बनाने से पहले, इसे डाउनलोड करने की प्रोसेस पूरी करनी होगी."available"
का मतलब है कि लागू करने के लिए, अनुरोध किए गए विकल्पों के साथ काम करता है. इसके लिए, किसी नए डाउनलोड की ज़रूरत नहीं होती.
मॉडल डाउनलोड करने की प्रोसेस शुरू करने और भाषा के मॉडल का सेशन बनाने के लिए, एसिंक्रोनस LanguageModel.create()
फ़ंक्शन को कॉल करें. अगर availability()
का जवाब 'downloadable'
था, तो डाउनलोड की प्रोग्रेस को सुनने का सबसे सही तरीका है. इस तरह, डाउनलोड में समय लगने पर उपयोगकर्ता को इसकी सूचना दी जा सकती है.
const session = await LanguageModel.create({
monitor(m) {
m.addEventListener('downloadprogress', (e) => {
console.log(`Downloaded ${e.loaded * 100}%`);
});
},
});
मॉडल की सुविधाएं
params()
फ़ंक्शन, आपको भाषा मॉडल के पैरामीटर के बारे में बताता है. इस ऑब्जेक्ट में ये फ़ील्ड शामिल होते हैं:
defaultTopK
: डिफ़ॉल्ट टॉप-के वैल्यू (डिफ़ॉल्ट:3
).maxTopK
: ज़्यादा से ज़्यादा टॉप-के वैल्यू (8
).defaultTemperature
: डिफ़ॉल्ट तापमान (1.0
). तापमान की वैल्यू,0.0
और2.0
के बीच होनी चाहिए.maxTemperature
: ज़्यादा से ज़्यादा तापमान.
await LanguageModel.params();
// {defaultTopK: 3, maxTopK: 8, defaultTemperature: 1, maxTemperature: 2}
सेशन बनाना
Prompt API के चालू होने के बाद, create()
फ़ंक्शन का इस्तेमाल करके एक सेशन बनाया जाता है.
मॉडल को प्रॉम्प्ट देने के लिए, prompt()
या promptStreaming()
फ़ंक्शन का इस्तेमाल किया जा सकता है.
अपने सेशन को पसंद के मुताबिक बनाना
हर सेशन को topK
और temperature
के साथ पसंद के मुताबिक बनाया जा सकता है. इसके लिए, विकल्प ऑब्जेक्ट का इस्तेमाल किया जा सकता है. इन पैरामीटर की डिफ़ॉल्ट वैल्यू, LanguageModel.params()
से मिलती हैं.
const params = await LanguageModel.params();
// Initializing a new session must either specify both `topK` and
// `temperature` or neither of them.
const slightlyHighTemperatureSession = await LanguageModel.create({
temperature: Math.max(params.defaultTemperature * 1.2, 2.0),
topK: params.defaultTopK,
});
create()
फ़ंक्शन के वैकल्पिक विकल्पों वाला ऑब्जेक्ट भी signal
फ़ील्ड लेता है. इससे आपको सेशन को खत्म करने के लिए AbortSignal
पास करने की सुविधा मिलती है.
const controller = new AbortController();
stopButton.onclick = () => controller.abort();
const session = await LanguageModel.create({
signal: controller.signal,
});
शुरुआती प्रॉम्प्ट
शुरुआती प्रॉम्प्ट की मदद से, भाषा मॉडल को पिछले इंटरैक्शन के बारे में जानकारी दी जा सकती है. उदाहरण के लिए, ब्राउज़र को फिर से चालू करने के बाद, उपयोगकर्ता को सेव किए गए सेशन को फिर से शुरू करने की अनुमति दी जा सकती है.
const session = await LanguageModel.create({
initialPrompts: [
{ role: 'system', content: 'You are a helpful and friendly assistant.' },
{ role: 'user', content: 'What is the capital of Italy?' },
{ role: 'assistant', content: 'The capital of Italy is Rome.' },
{ role: 'user', content: 'What language is spoken there?' },
{
role: 'assistant',
content: 'The official language of Italy is Italian. [...]',
},
],
});
प्रीफ़िक्स देकर जवाबों को सीमित करना
मॉडल के पिछले जवाबों के बारे में ज़्यादा जानकारी देने के लिए, पिछली भूमिकाओं के अलावा एक नई "assistant"
भूमिका जोड़ी जा सकती है. उदाहरण के लिए:
const followup = await session.prompt([
{
role: "user",
content: "I'm nervous about my presentation tomorrow"
},
{
role: "assistant"
content: "Presentations are tough!"
}
]);
कुछ मामलों में, आपको नया जवाब पाने का अनुरोध करने के बजाय, "assistant"
-रोल के जवाब वाले मैसेज के कुछ हिस्से को पहले से भरना पड़ सकता है. इससे भाषा मॉडल को किसी खास फ़ॉर्मैट में जवाब देने के लिए गाइड किया जा सकता है. इसके लिए, "assistant"
-रोल वाले मैसेज के आखिर में prefix: true
जोड़ें. उदाहरण के लिए:
const characterSheet = await session.prompt([
{
role: 'user',
content: 'Create a TOML character sheet for a gnome barbarian',
},
{
role: 'assistant',
content: '```toml\n',
prefix: true,
},
]);
बिना किसी प्रॉम्प्ट के मैसेज जोड़ना
जवाब जनरेट होने में कुछ समय लग सकता है. खास तौर पर, मल्टीमॉडल इनपुट का इस्तेमाल करके प्रॉम्प्ट देने पर ऐसा हो सकता है. सेशन को पॉप्युलेट करने के लिए, पहले से तय किए गए प्रॉम्प्ट को पहले से भेजना फ़ायदेमंद हो सकता है, ताकि मॉडल प्रोसेसिंग शुरू कर सके.
initialPrompts
, सेशन बनाने के दौरान काम आते हैं. हालांकि, सेशन बनने के बाद, ज़्यादा कॉन्टेक्स्ट वाले प्रॉम्प्ट देने के लिए, prompt()
या promptStreaming()
तरीकों के साथ-साथ append()
तरीके का भी इस्तेमाल किया जा सकता है.
उदाहरण के लिए:
const session = await LanguageModel.create({
initialPrompts: [
{
role: 'system',
content:
'You are a skilled analyst who correlates patterns across multiple images.',
},
],
expectedInputs: [{ type: 'image' }],
});
fileUpload.onchange = async () => {
await session.append([
{
role: 'user',
content: [
{
type: 'text',
value: `Here's one image. Notes: ${fileNotesInput.value}`,
},
{ type: 'image', value: fileUpload.files[0] },
],
},
]);
};
analyzeButton.onclick = async (e) => {
analysisResult.textContent = await session.prompt(userQuestionInput.value);
};
append()
से मिला प्रॉमिस तब पूरा होता है, जब प्रॉम्प्ट की पुष्टि हो जाती है, उसे प्रोसेस कर लिया जाता है, और सेशन में जोड़ दिया जाता है. अगर प्रॉम्प्ट को नहीं जोड़ा जा सकता, तो प्रॉमिस को अस्वीकार कर दिया जाता है.
सत्र की सीमाएं
किसी भाषा मॉडल के सेशन में, ज़्यादा से ज़्यादा टोकन प्रोसेस किए जा सकते हैं. सेशन ऑब्जेक्ट पर मौजूद इन प्रॉपर्टी का इस्तेमाल करके, उस सीमा के इस्तेमाल और प्रोग्रेस की जांच की जा सकती है:
console.log(`${session.inputUsage}/${session.inputQuota}`);
सेशन के बने रहने की अवधि
हर सेशन में, बातचीत के संदर्भ को ट्रैक किया जाता है. पिछले इंटरैक्शन को आने वाले इंटरैक्शन के लिए ध्यान में रखा जाता है. ऐसा तब तक होता है, जब तक सेशन की कॉन्टेक्स्ट विंडो पूरी नहीं हो जाती.
const session = await LanguageModel.create({
initialPrompts: [
{
role: 'system',
content:
'You are a friendly, helpful assistant specialized in clothing choices.',
},
],
});
const result1 = await session.prompt(
'What should I wear today? It is sunny. I am unsure between a t-shirt and a polo.',
);
console.log(result1);
const result2 = await session.prompt(
'That sounds great, but oh no, it is actually going to rain! New advice?',
);
console.log(result2);
JSON स्कीमा पास करना
यह पक्का करने के लिए कि मॉडल, अनुरोध किए गए JSON स्कीमा का पालन करता है, आपको JSON स्कीमा को prompt()
या promptStreaming()
तरीकों के विकल्प ऑब्जेक्ट में, responseConstraint
फ़ील्ड की वैल्यू के तौर पर पास करना होगा.
यहां एक बहुत ही बुनियादी JSON स्कीमा का उदाहरण दिया गया है. इससे यह पक्का किया जाता है कि मॉडल, दिए गए मैसेज को क्लासिफ़ाई करने के लिए, true
या false
में से किसी एक का इस्तेमाल करे. जैसे, यह Mastodon पोस्ट, पॉटरी के बारे में है या नहीं.
const session = await LanguageModel.create();
const schema = {
"type": "boolean"
};
const post = "Mugs and ramen bowls, both a bit smaller than intended- but that's
how it goes with reclaim. Glaze crawled the first time around, but pretty happy
with it after refiring.";
const result = await session.prompt(
`Is this post about pottery?\n\n${post}`,
{
responseConstraint: schema,
}
);
console.log(JSON.parse(result));
// true
डिफ़ॉल्ट रूप से, लागू करने के तरीके में स्कीमा या रेगुलर एक्सप्रेशन को भाषा मॉडल को भेजे गए मैसेज के हिस्से के तौर पर शामिल किया जा सकता है. इससे इनपुट कोटा का कुछ हिस्सा इस्तेमाल होता है. responseConstraint
को session.measureInputUsage()
विकल्प पास करके, यह मेज़र किया जा सकता है कि यह इनपुट कोटा का कितना हिस्सा इस्तेमाल करेगा.
इस तरह के व्यवहार से बचने के लिए, omitResponseConstraintInput
विकल्प का इस्तेमाल करें. ऐसे मामलों में, हमारा सुझाव है कि आप प्रॉम्प्ट में कुछ दिशा-निर्देश शामिल करें:
const result = await session.prompt(`
Summarize this feedback into a rating between 0-5, only outputting a JSON
object { rating }, with a single property whose value is a number:
The food was delicious, service was excellent, will recommend.
`, { responseConstraint: schema, omitResponseConstraintInput: true });
किसी सेशन की कॉपी बनाना
संसाधनों को बनाए रखने के लिए, clone()
फ़ंक्शन का इस्तेमाल करके किसी मौजूदा सेशन को क्लोन किया जा सकता है. बातचीत का कॉन्टेक्स्ट रीसेट हो जाता है, लेकिन शुरुआती प्रॉम्प्ट में कोई बदलाव नहीं होता. clone()
फ़ंक्शन, signal
फ़ील्ड के साथ एक वैकल्पिक विकल्प ऑब्जेक्ट लेता है. इसकी मदद से, क्लोन किए गए सेशन को बंद करने के लिए AbortSignal
पास किया जा सकता है.
const controller = new AbortController();
stopButton.onclick = () => controller.abort();
const clonedSession = await session.clone({
signal: controller.signal,
});
मॉडल को प्रॉम्प्ट देना
मॉडल को प्रॉम्प्ट देने के लिए, prompt()
या promptStreaming()
फ़ंक्शन का इस्तेमाल किया जा सकता है.
स्ट्रीम नहीं किया गया आउटपुट
अगर आपको कम शब्दों में जवाब चाहिए, तो prompt()
फ़ंक्शन का इस्तेमाल करें. यह फ़ंक्शन, जवाब उपलब्ध होने पर उसे दिखाता है.
// Start by checking if it's possible to create a session based on the
// availability of the model, and the characteristics of the device.
const { defaultTemperature, maxTemperature, defaultTopK, maxTopK } =
await LanguageModel.params();
const available = await LanguageModel.availability();
if (available !== 'unavailable') {
const session = await LanguageModel.create();
// Prompt the model and wait for the whole result to come back.
const result = await session.prompt('Write me a poem!');
console.log(result);
}
स्ट्रीम किया गया आउटपुट
अगर आपको लंबा जवाब चाहिए, तो आपको promptStreaming()
फ़ंक्शन का इस्तेमाल करना चाहिए. इससे, मॉडल से मिलने वाले जवाबों को आंशिक तौर पर दिखाया जा सकता है. promptStreaming()
फ़ंक्शन, ReadableStream
दिखाता है.
const { defaultTemperature, maxTemperature, defaultTopK, maxTopK } =
await LanguageModel.params();
const available = await LanguageModel.availability();
if (available !== 'unavailable') {
const session = await LanguageModel.create();
// Prompt the model and stream the result:
const stream = session.promptStreaming('Write me an extra-long poem!');
for await (const chunk of stream) {
console.log(chunk);
}
}
किसी प्रॉम्प्ट को जनरेट करना बंद करना
prompt()
और promptStreaming()
, दोनों में signal
फ़ील्ड के साथ एक वैकल्पिक दूसरा पैरामीटर स्वीकार किया जाता है. इससे आपको प्रॉम्प्ट दिखाना बंद करने की सुविधा मिलती है.
const controller = new AbortController();
stopButton.onclick = () => controller.abort();
const result = await session.prompt('Write me a poem!', {
signal: controller.signal,
});
सेशन खत्म करना
अगर आपको अब सेशन की ज़रूरत नहीं है, तो destroy()
को कॉल करके संसाधनों को रिलीज़ करें. सेशन खत्म होने के बाद, उसका इस्तेमाल नहीं किया जा सकता. साथ ही, चल रही किसी भी प्रोसेस को रोक दिया जाता है. अगर आपको मॉडल से बार-बार प्रॉम्प्ट करने हैं, तो आपको सेशन को चालू रखना चाहिए. ऐसा इसलिए, क्योंकि सेशन बनाने में कुछ समय लग सकता है.
await session.prompt(
"You are a friendly, helpful assistant specialized in clothing choices."
);
session.destroy();
// The promise is rejected with an error explaining that
// the session is destroyed.
await session.prompt(
"What should I wear today? It is sunny, and I am unsure between a
t-shirt and a polo."
);
मल्टीमोडल की सुविधाएं
Prompt API, Chrome 138 Canary से ऑडियो और इमेज इनपुट स्वीकार करता है. इससे स्थानीय तौर पर एक्सपेरिमेंट किया जा सकता है. एपीआई, टेक्स्ट के तौर पर आउटपुट दिखाता है.
इन सुविधाओं की मदद से, ये काम किए जा सकते हैं:
- इस कुकी का इस्तेमाल, उपयोगकर्ताओं को चैट ऐप्लिकेशन में भेजे गए ऑडियो मैसेज को टेक्स्ट में बदलने की अनुमति देने के लिए किया जाता है.
- अपनी वेबसाइट पर अपलोड की गई किसी इमेज के बारे में जानकारी दें, ताकि उसका इस्तेमाल कैप्शन या वैकल्पिक टेक्स्ट में किया जा सके.
const session = await LanguageModel.create({
// { type: "text" } is not necessary to include explicitly, unless
// you also want to include expected input languages for text.
expectedInputs: [{ type: 'audio' }, { type: 'image' }],
});
const referenceImage = await (await fetch('/reference-image.jpeg')).blob();
const userDrawnImage = document.querySelector('canvas');
const response1 = await session.prompt([
{
role: 'user',
content: [
{
type: 'text',
value:
'Give a helpful artistic critique of how well the second image matches the first:',
},
{ type: 'image', value: referenceImage },
{ type: 'image', value: userDrawnImage },
],
},
]);
console.log(response1);
const audioBlob = await captureMicrophoneInput({ seconds: 10 });
const response2 = await session.prompt([
{
role: 'user',
content: [
{ type: 'text', value: 'My response to your critique:' },
{ type: 'audio', value: audioBlob },
],
},
]);
मल्टीमोडल डेमो
ऑडियो इनपुट के साथ Prompt API का इस्तेमाल करने के लिए, Mediarecorder Audio Prompt डेमो देखें. साथ ही, इमेज इनपुट के साथ Prompt API का इस्तेमाल करने के लिए, Canvas Image Prompt डेमो देखें.
परफ़ॉर्मेंस रणनीति
वेब के लिए Prompt API को अब भी डेवलप किया जा रहा है. इस एपीआई को बनाते समय, बेहतर परफ़ॉर्मेंस के लिए सेशन मैनेजमेंट से जुड़े सबसे सही तरीके देखें.
सुझाव/राय दें या शिकायत करें
आपके सुझाव, शिकायत या राय से, हमें इस एपीआई को बेहतर बनाने और Gemini Nano को बेहतर बनाने में मदद मिलती है. इससे टास्क के लिए खास तौर पर बनाए गए एपीआई (जैसे, ऑडियो ट्रांसक्रिप्शन या इमेज की जानकारी देने वाले एपीआई) भी बनाए जा सकते हैं. इससे हम आपकी और आपके उपयोगकर्ताओं की ज़रूरतों को पूरा कर पाएंगे.
हिस्सा लें और सुझाव/राय दें या शिकायत करें
आपके सुझाव, राय या शिकायत से हमें इस एपीआई और सभी बिल्ट-इन एआई एपीआई के आने वाले वर्शन को बनाने और लागू करने में मदद मिल सकती है.
- Early preview program में शामिल हों.
- Chrome में लागू करने के बारे में सुझाव/राय देने या शिकायत करने के लिए, गड़बड़ी की रिपोर्ट सबमिट करें या सुविधा का अनुरोध करें.
- एपीआई के बारे में अपने सुझाव, राय या शिकायत शेयर करें. इसके लिए, किसी मौजूदा समस्या पर टिप्पणी करें या Prompt API के GitHub डेटाबेस में नई समस्या दर्ज करें.
- मानकों को बेहतर बनाने में अपना योगदान दें. इसके लिए, Web Incubator Community Group में शामिल हों.