Gemini के बारे में सोच

Gemini 2.5 सीरीज़ के मॉडल, "थिंकिंग प्रोसेस" का इस्तेमाल करते हैं. इससे, तर्क करने और कई चरणों वाली प्लानिंग करने की उनकी क्षमता बेहतर होती है. इसलिए, ये मॉडल कोडिंग, ऐडवांस गणित, और डेटा विश्लेषण जैसे मुश्किल कामों को बेहतर तरीके से कर पाते हैं.

इस गाइड में, Gemini API का इस्तेमाल करके, Gemini की सोचने-समझने की क्षमताओं का इस्तेमाल करने का तरीका बताया गया है.

शुरू करने से पहले

पक्का करें कि जवाब जनरेट करने के लिए, 2.5 सीरीज़ के मॉडल का इस्तेमाल किया जा रहा हो. एपीआई का इस्तेमाल शुरू करने से पहले, AI Studio में इन मॉडल को एक्सप्लोर करना आपके लिए फ़ायदेमंद हो सकता है:

सोच-समझकर कॉन्टेंट जनरेट करना

सोचने वाले मॉडल से अनुरोध करना, कॉन्टेंट जनरेट करने के किसी अन्य अनुरोध की तरह ही होता है. मुख्य अंतर यह है कि model फ़ील्ड में, सोचने की क्षमता वाले मॉडल में से किसी एक को तय किया जाता है. जैसा कि टेक्स्ट जनरेशन के इस उदाहरण में दिखाया गया है:

Python

from google import genai

client = genai.Client()
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
    model="gemini-2.5-pro",
    contents=prompt
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

async function main() {
  const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";

  const response = await ai.models.generateContent({
    model: "gemini-2.5-pro",
    contents: prompt,
  });

  console.log(response.text);
}

main();

शुरू करें

package main

import (
  "context"
  "fmt"
  "log"
  "os"
  "google.golang.org/genai"
)

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, nil)
  if err != nil {
      log.Fatal(err)
  }

  prompt := "Explain the concept of Occam's Razor and provide a simple, everyday example."
  model := "gemini-2.5-pro"

  resp, _ := client.Models.GenerateContent(ctx, model, genai.Text(prompt), nil)

  fmt.Println(resp.Text())
}

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-pro:generateContent" \
 -H "x-goog-api-key: $GEMINI_API_KEY" \
 -H 'Content-Type: application/json' \
 -X POST \
 -d '{
   "contents": [
     {
       "parts": [
         {
           "text": "Explain the concept of Occam\'s Razor and provide a simple, everyday example."
         }
       ]
     }
   ]
 }'
 ```

बजट के बारे में सोचना

thinkingBudget पैरामीटर, मॉडल को यह जानकारी देता है कि जवाब जनरेट करते समय कितने थिंकिंग टोकन का इस्तेमाल करना है. टोकन की संख्या ज़्यादा होने पर, आम तौर पर ज़्यादा जानकारी के साथ जवाब दिया जा सकता है. इससे ज़्यादा मुश्किल टास्क को हल करने में मदद मिल सकती है. अगर लेटेन्सी ज़्यादा ज़रूरी है, तो कम बजट का इस्तेमाल करें या thinkingBudget को 0 पर सेट करके, सोचने की सुविधा बंद करें. thinkingBudget को -1 पर सेट करने से, डाइनैमिक थिंकिंग चालू हो जाती है. इसका मतलब है कि मॉडल, अनुरोध की जटिलता के आधार पर बजट को अडजस्ट करेगा.

thinkingBudget की सुविधा, सिर्फ़ Gemini 2.5 Flash, 2.5 Pro, और 2.5 Flash-Lite में उपलब्ध है. प्रॉम्प्ट के हिसाब से, मॉडल टोकन बजट से ज़्यादा या कम टोकन जनरेट कर सकता है.

यहां हर मॉडल टाइप के लिए, thinkingBudget कॉन्फ़िगरेशन की जानकारी दी गई है.

मॉडल डिफ़ॉल्ट सेटिंग
(बजट सेट नहीं किया गया है)
सीमा प्रोसेस छिपाएँ डाइनैमिक थिंकिंग की सुविधा चालू करना
2.5 Pro डाइनैमिक थिंकिंग: मॉडल यह तय करता है कि कब और कितना सोचना है 128 से 32768 लागू नहीं: सोचने की सुविधा बंद नहीं की जा सकती thinkingBudget = -1
2.5 फ़्लैश डाइनैमिक थिंकिंग: मॉडल यह तय करता है कि कब और कितना सोचना है 0 से 24576 thinkingBudget = 0 thinkingBudget = -1
2.5 Flash Lite मॉडल को नहीं लगता 512 से 24576 thinkingBudget = 0 thinkingBudget = -1

Python

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-2.5-pro",
    contents="Provide a list of 3 famous physicists and their key contributions",
    config=types.GenerateContentConfig(
        thinking_config=types.ThinkingConfig(thinking_budget=1024)
        # Turn off thinking:
        # thinking_config=types.ThinkingConfig(thinking_budget=0)
        # Turn on dynamic thinking:
        # thinking_config=types.ThinkingConfig(thinking_budget=-1)
    ),
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-2.5-pro",
    contents: "Provide a list of 3 famous physicists and their key contributions",
    config: {
      thinkingConfig: {
        thinkingBudget: 1024,
        // Turn off thinking:
        // thinkingBudget: 0
        // Turn on dynamic thinking:
        // thinkingBudget: -1
      },
    },
  });

  console.log(response.text);
}

main();

शुरू करें

package main

import (
  "context"
  "fmt"
  "google.golang.org/genai"
  "os"
)

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, nil)
  if err != nil {
      log.Fatal(err)
  }

  thinkingBudgetVal := int32(1024)

  contents := genai.Text("Provide a list of 3 famous physicists and their key contributions")
  model := "gemini-2.5-pro"
  resp, _ := client.Models.GenerateContent(ctx, model, contents, &genai.GenerateContentConfig{
    ThinkingConfig: &genai.ThinkingConfig{
      ThinkingBudget: &thinkingBudgetVal,
      // Turn off thinking:
      // ThinkingBudget: int32(0),
      // Turn on dynamic thinking:
      // ThinkingBudget: int32(-1),
    },
  })

fmt.Println(resp.Text())
}

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-pro:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
  "contents": [
    {
      "parts": [
        {
          "text": "Provide a list of 3 famous physicists and their key contributions"
        }
      ]
    }
  ],
  "generationConfig": {
    "thinkingConfig": {
          "thinkingBudget": 1024
          # Thinking off:
          # "thinkingBudget": 0
          # Turn on dynamic thinking:
          # "thinkingBudget": -1
    }
  }
}'

जवाब के बारे में खास जानकारी

सोच के बारे में खास जानकारी, मॉडल की सोच के बारे में सामान्य जानकारी देने वाला वर्शन है. इससे मॉडल की इंटरनल रीज़निंग प्रोसेस के बारे में अहम जानकारी मिलती है. ध्यान दें कि थिंकिंग बजट, मॉडल के रॉ थॉट पर लागू होते हैं. ये थॉट की खास जानकारी पर लागू नहीं होते.

अनुरोध कॉन्फ़िगरेशन में includeThoughts को true पर सेट करके, बातचीत की खास जानकारी पाने की सुविधा चालू की जा सकती है. इसके बाद, response पैरामीटर के parts को दोहराकर और thought बूलियन की जांच करके, खास जानकारी को ऐक्सेस किया जा सकता है.

यहां एक उदाहरण दिया गया है, जिसमें यह दिखाया गया है कि स्ट्रीमिंग के बिना, सोच के बारे में खास जानकारी देने वाली सुविधा को कैसे चालू किया जाता है और इससे जानकारी कैसे मिलती है. इससे जवाब के साथ, सोच के बारे में खास जानकारी देने वाला एक ही फ़ाइनल जवाब मिलता है:

Python

from google import genai
from google.genai import types

client = genai.Client()
prompt = "What is the sum of the first 50 prime numbers?"
response = client.models.generate_content(
  model="gemini-2.5-pro",
  contents=prompt,
  config=types.GenerateContentConfig(
    thinking_config=types.ThinkingConfig(
      include_thoughts=True
    )
  )
)

for part in response.candidates[0].content.parts:
  if not part.text:
    continue
  if part.thought:
    print("Thought summary:")
    print(part.text)
    print()
  else:
    print("Answer:")
    print(part.text)
    print()

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-2.5-pro",
    contents: "What is the sum of the first 50 prime numbers?",
    config: {
      thinkingConfig: {
        includeThoughts: true,
      },
    },
  });

  for (const part of response.candidates[0].content.parts) {
    if (!part.text) {
      continue;
    }
    else if (part.thought) {
      console.log("Thoughts summary:");
      console.log(part.text);
    }
    else {
      console.log("Answer:");
      console.log(part.text);
    }
  }
}

main();

शुरू करें

package main

import (
  "context"
  "fmt"
  "google.golang.org/genai"
  "os"
)

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, nil)
  if err != nil {
      log.Fatal(err)
  }

  contents := genai.Text("What is the sum of the first 50 prime numbers?")
  model := "gemini-2.5-pro"
  resp, _ := client.Models.GenerateContent(ctx, model, contents, &genai.GenerateContentConfig{
    ThinkingConfig: &genai.ThinkingConfig{
      IncludeThoughts: true,
    },
  })

  for _, part := range resp.Candidates[0].Content.Parts {
    if part.Text != "" {
      if part.Thought {
        fmt.Println("Thoughts Summary:")
        fmt.Println(part.Text)
      } else {
        fmt.Println("Answer:")
        fmt.Println(part.Text)
      }
    }
  }
}

यहां स्ट्रीमिंग के साथ सोचने की सुविधा का इस्तेमाल करके एक उदाहरण दिया गया है. इससे जवाब जनरेट होने के दौरान, लगातार और धीरे-धीरे जानकारी मिलती है:

Python

from google import genai
from google.genai import types

client = genai.Client()

prompt = """
Alice, Bob, and Carol each live in a different house on the same street: red, green, and blue.
The person who lives in the red house owns a cat.
Bob does not live in the green house.
Carol owns a dog.
The green house is to the left of the red house.
Alice does not own a cat.
Who lives in each house, and what pet do they own?
"""

thoughts = ""
answer = ""

for chunk in client.models.generate_content_stream(
    model="gemini-2.5-pro",
    contents=prompt,
    config=types.GenerateContentConfig(
      thinking_config=types.ThinkingConfig(
        include_thoughts=True
      )
    )
):
  for part in chunk.candidates[0].content.parts:
    if not part.text:
      continue
    elif part.thought:
      if not thoughts:
        print("Thoughts summary:")
      print(part.text)
      thoughts += part.text
    else:
      if not answer:
        print("Answer:")
      print(part.text)
      answer += part.text

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

const prompt = `Alice, Bob, and Carol each live in a different house on the same
street: red, green, and blue. The person who lives in the red house owns a cat.
Bob does not live in the green house. Carol owns a dog. The green house is to
the left of the red house. Alice does not own a cat. Who lives in each house,
and what pet do they own?`;

let thoughts = "";
let answer = "";

async function main() {
  const response = await ai.models.generateContentStream({
    model: "gemini-2.5-pro",
    contents: prompt,
    config: {
      thinkingConfig: {
        includeThoughts: true,
      },
    },
  });

  for await (const chunk of response) {
    for (const part of chunk.candidates[0].content.parts) {
      if (!part.text) {
        continue;
      } else if (part.thought) {
        if (!thoughts) {
          console.log("Thoughts summary:");
        }
        console.log(part.text);
        thoughts = thoughts + part.text;
      } else {
        if (!answer) {
          console.log("Answer:");
        }
        console.log(part.text);
        answer = answer + part.text;
      }
    }
  }
}

await main();

शुरू करें

package main

import (
  "context"
  "fmt"
  "log"
  "os"
  "google.golang.org/genai"
)

const prompt = `
Alice, Bob, and Carol each live in a different house on the same street: red, green, and blue.
The person who lives in the red house owns a cat.
Bob does not live in the green house.
Carol owns a dog.
The green house is to the left of the red house.
Alice does not own a cat.
Who lives in each house, and what pet do they own?
`

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, nil)
  if err != nil {
      log.Fatal(err)
  }

  contents := genai.Text(prompt)
  model := "gemini-2.5-pro"

  resp := client.Models.GenerateContentStream(ctx, model, contents, &genai.GenerateContentConfig{
    ThinkingConfig: &genai.ThinkingConfig{
      IncludeThoughts: true,
    },
  })

  for chunk := range resp {
    for _, part := range chunk.Candidates[0].Content.Parts {
      if len(part.Text) == 0 {
        continue
      }

      if part.Thought {
        fmt.Printf("Thought: %s\n", part.Text)
      } else {
        fmt.Printf("Answer: %s\n", part.Text)
      }
    }
  }
}

हस्ताक्षर के बारे में जानकारी

Gemini API के स्टैंडर्ड वर्शन में, टेक्स्ट और कॉन्टेंट जनरेट करने के लिए किए गए कॉल, स्टेटलेस होते हैं. इसलिए, एक से ज़्यादा बार की जाने वाली बातचीत (जैसे कि चैट) के दौरान, मॉडल को पिछले टर्न के कॉन्टेक्स्ट का ऐक्सेस नहीं होता.

सोच के कॉन्टेक्स्ट को बनाए रखने के लिए, थॉट सिग्नेचर का इस्तेमाल किया जा सकता है. ये मॉडल की इंटरनल थॉट प्रोसेस के एन्क्रिप्ट (सुरक्षित) किए गए वर्शन होते हैं. सोचने और फ़ंक्शन कॉल करने की सुविधा चालू होने पर, मॉडल जवाब ऑब्जेक्ट में थॉट सिग्नेचर दिखाता है. यह पक्का करने के लिए कि मॉडल, बातचीत के कई चरणों में कॉन्टेक्स्ट को बनाए रखे, आपको बाद के अनुरोधों में मॉडल को थॉट सिग्नेचर वापस देने होंगे.

आपको थॉट सिग्नेचर तब मिलेंगे, जब:

  • सोचने की सुविधा चालू है और आइडिया जनरेट किए गए हैं.
  • अनुरोध में फ़ंक्शन के एलान शामिल हैं.

फ़ंक्शन कॉलिंग पेज पर, फ़ंक्शन कॉल के साथ सोचने के तरीके का उदाहरण देखा जा सकता है.

फ़ंक्शन कॉलिंग के साथ, इस्तेमाल से जुड़ी अन्य पाबंदियों का ध्यान रखें. इनमें ये शामिल हैं:

  • जवाब के अन्य हिस्सों में मॉडल से सिग्नेचर मिलते हैं. उदाहरण के लिए, फ़ंक्शन कॉल करना या टेक्स्ट वाले हिस्से. जवाब के सभी हिस्सों को मॉडल को वापस भेजें.
  • सिग्नेचर वाले हिस्सों को एक साथ न जोड़ें.
  • हस्ताक्षर वाले हिस्से को बिना हस्ताक्षर वाले हिस्से के साथ न मिलाएं.

कीमत

सोचने की सुविधा चालू होने पर, जवाब की कीमत आउटपुट टोकन और सोचने के लिए इस्तेमाल किए गए टोकन के योग के बराबर होती है. thoughtsTokenCount फ़ील्ड से, जनरेट किए गए थिंकिंग टोकन की कुल संख्या पाई जा सकती है.

Python

# ...
print("Thoughts tokens:",response.usage_metadata.thoughts_token_count)
print("Output tokens:",response.usage_metadata.candidates_token_count)

JavaScript

// ...
console.log(`Thoughts tokens: ${response.usageMetadata.thoughtsTokenCount}`);
console.log(`Output tokens: ${response.usageMetadata.candidatesTokenCount}`);

शुरू करें

// ...
usageMetadata, err := json.MarshalIndent(response.UsageMetadata, "", "  ")
if err != nil {
  log.Fatal(err)
}
fmt.Println("Thoughts tokens:", string(usageMetadata.thoughts_token_count))
fmt.Println("Output tokens:", string(usageMetadata.candidates_token_count))

थिंकिंग मॉडल, जवाब की क्वालिटी को बेहतर बनाने के लिए पूरी जानकारी जनरेट करते हैं. इसके बाद, वे खास जानकारी देते हैं, ताकि यह पता चल सके कि जवाब जनरेट करने के लिए किस तरह की प्रोसेस का इस्तेमाल किया गया. इसलिए, कीमत इस बात पर तय होती है कि खास जानकारी जनरेट करने के लिए, मॉडल को कितने थॉट टोकन जनरेट करने पड़े. भले ही, एपीआई से सिर्फ़ खास जानकारी आउटपुट के तौर पर मिली हो.

टोकन की गिनती गाइड में, टोकन के बारे में ज़्यादा जानकारी दी गई है.

इन मॉडल के साथ काम करता है

सोचने की सुविधा, 2.5 सीरीज़ के सभी मॉडल पर काम करती है. आपको मॉडल की सभी क्षमताओं के बारे में जानकारी, मॉडल की खास जानकारी वाले पेज पर मिलेगी.

सबसे सही तरीके

इस सेक्शन में, थिंकिंग मॉडल का बेहतर तरीके से इस्तेमाल करने के बारे में कुछ दिशा-निर्देश दिए गए हैं. हमेशा की तरह, प्रॉम्प्ट लिखने के बारे में हमारे दिशा-निर्देशों और सबसे सही तरीकों का पालन करने से आपको सबसे अच्छे नतीजे मिलेंगे.

डीबग करना और स्टीयर करना

  • जवाब के पीछे की वजह की समीक्षा करें: अगर आपको थिंकिंग मॉडल से अपनी उम्मीद के मुताबिक़ जवाब नहीं मिल रहा है, तो Gemini के जवाब के पीछे की वजह की समीक्षा करने से मदद मिल सकती है. इसमें आपको यह जानकारी मिलती है कि Gemini ने टास्क को कैसे पूरा किया और नतीजे पर कैसे पहुंचा. इस जानकारी का इस्तेमाल करके, सही नतीजे पाने के लिए Gemini को बेहतर निर्देश दिए जा सकते हैं.

  • जवाब के बारे में जानकारी देना: अगर आपको लंबा जवाब चाहिए, तो अपने प्रॉम्प्ट में जवाब के बारे में जानकारी दें. इससे मॉडल को सोचने में कम समय लगेगा. इससे आपको अपने जवाब के लिए, टोकन आउटपुट का ज़्यादा हिस्सा रिज़र्व करने की सुविधा मिलती है.

टास्क की मुश्किल का लेवल

  • आसान टास्क (सोचने की प्रोसेस बंद हो सकती है): ऐसे सीधे-सादे अनुरोधों के लिए सोचने की प्रोसेस की ज़रूरत नहीं होती जिनमें जटिल तर्क की ज़रूरत नहीं होती. जैसे, तथ्यों को ढूंढना या उन्हें कैटगरी में बांटना. उदाहरण के लिए:
    • "DeepMind की स्थापना कहाँ हुई थी?"
    • "क्या इस ईमेल में मीटिंग के लिए कहा गया है या सिर्फ़ जानकारी दी गई है?"
  • सामान्य टास्क (डिफ़ॉल्ट/कुछ सोच-विचार): कई सामान्य अनुरोधों के लिए, चरण-दर-चरण प्रोसेस करने या ज़्यादा जानकारी देने की ज़रूरत होती है. Gemini, सोचने-समझने की क्षमता का इस्तेमाल करके, इन जैसे कामों को आसानी से पूरा कर सकता है:
    • प्रकाश संश्लेषण और बड़े होने की प्रक्रिया की तुलना करो.
    • इलेक्ट्रिक कारों और हाइब्रिड कारों की तुलना करें और उनके बीच अंतर बताएं.
  • मुश्किल टास्क (सोचने की क्षमता सबसे ज़्यादा): अगर आपको वाकई मुश्किल चुनौतियों का सामना करना है, तो हम आपको सोचने के लिए ज़्यादा बजट सेट करने का सुझाव देते हैं. जैसे, गणित के मुश्किल सवालों को हल करना या कोडिंग के टास्क पूरे करना. इस तरह के टास्क के लिए, मॉडल को अपनी पूरी तर्क क्षमता और प्लानिंग की क्षमताओं का इस्तेमाल करना होता है. जवाब देने से पहले, अक्सर इसमें कई इंटरनल चरण शामिल होते हैं. उदाहरण के लिए:
    • AIME 2025 में पहला सवाल हल करें: उन सभी पूर्णांक आधारों b > 9 का योग निकालें जिनके लिए 17b, 97b का भाजक है.
    • किसी वेब ऐप्लिकेशन के लिए Python कोड लिखो. इस ऐप्लिकेशन में, शेयर बाज़ार के रीयल-टाइम डेटा को विज़ुअलाइज़ किया जा सके. साथ ही, इसमें उपयोगकर्ता की पुष्टि करने की सुविधा भी शामिल हो. इसे ज़्यादा से ज़्यादा असरदार बनाओ.

टूल और क्षमताओं के साथ सोचना

Thinking मॉडल, Gemini के सभी टूल और सुविधाओं के साथ काम करते हैं. इससे मॉडल, बाहरी सिस्टम के साथ इंटरैक्ट कर पाते हैं, कोड को लागू कर पाते हैं या रीयल-टाइम में जानकारी ऐक्सेस कर पाते हैं. साथ ही, नतीजों को अपनी सोच और फ़ाइनल जवाब में शामिल कर पाते हैं.

  • खोज टूल की मदद से मॉडल, Google Search से क्वेरी कर सकता है. इससे उसे अप-टू-डेट जानकारी या ट्रेनिंग डेटा से बाहर की जानकारी मिलती है. यह हाल ही के इवेंट या किसी खास विषय के बारे में पूछे गए सवालों के लिए मददगार है.

  • कोड एक्ज़ीक्यूशन टूल की मदद से मॉडल, Python कोड जनरेट और रन कर सकता है. इससे वह कैलकुलेशन कर सकता है, डेटा में बदलाव कर सकता है या ऐसी समस्याओं को हल कर सकता है जिन्हें एल्गोरिदम की मदद से सबसे अच्छी तरह से हल किया जा सकता है. मॉडल को कोड का आउटपुट मिलता है और वह इसका इस्तेमाल अपने जवाब में कर सकता है.

  • स्ट्रक्चर्ड आउटपुट की मदद से, Gemini को JSON फ़ॉर्मैट में जवाब देने के लिए कहा जा सकता है. यह खास तौर पर, मॉडल के आउटपुट को ऐप्लिकेशन में इंटिग्रेट करने के लिए मददगार है.

  • फ़ंक्शन कॉलिंग, थिंकिंग मॉडल को बाहरी टूल और एपीआई से कनेक्ट करती है. इससे मॉडल यह तय कर पाता है कि सही फ़ंक्शन को कब कॉल करना है और कौनसे पैरामीटर देने हैं.

  • यूआरएल कॉन्टेक्स्ट सुविधा, मॉडल को यूआरएल उपलब्ध कराती है. इससे मॉडल को आपके प्रॉम्प्ट के लिए अतिरिक्त कॉन्टेक्स्ट मिलता है. इसके बाद, मॉडल यूआरएल से कॉन्टेंट को ऐक्सेस कर सकता है. साथ ही, उस कॉन्टेंट का इस्तेमाल करके, जवाब दे सकता है और उसे बेहतर बना सकता है.

सोचने की कुकबुक में, सोचने के मॉडल के साथ टूल इस्तेमाल करने के उदाहरण देखे जा सकते हैं.

आगे क्या करना है?

  • ज़्यादा जानकारी वाले उदाहरणों को समझने के लिए, जैसे कि:

    • सोच-समझकर टूल का इस्तेमाल करना
    • सोच-विचार करके स्ट्रीमिंग करना
    • अलग-अलग नतीजों के लिए, थिंकिंग बजट को अडजस्ट करना

    और भी कई तरह के सवालों के जवाब पाने के लिए, हमारी सोचने वाली कुकबुक आज़माएं.

  • सोचने की क्षमता से जुड़ी जानकारी, अब हमारी OpenAI के साथ काम करने की सुविधा वाली गाइड में उपलब्ध है.

  • Gemini 2.5 Pro, Gemini Flash 2.5, और Gemini 2.5 Flash-Lite के बारे में ज़्यादा जानने के लिए, मॉडल पेज पर जाएँ.