Zubnet AIसीखेंWiki › टूल यूज़
टूल्स

टूल यूज़

इसे भी कहा जाता है: फ़ंक्शन कॉलिंग

एक AI मॉडल की क्षमता जो बातचीत के दौरान बाहरी फ़ंक्शन या उपकरण कॉल कर सकता है। टेक्स्ट उत्पन्न करने के बजाय, मॉडल इंटरनेट पर खोज कर सकता है, कोड चला सकता है, एक डेटाबेस के लिए प्रश्न पूछ सकता है, या एक API कॉल कर सकता है — फिर परिणामों को अपनी प्रतिक्रिया में शामिल कर सकता है। मॉडल एक संरचित "टूल कॉल" आउटपुट करता है जिसे मेजबान एप्लिकेशन निष्पादित करता है।

यह क्यों मायने रखता है

टूल के उपयोग के कारण ही AI मॉडल वाक्य बातचीत के बाहर वास्तव में उपयोगी होते हैं। यह कोड इंटरप्रेटर, वेब ब्राउज़िंग AI और प्रत्येक AI एजेंट के पीछे वाला मैकेनिज्म है। इसके बिना, मॉडल अपने प्रशिक्षण डेटा के अंदर सीमित रहते हैं।

गहन अध्ययन

यहाँ है कैसे tool use वास्तव में hood के नीचे काम करता है। जब आप Claude या GPT-4 जैसे एक API को एक message भेजते हैं, तो आप tool definitions की एक list भी भेजते हैं — हर एक एक JSON schema जो function name, इसके parameters (types और descriptions के साथ), और यह क्या करता है का वर्णन करता है। मॉडल इन definitions को अपने context के हिस्से के रूप में पढ़ता है, और जब यह निर्धारित करता है कि एक tool को call करना उपयोगकर्ता के प्रश्न का उत्तर देने में मदद करेगा, यह text उत्पन्न करना बंद कर देता है और इसके बजाय एक structured tool-call object output करता है: function name और वे arguments जिन्हें यह pass करना चाहता है। आपका application code फिर उस function को execute करता है (एक API hit करना, एक database query करना, एक calculation चलाना), और परिणाम को मॉडल को एक नए message के रूप में वापस भेजता है। मॉडल परिणाम पढ़ता है और अपनी प्रतिक्रिया उत्पन्न करना जारी रखता है। यह मॉडल "code चलाना" नहीं है — यह मॉडल structured output उत्पन्न करना है जिसे आपका application interpret करता है और उस पर act करता है।

चीज़ों का अच्छी तरह नाम रखना

आपके tool definitions की quality enormously मायने रखती है। मॉडल अपने names और descriptions के आधार पर tools चुनते हैं, इसलिए एक tool जिसे search_docs कहा जाता है description "एक प्राकृतिक भाषा query दिए जाने पर relevant documents के लिए आंतरिक knowledge base खोजें" के साथ उचित रूप से उपयोग किया जाएगा, जबकि एक tool जिसे sd कहा जाता है बिना description के मॉडल को confuse करेगा। Parameter descriptions समान रूप से महत्वपूर्ण हैं — यदि आपके पास एक date parameter है, तो अपेक्षित format ("ISO 8601, उदा. 2025-03-15") specify करें या मॉडल अनुमान लगाएगा। Claude API में, आप एक specific tool का उपयोग करने के लिए मॉडल को मज़बूर करने, इसे freely choose करने देने, या tool use को पूरी तरह से रोकने के लिए एक tool_choice parameter भी जोड़ सकते हैं। OpenAI के API में equivalent controls हैं। इन definitions को सही करना अक्सर एक tool-use integration जो विश्वसनीय रूप से काम करती है और एक जो edge cases पर टूट जाती है के बीच का अंतर है।

Parallel में Calling

Parallel tool calling एक ऐसी feature है जिसे overlook करना आसान है लेकिन performance के लिए significant है। जब एक मॉडल को कई sources से जानकारी एकत्र करने की आवश्यकता होती है — कहें, तीन शहरों में मौसम जाँचना — यह एक एकल प्रतिक्रिया में कई tool calls emit कर सकता है। आपका application उन्हें concurrently execute करता है और सभी परिणाम एक साथ वापस भेजता है। Claude, GPT-4, और Gemini सभी इसका समर्थन करते हैं। विकल्प (sequential calls, एक per round trip) latency जोड़ता है जो जल्दी compounds करता है। यदि आप एक tool-use integration बना रहे हैं, अपने execution layer को शुरुआत से tool calls के arrays handle करने के लिए design करें।

अप्रत्याशित की अपेक्षा करें

एक आम gotcha यह है कि tool use deterministic नहीं है। समान tools के साथ समान prompt मॉडल को अलग tools call करने, अलग arguments pass करने, या tools का उपयोग बिल्कुल नहीं करने के लिए ले जा सकता है। यह testing और reliability के लिए मायने रखता है। Production सिस्टम आम तौर पर tool-call output पर validation logic शामिल करते हैं — जाँचना कि required parameters मौजूद हैं, कि values अपेक्षित ranges में हैं, कि function name एक known tool से मेल खाता है। कुछ टीमें एक retry mechanism जोड़ती हैं: यदि मॉडल एक malformed tool call emit करता है, तो error एक tool result के रूप में वापस भेजी जाती है और मॉडल को फिर से try करने का मौक़ा मिलता है। यह "self-correction" pattern व्यवहार में surprisingly अच्छी तरह काम करता है और सभी errors को upfront रोकने का प्रयास करने से बहुत सस्ता है।

एक छोटा इतिहास

AI मॉडलों में tool use का इतिहास surprisingly छोटा है। OpenAI ने जून 2023 में GPT-3.5 और GPT-4 के साथ "function calling" पेश किया, और इसने तुरंत बदल दिया कि क्या बनाना संभव था। उससे पहले, developers मॉडलों को एक विशेष format में JSON output करवाने के लिए prompt engineering का उपयोग करते थे, फिर इसे fragile regex के साथ parse करते थे — यह काम करता था, लेकिन यह brittle था। Anthropic ने 2024 में Claude के लिए tool use shipped किया, उसके बाद Google ने Gemini के लिए। APIs बहुत समान designs पर converged हुई हैं: आप JSON schemas के रूप में tools परिभाषित करते हैं, मॉडल structured calls output करता है, और आप execution handle करते हैं। 2024 के अंत में MCP की शुरुआत ने फिर इस mechanism के ऊपर एक standardized discovery और transport layer जोड़ा, ताकि tools को हर एक के लिए उन्हें फिर से परिभाषित किए बिना applications में share किया जा सके।

संबंधित अवधारणाएँ

← सभी शब्द
← जनरेटिव AI टेक्स्ट-टू-स्पीच →
ESC