Grounding एक मॉडल के outputs को verifiable बाहरी जानकारी से tethering करने का अभ्यास है, और यह मौजूद है क्योंकि भाषा मॉडलों की एक मौलिक architectural सीमा है: वे नहीं जानते कि वे क्या जानते हैं। एक मॉडल का प्रशिक्षण डेटा इसके weights में सांख्यिकीय patterns के रूप में baked है, तथ्यों के एक retrievable डेटाबेस के रूप में नहीं। यह look up नहीं कर सकता कि क्या एक विशिष्ट दावा इसके प्रशिक्षण set में है या एक विश्वसनीय स्रोत के विरुद्ध एक date की जाँच कर सकता है। Grounding इसे inference समय पर मॉडल को authoritative डेटा तक पहुँच देकर compensate करता है, ताकि यह pattern-matched recall के बजाय प्रदान किए गए evidence पर उत्तरों को आधार बना सके।
आज production में सबसे आम grounding तकनीक retrieval-augmented generation (RAG) है। Basic pattern straightforward है: उपयोगकर्ता का प्रश्न लें, इसका उपयोग एक knowledge base (आम तौर पर embedded document chunks वाला एक vector डेटाबेस) को search करने के लिए करें, सबसे प्रासंगिक passages retrieve करें, और उन्हें प्रश्न के साथ मॉडल के context में शामिल करें। फिर मॉडल उन retrieved passages के आधार पर एक उत्तर उत्पन्न करता है। Google का Vertex AI, Amazon Bedrock, और अधिकांश enterprise AI platforms RAG pipelines को managed services के रूप में प्रदान करते हैं। मुख्य अंतर्दृष्टि यह है कि आप मॉडल के काम को "प्रशिक्षण से तथ्यों को recall करें" से "प्रदान किए गए दस्तावेज़ों से एक उत्तर synthesize करें" में shift कर रहे हैं — एक कार्य जिस पर मॉडल बहुत अधिक विश्वसनीय हैं।
Web search grounding एक अलग दृष्टिकोण लेता है। एक private knowledge base को search करने के बजाय, मॉडल live web को query करता है और परिणामों को अपनी प्रतिक्रिया में incorporate करता है। Perplexity ने इस विचार के आसपास अपना पूरा उत्पाद बनाया। Google के Gemini मॉडल Google Search को सीधे access कर सकते हैं। ChatGPT का browsing feature समान काम करता है। RAG पर लाभ freshness है — web search grounding कल हुई events के बारे में प्रश्नों का उत्तर दे सकता है, जबकि एक RAG सिस्टम केवल अपने अंतिम index update जितना current है। नकारात्मक पक्ष यह है कि web स्वयं misinformation रखता है, इसलिए आप error के एक स्रोत को दूसरे के लिए व्यापार कर रहे हैं।
Citation आवश्यकताएँ grounding का एक lighter-weight रूप हैं जो prompt स्तर पर काम करता है। जब आप एक मॉडल को बताते हैं "केवल वे दावे करें जिन्हें आप प्रदान किए गए दस्तावेज़ों के लिए attribute कर सकते हैं, और अपने sources को inline cite करें," तो आप इसे नई क्षमताएँ नहीं दे रहे हैं — आप इसके व्यवहार को verifiable सामग्री के क़रीब रहने के लिए constraining कर रहे हैं। यह व्यवहार में आश्चर्यजनक रूप से अच्छा काम करता है, विशेष रूप से Claude या GPT-4 जैसे सक्षम मॉडलों के साथ। मॉडल अक्सर एक citation को fabricate करने के बजाय उत्तर देने से इंकार करेगा या स्पष्ट रूप से अनिश्चितता को flag करेगा, क्योंकि एक fake citation उत्पन्न करना जो structurally सही दिखती है, "मेरे पास वह जानकारी नहीं है" कहने से कठिन है। उस ने कहा, citation grounding foolproof नहीं है। मॉडल अभी भी ऐसे citations hallucinate कर सकते हैं जो plausible दिखते हैं लेकिन ग़लत section का संदर्भ देते हैं या misrepresent करते हैं कि एक स्रोत वास्तव में क्या कहता है।
Grounding के साथ एक व्यावहारिक trap retrieval quality पर over-reliance है। यदि आपका RAG pipeline irrelevant chunks retrieve करता है — क्योंकि embeddings ने query के इरादे को capture नहीं किया, या chunking रणनीति ने एक critical passage को दो chunks में split कर दिया — तो मॉडल अपने उत्तर को ग़लत सामग्री पर ground करेगा और citations के साथ एक confidently ग़लत प्रतिक्रिया उत्पन्न करेगा। Grounding hallucination को समाप्त नहीं करती; यह failure mode को बदलती है। मॉडल के कुछ नहीं से तथ्यों को invent करने के बजाय, यह अब वास्तविक sources से misinterpret या over-extrapolate कर सकता है। अच्छी grounding को अच्छी retrieval की आवश्यकता होती है, जिसका अर्थ है embedding quality, chunk sizing, reranking, और evaluation में निवेश करना — केवल अपने pipeline में एक vector डेटाबेस plug करना और इसे done कहना नहीं।