Zubnet AIसीखेंWiki › ओपन वेट्स
सुरक्षा

ओपन वेट्स

इसे भी कहा जाता है: ओपन सोर्स (AI संदर्भ में)
जब कोई कंपनी किसी मॉडल के प्रशिक्षित पैरामीटर को किसी भी व्यक्ति द्वारा डाउनलोड और चलाने के लिए जारी करती है। "ओपन वेट्स" "ओपन सोर्स" से अधिक सटीक है क्योंकि ज्यादातर जारी किए गए मॉडल प्रशिक्षण डेटा या प्रशिक्षण कोड को शामिल नहीं करते हैं — आपको तैयार मॉडल मिलता है लेकिन व्यंजन नहीं। Llama, Mistral, और Qwen ओपन-वेट्स मॉडल हैं।

यह क्यों मायने रखता है

खुले वेट अर्थ है कि आप अपने स्वयं के हार्डवेयर पर AI चला सकते हैं और पूरी गोपनीयता के साथ — कोई एपीआई कॉल नहीं, अपनी नेटवर्क से कोई डेटा बाहर नहीं जाता है। ट्रेड-ऑफ़ यह है कि आपको उन्हें चलाने के लिए GPU संसाधनों की आवश्यकता होती है और आप सुरक्षा के लिए जिम्मेदार होते हैं।

गहन अध्ययन

"Open weights" शब्द मौजूद है क्योंकि AI उद्योग का "open source" का उपयोग genuinely misleading है। पारंपरिक open source (जैसा कि OSI द्वारा परिभाषित) का अर्थ है कि आपको source code मिलता है, आप इसे संशोधित कर सकते हैं, और इसे redistribute कर सकते हैं। जब Meta Llama जारी करता है, आपको trained मॉडल weights मिलते हैं — अरबों numerical parameters जो मॉडल के व्यवहार को परिभाषित करते हैं — लेकिन प्रशिक्षण डेटा नहीं, पूर्ण प्रशिक्षण code नहीं, और अक्सर डेटा preprocessing pipeline नहीं। आप inference और fine-tune चला सकते हैं, लेकिन आप मॉडल को scratch से reproduce नहीं कर सकते। Open Source Initiative ने 2024 के अंत में "Open Source AI" की एक formal परिभाषा जारी की जो इसे स्पष्ट करने का प्रयास करती है, लेकिन उद्योग अभी भी शब्दों का loosely उपयोग करता है। भेद को जानना मायने रखता है जब आप मूल्यांकन कर रहे हैं कि आप वास्तव में एक मॉडल के साथ क्या कर सकते हैं।

License Spectrum

openness का spectrum releases के बीच व्यापक रूप से भिन्न होता है। एक छोर पर, Meta के Llama मॉडल एक custom license के साथ आते हैं जो 700 मिलियन से अधिक monthly active उपयोगकर्ताओं वाली कंपनियों द्वारा उपयोग को निषिद्ध करता है (स्पष्ट रूप से प्रतिस्पर्धियों पर लक्षित) और attribution की आवश्यकता होती है। Mistral के मॉडलों ने आम तौर पर Apache 2.0 का उपयोग किया है, उपलब्ध सबसे permissive licenses में से एक। Alibaba का Qwen परिवार भी Apache 2.0 का उपयोग करता है। DeepSeek ने MIT license के तहत weights जारी किए हैं। इस बीच, BLOOM (BigScience) और OLMo (AI2) जैसी परियोजनाएँ प्रशिक्षण डेटा और पूर्ण प्रशिक्षण code भी जारी करके आगे बढ़ीं — ये truly open source के क़रीब हैं। Developers के लिए, license निर्धारित करता है कि क्या आप मॉडल का commercially उपयोग कर सकते हैं, क्या आपको संशोधनों को share करने की आवश्यकता है, और क्या आप इसके ऊपर proprietary उत्पादों का निर्माण कर सकते हैं।

इसे स्वयं चलाना

open-weights मॉडलों को स्वयं चलाना quantization और optimized inference engines के कारण नाटकीय रूप से अधिक accessible हो गया है। एक 70-billion-parameter मॉडल जिसे full precision में 140 GB से अधिक VRAM की आवश्यकता होगी वह स्वीकार्य quality loss के साथ 4-bit quantization पर एक एकल 24 GB consumer GPU पर चल सकता है। llama.cpp, vLLM, और Ollama जैसे tools ने स्थानीय inference को लगभग trivially आसान बना दिया है — आप मिनटों में एक gaming laptop पर एक capable मॉडल चला सकते हैं। व्यावहारिक bottleneck "क्या मैं इसे चला सकता हूँ?" से "क्या quality मेरे use case के लिए पर्याप्त है?" में shift हो गई है। Quantized छोटे मॉडल कई कार्यों के लिए remarkably अच्छे हैं, लेकिन वे API के माध्यम से दिए गए full-precision frontier मॉडलों की तुलना में complex reasoning और long-context काम पर performance खो देते हैं।

Safety बहस

open weights के safety implications AI policy में सबसे actively debated विषयों में से एक हैं। चिंता सीधी है: एक बार weights जारी हो जाने के बाद, कोई भी safety प्रशिक्षण को fine-tune करके हटा सकता है। शोधकर्ताओं ने प्रदर्शित किया है कि RLHF-आधारित safety guardrails को open-weights मॉडलों से केवल कुछ सौ उदाहरणों और न्यूनतम compute के साथ हटाया जा सकता है। इसका अर्थ है कि open-weights मॉडलों को uncensored versions में बदला जा सकता है जो किसी भी request का पालन करेंगे। प्रति-तर्क — और यह एक मज़बूत है — यह है कि इन मॉडलों में जो ज्ञान शामिल है वह पहले से ही internet पर उपलब्ध है, कि open शोध और distributed innovation के लाभ जोखिमों से अधिक हैं, और कि मॉडल distribution को restrict करने का प्रयास केवल कुछ बड़ी कंपनियों में शक्ति को concentrate करता है बिना safety में meaningfully सुधार किए। दोनों पक्षों के पास valid points हैं, और बहस settled होने से बहुत दूर है।

विकल्प बनाना

open-weights और API-आधारित मॉडलों के बीच चुनने वाले practitioners के लिए, निर्णय चार factors पर आता है: privacy (open weights आपके डेटा को स्थानीय रखते हैं), लागत (high volume पर self-hosting सस्ता है लेकिन low volume पर अधिक महँगा), control (आप freely fine-tune और customize कर सकते हैं), और capability (GPT-4o और Claude जैसे API-only frontier मॉडल अभी भी कई benchmarks पर सबसे अच्छे open-weights मॉडलों को outperform करते हैं, हालाँकि हर major release के साथ gap narrows करता है)। कई production सिस्टम दोनों का उपयोग करते हैं — गति और लागत के लिए सरल queries को एक स्थानीय open-weights मॉडल पर routing करते हैं, जबकि complex कार्यों को एक frontier API पर भेजते हैं। यह hybrid दृष्टिकोण आपको दोनों दुनियाओं का सर्वश्रेष्ठ देता है, और यह उन टीमों के लिए तेज़ी से व्यावहारिक विकल्प है जिन्हें performance और privacy दोनों की आवश्यकता है।

संबंधित अवधारणाएँ

← सभी शब्द
← ओपन बनाम क्लोज़्ड (Open vs. Closed) ओवरफ़िटिंग →
ESC