Zubnet AIसीखेंWiki › Reka
कंपनियाँ

Reka

इसे भी कहा जाता है: Reka Core, Reka Flash
एआई रिसर्च कंपनी जो पूर्व DeepMind, Google Brain और FAIR के अनुसंधानकर्ताओं द्वारा स्थापित की गई है। मूल से बनाए गए पोलीमोडल मॉडल जो पाठ, छवियाँ, वीडियो और ऑडियो की प्रक्रिया कर सकते हैं।

यह क्यों मायने रखता है

रीका ने दिखाया कि एक छोटी, अनुसंधान-केंद्रित टीम जिसके पास सही पृष्ठभूमि हो, बिलियन डॉलर के फंडिंग के बिना फ्रंटियर-क्लास बहुमाध्यम मॉडल बना सकती है — और वह स्वाभाविक रूप से बहुमाध्यम आर्किटेक्चर जो शून्य से प्रशिक्षित किया गया है, अधिकांश बड़े प्रयोगशालाओं द्वारा उपयोग किए जाने वाले बोल्टेड-ऑन प्रयोग की तुलना में बेहतर प्रदर्शन कर सकते हैं। उनके स्थापना से स्नोफ्लेक के अधिग्रहण तक के तेजी से विकास ने यह भी खुलासा कर दिया कि अब उद्यम डेटा प्लेटफॉर्म एआई टैलेंट पर तीव्र गुरुत्वाकर्षण की खींच लगा रहे हैं, जो सुझाता है कि बहुमाध्यम एआई का भविष्य डेटा इन्फ्रास्ट्रक्चर कंपनियों के अंदर हो सकता है, बजाय अलग-अलग अनुसंधान प्रयोगशालाओं के।

गहन अध्ययन

Reka की स्थापना 2023 में Dani Yogatama, Yi Tay, और Che Zheng ने की थी — शोधकर्ता जिनका सामूहिक pedigree ग्रह पर सबसे महत्वपूर्ण AI labs के एक tour की तरह पढ़ता है। Yogatama ने DeepMind में language understanding और reasoning पर काम करते हुए वर्षों बिताए। Yi Tay Google Brain (बाद में Google DeepMind) में एक senior शोधकर्ता थे, efficient Transformers, scaling laws, और UL2 unified language learner पर अपने काम के लिए जाने जाते थे। Zheng बड़े पैमाने के सिस्टम बनाने से गहरी इंजीनियरिंग विशेषज्ञता लाए। संस्थापक थीसिस सरल लेकिन महत्वाकांक्षी थी: AI मॉडलों की अगली पीढ़ी को बाद में multimodal क्षमताओं को bolt नहीं करना चाहिए। इसके बजाय, उन्हें शुरुआत से natively multimodal होना चाहिए — एक एकीकृत आर्किटेक्चर में text, छवियों, वीडियो, और audio को process करने के लिए शुरुआत से प्रशिक्षित। उस विश्वास ने प्रारंभिक funding और शोधकर्ताओं की एक टीम को आकर्षित किया जो विश्वास करते थे कि अधिकांश labs द्वारा उपयोग किया गया "बाद में vision जोड़ें" दृष्टिकोण मौलिक रूप से सीमित था।

Design से Natively multimodal

तकनीकी भेद Reka draws वह उन मॉडलों के बीच है जो "multimodal" हैं क्योंकि किसी ने एक text मॉडल के ऊपर एक vision encoder को fine-tune किया, और उन मॉडलों के बीच जो multimodal हैं क्योंकि कई modalities पहले दिन से pre-training में woven की गईं। उनके flagship मॉडल — Reka Core, Reka Flash, और छोटे Reka Edge — text, छवियों, वीडियो, और audio को natively संभालने के लिए डिज़ाइन किए गए थे। यह केवल एक marketing दावा नहीं है; यह वीडियो समझ जैसी क्षमताओं में दिखाई देता है, जहाँ मॉडल केवल individual frames को captioning करने के बजाय temporal sequences के बारे में reason कर सकता है। Reka Flash, उनका mid-size मॉडल, multimodal benchmarks पर अपनी क्षमता से ऊपर मुक्केबाज़ी करने के लिए उल्लेखनीय बन गया, अक्सर अपने parameter count से कई गुना मॉडलों के साथ मेल खाते या उन्हें पार करते हुए। टीम ने अप्रैल 2024 में अपनी तकनीकी रिपोर्ट प्रकाशित की, कार्यों की एक श्रृंखला में GPT-4V, Gemini Pro, और Claude 3 Sonnet के विरुद्ध प्रतिस्पर्धी परिणाम दिखाते हुए — एक कंपनी के लिए एक remarkable उपलब्धि जो बमुश्किल एक वर्ष पुरानी थी।

एक capital-intensive क्षेत्र में एक lean operation

Reka ने 2024 में DST Global और Radical Ventures के नेतृत्व में $58 मिलियन Series A जुटाया, SoftBank और notable angel निवेशकों की भागीदारी के साथ। AI लैब मानकों के अनुसार, यह मामूली है — उस तरह का पैसा जो आपको कुछ महीने का serious GPU समय खरीदता है, OpenAI, Anthropic, और xAI द्वारा जमा किए गए बहु-अरब डॉलर के war chests नहीं। Reka ने असामान्य रूप से कुशल होकर compensate किया है: उनकी टीम छोटी रही (अपने पहले वर्ष के अधिकांश के लिए 30 लोगों के तहत), उनके मॉडलों को सावधान compute budgeting के साथ प्रशिक्षित किया गया, और उन्होंने जल्दी उत्पाद shipped किया। उन्होंने एक API और Reka Playground नामक एक consumer-facing सहायक launch किया, लेकिन असली play हमेशा मॉडल स्वयं रहे हैं — उन developers और enterprises को फ्रंटियर-class multimodal AI प्रदान करते हुए जिन्हें केवल-text reasoning से अधिक की आवश्यकता है। कंपनी ने अपने छोटे मॉडलों को open weights के रूप में भी उपलब्ध कराया है, अपने सबसे सक्षम मॉडलों को proprietary रखते हुए developer mindshare बनाने के लिए open releases का उपयोग करने के pattern का अनुसरण करते हुए।

Snowflake अधिग्रहण और यह क्या signal देता है

2024 के मध्य में, रिपोर्ट उभरीं कि Snowflake लगभग $1 अरब में Reka को acquire करने के लिए advanced talks में था। deal दोनों पक्षों पर रणनीतिक समझ बनाता था: Snowflake को Databricks (जिसने एक वर्ष पहले MosaicML को $1.3 अरब में अधिग्रहित किया था) के साथ प्रतिस्पर्धा करने के लिए in-house AI क्षमताओं की आवश्यकता थी, और Reka को वितरण, compute संसाधन, और enterprise संबंधों की आवश्यकता थी जो एक प्रमुख डेटा platform प्रदान कर सकता है। Reka के संस्थापकों के लिए, अधिग्रहण ने Snowflake के डेटा cloud के अंदर विशाल पैमाने पर अपने multimodal मॉडलों को तैनात करने का एक रास्ता प्रदान किया, जहाँ ग्राहक पहले से ही unstructured डेटा संग्रहीत करते हैं — छवियाँ, दस्तावेज़, वीडियो — जिसे multimodal मॉडल uniquely process करने के लिए उपयुक्त हैं। deal ने AI में एक व्यापक रुझान को underscore किया: कि standalone शोध labs, चाहे वे कितने भी talented हों, स्वतंत्र रूप से अरबों जुटाने या एक रणनीतिक home खोजने के लिए विशाल दबाव का सामना करते हैं जहाँ उनकी तकनीक go-to-market पर पूँजी जलाए बिना ग्राहकों तक पहुँच सकती है। Reka की कहानी, स्थापना से अधिग्रहण तक लगभग अठारह महीनों में, AI कंपनी इतिहास में सबसे तेज़ trajectories में से एक है।

संबंधित अवधारणाएँ

← सभी शब्द
← Recraft Resemble AI →
ESC