Nvidia के Rubin चिप्स AI को सस्ते इंफ्रास्ट्रक्चर में बदल रहे हैं। इसी कारण, Bittensor जैसे ओपन इंटेलिजेंस मार्केट्स अब मायने रखने लगे हैं।
Nvidia ने CES 2026 में यह स्पष्ट कर दिया कि अब आर्टिफिशियल इंटेलिजेंस (AI) का संचालन किस तरह से बदलेगा। कंपनी ने कंज्यूमर GPUs से शुरुआत नहीं की। इसकी जगह, उसने Rubin को पेश किया, जो एक rack-scale AI कंप्यूटिंग प्लेटफॉर्म है, जिसे बड़े स्तर पर inference को तेज़, सस्ता और ज्यादा efficient बनाने के लिए बनाया गया है।
Rubin ने AI को इंडस्ट्रियल इन्फ्रास्ट्रक्चर में बदल दिया
Nvidia की CES अनाउंसमेंट से साफ था कि वो अब इंडिविजुअल चिप्स नहीं बेच रही है। अब वह AI फैक्ट्रीज़ बेच रही है।
Rubin, Nvidia का नेक्स्ट-जनरेशन डेटा-सेंटर प्लेटफॉर्म है, जो Blackwell के बाद आता है। इसमें नई GPUs, हाई-बैंडविड्थ HBM4 मेमोरी, कस्टम CPUs और अल्ट्राफास्ट इंटरकनेक्ट्स एक ही टाइटली इंटीग्रेटेड सिस्टम में मिलाए गए हैं।
पहले के जनरेशन से अलग, Rubin पूरे रैक को एक कंप्यूटिंग यूनिट की तरह ट्रीट करता है। इस डिज़ाइन से डेटा मूवमेंट कम होता है, मेमोरी ऐक्सेस बेहतर होती है और बड़े मॉडल्स रन करने का खर्च भी घट जाता है।
इसके चलते, क्लाउड प्रोवाइडर्स और एंटरप्राइजेज अब लंबे-कॉन्टेक्स्ट और रीज़निंग-हैवी AI को प्रति टोकन कम खर्च में चला सकते हैं।
यह महत्वपूर्ण है क्योंकि आज के मॉडर्न AI वर्कलोड्स अब सिर्फ एक चैटबोट जैसे नहीं रह गए हैं। अब वे कई छोटे मॉडल्स, एजेंट्स और स्पेशलाइज्ड सर्विसेज़ पर निर्भर करते हैं, जो रियल टाइम में एक-दूसरे को कॉल करते हैं।
कम लागत से AI बनाने का तरीका बदल रहा है
इन्फरेंस को सस्ता और ज्यादा स्केलेबल बनाकर, Rubin एक नए तरह की AI इकोनॉमी को सक्षम करता है। डेवलपर्स अब सिर्फ एक बड़े मोनोलिथ के बजाय हजारों फाइन-ट्यून किए गए मॉडल्स डिप्लॉय कर सकते हैं।
एंटरप्राइजेज ऐसे एजेंट-बेस्ड सिस्टम चला सकते हैं, जिनमें अलग-अलग टास्क के लिए कई मॉडल्स यूज़ हो सकते हैं।
हालांकि, इससे एक नई समस्या पैदा होती है। जैसे ही AI मॉड्यूलर और ज्यादा आम हो जाता है, किसी को तय करना पड़ेगा कि हर रिक्वेस्ट को कौन सा मॉडल हैंडल करेगा। किसी को परफॉर्मेंस मापना, ट्रस्ट मैनेज करना और पेमेंट्स रूट करनी होंगी।
क्लाउड प्लेटफॉर्म्स मॉडल्स को होस्ट कर सकते हैं, लेकिन वे इनके लिए न्यूट्रल मार्केटप्लेस नहीं देते।
यही गैप है जहाँ Bittensor फिट बैठता है
Bittensor कंप्यूट नहीं बेचता है। यह एक डिसेंट्रलाइज्ड नेटवर्क चलाता है, जिसमें AI मॉडल्स एक-दूसरे से कॉम्पीट करके यूज़फुल आउटपुट देने की कोशिश करते हैं। नेटवर्क ऑन-चेन परफॉर्मेंस डेटा से इन मॉडल्स की रैंकिंग करता है और उन्हें अपने नेटिव टोकन TAO में पे करता है।
हर Bittensor सबनेट एक खास तरह की इंटेलिजेंस के लिए मार्केट की तरह काम करता है, जैसे टेक्स्ट जनरेशन, इमेज प्रोसेसिंग या डेटा एनालिसिस। जो मॉडल्स अच्छा परफॉर्म करते हैं, वे ज्यादा कमाते हैं। जो मॉडल्स अच्छा परफॉर्म नहीं करते, उनकी इनफ्लुएंस कम हो जाती है।
जैसे-जैसे मॉडल्स की संख्या बढ़ती है, यह स्ट्रक्चर और ज्यादा वैल्यूएबल बनता जाता है।
Nvidia के Rubin ने Bittensor का मॉडल कैसे viable बनाया
Rubin, Bittensor से कंपिट नहीं करता। यह Bittensor के इकोनॉमिक मॉडल को बड़े लेवल पर कामयाब बनाता है।
जैसे ही Nvidia AI ऑपरेट करने की लागत कम करता है, और ज्यादा डेवलपर्स और कंपनियां स्पेशलाइज्ड मॉडल्स को डिप्लॉय कर सकती हैं। इससे एक न्यूट्रल सिस्टम की जरूरत बढ़ती है जो इन मॉडल्स को रैंक, सिलेक्ट और पेड कर सके, चाहे वे क्लाउड या किसी भी ऑर्गनाइज़ेशन में हों।
Bittensor ये कोऑर्डिनेशन लेयर देता है। यह AI सर्विसेस की भीड़ को एक ओपन और कंपेटिटिव मार्केट में बदल देता है।
Nvidia AI की फिजिकल लेयर को कंट्रोल करता है: चिप्स, मेमोरी और नेटवर्क्स। Rubin उस कंट्रोल को मजबूत बनाता है और AI को सस्ता और फास्ट रन करने में मदद करता है।
Bittensor उस लेयर से एक लेवल ऊपर काम करता है। यह इंटेलिजेंस की इकॉनमी को संभालता है और डिसाइड करता है कि कौनसे मॉडल्स को यूज और रिवॉर्ड किया जाएगा।
जैसे ही AI एजेंट स्वार्म्स और मॉड्यूलर सिस्टम्स की ओर बढ़ रहा है, यह इकोनॉमिक लेयर और हार्ड हो जाता है, जिसे सेंट्रलाइज किया जाए।
आगे इसका क्या मतलब है
Rubin का रोलआउट 2026 के अंत में AI कैपेसिटी को डेटा सेंटर्स और क्लाउड यानी क्लाउड्स में बढ़ा देगा। इससे और ज्यादा मॉडल्स और एजेंट्स रियल वर्कलोड्स के लिए कम्पीट करेंगे।
Bittensor जैसी ओपन नेटवर्क्स को इस बदलाव से फायदा होगा। ये Nvidia की इन्फ्रास्ट्रक्चर को रिप्लेस नहीं करते। बल्कि इसे एक मार्केट देते हैं।
इस सेंस में, Rubin डिसेंट्रलाइज्ड AI को कमज़ोर नहीं करता। बल्कि इसे ऑर्गनाइज़ करने के लिए कुछ देता है।