AI एजेंट्स ने ETHDenver 2026 में धूम मचा दी, चाहे वह ऑटोनोमस फाइनेंस हो या ऑन-चेन रोबोटिक्स। लेकिन जब “एजेंटिक इकोनॉमीज” को लेकर उत्साह बढ़ रहा है, एक और बड़ा सवाल उभर रहा है: क्या संस्थाएं यह प्रूव कर सकती हैं कि उनके AI सिस्टम किस डेटा पर ट्रेन हुए थे?
इसी चुनौती को सॉल्व करने वाली स्टार्टअप्स में एक है Perle Labs, जिसका कहना है कि AI सिस्टम्स के लिए उनके ट्रेनिंग डेटा की वेरिफायबल चेन ऑफ कस्टडी जरूरी है, खासकर रेग्युलेटेड और हाई-रिस्क एनवायरमेंट्स में। इंस्टीट्यूशंस के लिए एक ऑडिटेबल, क्रेडेंशियल्ड डेटा इन्फ्रास्ट्रक्चर बनाने पर फोकस करते हुए, Perle ने अब तक $17.5 मिलियन जुटाए हैं और इसकी लेटेस्ट फंडिंग राउंड Framework Ventures ने लीड की है। CoinFund, Protagonist, HashKey, और Peer VC जैसे अन्य इनवेस्टर्स भी शामिल हैं। कंपनी के मुताबिक, उसके प्लेटफॉर्म पर एक मिलियन से ज्यादा एनोटेटर्स ने एक बिलियन से ज्यादा स्कोर्ड डेटा पॉइंट्स कॉन्ट्रिब्यूट किए हैं।
BeInCrypto ने ETHDenver 2026 के दौरान Perle Labs के CEO Ahmed Rashad से बातचीत की। Rashad इससे पहले Scale AI में ऑपरेशनल लीडरशिप रोल में थे, जब कंपनी हाइपरग्रोथ फेज में थी। बातचीत में उन्होंने डेटा प्रॉवेनेंस, मॉडल कोलैप्स, एडवर्सेरियल रिस्क्स और क्यों उन्हें लगता है कि सोवरेन इंटेलिजेंस AI को किसी भी क्रिटिकल सिस्टम में डिप्लॉय करने के लिए जरूरी बन जाएगी, इस पर चर्चा की।
BeInCrypto: आप Perle Labs को “AI के लिए सोवरेन इंटेलिजेंस लेयर” बताते हैं। जो रीडर्स डेटा इन्फ्रास्ट्रक्चर डिबेट में नहीं हैं, उनके लिए प्रैक्टिकल टर्म्स में इसका क्या मतलब है?
Ahmed Rashad: “सोवरेन शब्द सोच-समझकर चुना गया है, और इसमें कई लेयर्स हैं।
सबसे सीधा मतलब है—कंट्रोल। अगर आप कोई गवर्नमेंट, हॉस्पिटल, डिफेंस कॉन्ट्रैक्टर या कोई बड़ी एंटरप्राइज हैं जो हाई-स्टेक्स एनवायरमेंट में AI डिप्लॉय करती है, तो आपको उस सिस्टम के पीछे की इंटेलिजेंस को खुद ओन करना चाहिए, न कि उसे ऐसे ब्लैक बॉक्स के हाथ में छोड़ना चाहिए जिसे आप न तो इंस्पेक्ट कर सकते हैं और न ही ऑडिट। सोवरेन का मतलब है कि आपको पता हो कि आपका AI किस पर ट्रेन हुआ था, किसने उसे वेरिफाई किया और आप इसे प्रूव भी कर सकते हैं। आज ज्यादातर इंडस्ट्री इस बारे में नहीं कह सकती।
दूसरा मतलब है—इंडिपेंडेंस। यानी बिना बाहरी हस्तक्षेप के काम करना। यही बात DoD या एंटरप्राइज जैसी संस्थाओं के लिए जरूरी हो जाती है, खास तौर पर तब जब वह AI को सेंसिटिव एनवायरमेंट में डिप्लॉय करती हैं। आप अपनी क्रिटिकल AI इन्फ्रास्ट्रक्चर को उन डेटा पाइपलाइंस पर डिपेंड नहीं कर सकते जिन्हें आप कंट्रोल नहीं करते, वेरिफाई नहीं कर सकते या टेम्परिंग से डिफेंड नहीं कर सकते। ये केवल थ्योरिटिकल रिस्क नहीं है। NSA और CISA दोनों ने डेटा सप्लाई चेन की कमजोरियों पर नेशनल सिक्यॉरिटी के लिहाज से ऑपरेशनल गाइडेंस जारी की है।
तीसरा मतलब है—अकाउंटेबिलिटी। जब AI कॉन्टेंट जेनरेट करने से निकलकर डिसीजन मेकिंग जैसे मेडिकल, फाइनेंशियल, मिलिट्री फील्ड तक जाता है, तो किसी को जवाब देना होगा: इंटेलिजेंस कहां से आई? किसने वेरिफाई किया? क्या यह रिकॉर्ड परमानेंट है? Perle पर हमारा टार्गेट है कि हर एक्सपर्ट एनोटेटर का हर कॉन्ट्रिब्यूशन ऑन-चेन रिकॉर्ड हो। इसे री-राइट नहीं किया जा सकता। यही इम्युटेबिलिटी सोवरेन शब्द को सटीक बनाती है, सिर्फ दिखावे के लिए नहीं।
पैक्टिकल टर्म्स में, हम एक वेरिफिकेशन और क्रेडेंशियलिंग लेयर बना रहे हैं। अगर कोई हॉस्पिटल AI डायग्नोस्टिक सिस्टम डिप्लॉय करता है, तो वह अपने ट्रेनिंग सेट के हर डेटा पॉइंट को उस क्रेडेंशियल्ड प्रोफेशनल तक ट्रेस कर सके जिसने उसे वेरिफाई किया था। यही सोवरेन इंटेलिजेंस है। हमारा मतलब यही है।”
BeInCrypto: आपने Scale AI में हाइपरग्रोथ फेज के दौरान काम किया, जिसमें बड़े डिफेंस कॉन्ट्रैक्ट्स और Meta इनवेस्टमेंट शामिल थे। इस एक्सपीरियंस से आपको किस जगह ट्रडिशनल AI डेटा पाइपलाइंस फेल होती दिखीं?
Ahmed Rashad: “Scale एक शानदार कंपनी थी। मैं उस समय वहां था जब इसका रेवेन्यू $90M से अब $29B तक पहुंच गया, वह सब बनता हुआ देखा, और मैंने बहुत करीब से देखा कि कहां-कहां दरारें उभरती हैं।
मूल समस्या यह है कि डेटा क्वालिटी और स्केल हमेशा एक-दूसरे के विपरीत दिशा में खींचते हैं। जब आप 100x ग्रोथ कर रहे होते हैं, तो हमेशा दबाव होता है कि तेजी से आगे बढ़ें: ज्यादा डेटा, तेज एनोटेशन, हर लेबल पर कम लागत। इसका असर प्रिसिजन और जिम्मेदारी पर पड़ता है। अंत में आपके पास ओपेक पाइपलाइंस रह जाती हैं: आपको बस इतना पता होता है कि क्या डाला गया, कुछ क्वालिटी मेट्रिक्स आउटपुट पर होते हैं, लेकिन बीच का हिस्सा एक ब्लैक बॉक्स जैसा रहता है। इसे किसने वैलिडेट किया था? क्या वे सच में क्वालिफाइड थे? क्या annotation consistent था? ये सवाल ट्रेडिशनल मॉडल्स में स्केल पर लगभग नामुमकिन हो जाते हैं।
दूसरी चीज़ जो मैंने सीखी, वो ये है कि इंसानी एलिमेंट को लगभग हमेशा ऐसे माना जाता है जैसे उसे मिनिमम कॉस्ट पर लाना है, न कि कैपेबिलिटी डेवलप करनी है। ट्रांज़ैक्शनल मॉडल: प्रत्येक टास्क पर भुगतान फिर throughput बढ़ाना, धीरे-धीरे क्वालिटी खराब करता है। ये बेस्ट कॉन्ट्रिब्यूटर्स को बाहर कर देता है। जो लोग सही मायनों में प्रोफेशनल क्वालिटी, एक्सपर्ट-लेवल annotation कर सकते हैं, वो वही लोग नहीं हैं जो कुछ पैसों के लिए gamified माइक्रो-टास्क सिस्टम पर काम करेंगे। अगर आपको उस level का इनपुट चाहिए, तो आपको तरीका बदलना होगा।
यही समझ Perle की नींव है। डेटा प्रॉब्लम का हल सिर्फ ज्यादा काम कराने से नहीं होता। इसका हल है contributors को प्रोफेशनल की तरह ट्रीट करना, सिस्टम में verifiable credentialing लाना, और पूरे प्रोसेस को एंड-टू-एंड ऑडिटेबल बनाना।”
BeInCrypto: आपने एक मिलियन annotators का आंकड़ा पार किया और एक बिलियन से ज्यादा डेटा पॉइंट्स का स्कोर किया। ज्यादातर डेटा लेबलिंग प्लेटफॉर्म anonymous crowd labor पर निर्भर करते हैं। आपके reputation model में क्या structural अंतर है?
Ahmed Rashad: “Core फर्क ये है कि Perle पर आपका work history आपकी होती है, और ये permanent होती है। जब आप कोई टास्क पूरी करते हैं, तो उस योगदान का रिकॉर्ड, उसकी quality tier, वो एक्सपर्ट consensus से कैसे मैच करता है, सब कुछ on-chain लिखा जाता है। इसे एडिट नहीं किया जा सकता, डिलीट नहीं किया जा सकता, न ही फिर assign किया जा सकता। समय के साथ, ये एक प्रोफेशनल credential बन जाता है जो लगातार बढ़ता जाता है।
Anonymous crowd labor से इसकी तुलना करें, वहाँ व्यक्ति की अहमियत नहीं होती। क्वालिटी की कोई जिम्मेदारी नहीं क्योंकि उसकी reputation ही मौजूद नहीं है, हर टास्क पिछले से disconnected रहता है। इंसेंटिव स्ट्रक्चर से वही मिलता है जिसकी उम्मीद थी: सिर्फ न्यूनतम जरूरी मेहनत।
हमारा मॉडल इसका उल्टा है। Contributors verifiable ट्रैक रिकॉर्ड बनाते हैं। प्लेटफॉर्म domain expertise पहचानता है। उदाहरण के लिए, कोई radiologist जो लगातार क्वालिटी मेडिकल इमेज annotations बनाता है, उसकी प्रोफाइल में वही झलकता है। यही reputation आपको high-value tasks, बेहतर compensation और ज्यादा मीनिंगफुल काम तक पहुंच दिलाता है। ये एक flywheel है: क्वालिटी बढ़ती है क्योंकि इंसेंटिव्स उससे जुड़े होते हैं।
हमने अपने annotator नेटवर्क में एक बिलियन पॉइंट्स का आंकड़ा पार किया है। ये सिर्फ नंबर नहीं है, बल्कि एक बिलियन ट्रेस करने योग्य, humans द्वारा वेरिफाइड डेटा कॉन्ट्रिब्यूशंस हैं। यही foundational है trustworthy AI training डेटा के लिए, और anonymous crowd labor से ये स्ट्रक्चरल रूप से हासिल नहीं किया जा सकता।”
BeInCrypto: Model collapse पर रिसर्च सर्किल्स में तो काफी बात होती है, लेकिन मेनस्ट्रीम AI conversations तक ये पहुंचते नहीं दिखता। ऐसा क्यों है, और क्या लोगों को इसकी चिंता ज्यादा करनी चाहिए?
Ahmed Rashad: “ये मेनस्ट्रीम conversations का हिस्सा इसलिए नहीं बनता क्योंकि ये एक धीरे-धीरे बढ़ता संकट है, कोई अचानक या बड़ा संकट नहीं है। Model collapse तब होता है जब AI सिस्टम्स को AI-जेनरेटेड डेटा पर ही बार-बार ट्रेन किया जाता है, जिससे वे क्वालिटी खोने लगते हैं, nuances गायब हो जाते हैं, और रिजल्ट्स एवरेज की तरफ सिमटने लगते हैं। इसका कोई बड़ा अचानक इवेंट नहीं आता, बल्कि ये क्वालिटी का धीरे-धीरे गिरना है जो गंभीर होने तक शायद किसी को दिखता भी नहीं।
मेकॅनिज़्म सीधा है: इंटरनेट अब AI जेनरेटेड कंटेंट से भरता जा रहा है। इस कंटेंट पर ट्रेन किए गए मॉडल्स खुद के आउटपुट्स से ही सीख रहे हैं, न कि असली इंसानी नॉलेज या अनुभव से। हर नई ट्रेनिंग cycle पिछली वाली की गड़बड़ियों को amplify करती है। ये एक फ़ीडबैक लूप है जिसका कोई नैचुरल करेक्शन नहीं है।
क्या लोगों को अपनी चिंता बढ़ानी चाहिए? हाँ, खासकर high-stakes domains में। जब model collapse किसी कंटेंट रिकमेंडेशन एल्गोरिदम को चपेट में लेता है, तो रिकमेंडेशन quality खराब हो जाती है। लेकिन जब ये किसी मेडिकल डायग्नोस्टिक मॉडल, लीगल reasoning सिस्टम, या defense intelligence टूल को अफेक्ट करता है, तो नतीजे बिल्कुल अलग तरह के और गंभीर होते हैं। deterioration की कोई गुंजाइश नहीं बचती।
यही वजह है कि AI को महत्वपूर्ण इन्फ्रास्ट्रक्चर में लाने के साथ ही मानव-सत्यापित डेटा लेयर को ऑप्शनल नहीं रखा जा सकता। आपको लगातार असली, विविध मानव इंटेलिजेंस का स्रोत चाहिए ताकि AI को सही तरीके से ट्रेन किया जा सके; न कि ऐसे AI आउटपुट्स के सहारे, जो किसी और मॉडल से होकर आए हों। हमारे पास एक मिलियन से भी ज़्यादा एनोटेटर्स हैं, जो अलग-अलग क्षेत्रों में असली डोमेन एक्सपर्टीज़ रखते हैं। यही विविधता मॉडल कोलैप्स का इलाज है। आप इसे सिंथेटिक डेटा या ज्यादा कंप्यूट से ठीक नहीं कर सकते।”
BeInCrypto: जब AI डिजिटल एनवायरनमेंट्स से बाहर निकलकर फिजिकल सिस्टम्स में आता है, तो रिस्क, जिम्मेदारी और डेवलेपमेंट में लगने वाले स्टैंडर्ड्स में मूलभूत रूप से क्या बदलाव आता है?
Ahmed Rashad: बदलाव सबसे बड़ा ये है कि रिवर्सिबिलिटी खत्म हो जाती है। यही इसकी जड़ है। एक लैंग्वेज मॉडल अगर गलत जवाब देता है, तो आप उसे ठीक कर सकते हैं, फ्लैग कर सकते हैं, आगे बढ़ सकते हैं। लेकिन एक रोबोटिक सर्जिकल सिस्टम गलत इनफेरेंस पर ऑपरेट कर रहा है, ऑटोनॉमस वेहिकल ने गलत क्लासिफिकेशन कर दी, या ड्रोन ने गलत टारगेट पर ऐक्शन लिया—इन गलतियों का कोई ‘अनडू’ बटन नहीं है। फेलियर की कीमत सिर्फ शर्मिंदगी से बढ़कर तबाही तक पहुंच जाती है।
इसलिए इन सिस्टम्स पर लगने वाले स्टैंडर्ड्स पूरी तरह से बदल जाते हैं। डिजिटल एनवायरनमेंट्स में AI डेवलेपमेंट को जल्दी और सेल्फ-करेक्ट होने दिया गया है। लेकिन फिजिकल सिस्टम्स में ये मॉडल काम नहीं करेगा। यहाँ सिस्टम्स के डिप्लॉयमेंट से पहले ही ट्रेनिंग डेटा को वेरिफाई करना जरूरी है, न कि किसी घटना के बाद ऑडिट करना।
इससे जिम्मेदारी भी बदल जाती है। डिजिटल कॉन्टेक्स्ट में जिम्मेदारी को फैलाना आसान है—क्या ये मॉडल की गलती थी? डेटा की? डिप्लॉयमेंट की? पर जब फिजिकल सिस्टम्स की बात आती है, खासकर जहां इंसानों को नुकसान हो सकता है, वहाँ रेग्युलेटर्स और अदालतें सीधे सवाल करेंगी। किसने ट्रेन किया? किस डेटा पर किया? किसने डेटा को वेलिडेट किया और किस स्टैंडर्ड्स पर किया? वही कंपनियां और गवर्नमेंट ऐसे सवालों के जवाब दे सकेंगी, जिन्हें काम करने की इजाजत मिलेगी। जो जवाब नहीं दे पाएंगे, उनको अप्रत्याशित जिम्मेदारी का सामना करना पड़ेगा।
हमने Perle को इसी ट्रांजिशन के लिए बनाया है। ह्यूमन वेरिफाइड, एक्सपर्ट सोर्स्ड, ऑन-चेन ऑडिटेबल। जब AI वेयरहाउस, ऑपरेटिंग रूम या बैटलफील्ड में काम करना शुरू करेगा, तो उसके नीचे जो इंटेलिजेंस लेयर होगी, उसे अलग स्टैंडर्ड पर खरा उतरना पड़ेगा। हम उसी स्टैंडर्ड पर काम कर रहे हैं।
BeInCrypto: आज के वक्त में, खासकर नेशनल लेवल पर, AI सिस्टम्स में डेटा पॉइजनिंग या एडवर्सरियल मैनिप्युलेशन का खतरा कितना असली है?
Ahmed Rashad: “ये खतरा बिलकुल असली है, डॉक्युमेंटेड है, और जिन लोगों के पास इसकी क्लासिफाइड जानकारी है, वे इसे नेशनल सिक्योरिटी प्रायोरिटी के तौर पर ले रहे हैं।
DARPA का GARD प्रोग्राम (Guaranteeing AI Robustness Against Deception), कई सालों से AI सिस्टम्स पर होने वाले एडवर्सरियल अटैक्स—जिसमें डेटा पॉइजनिंग भी शामिल है—से बचाव के लिए डिफेंस डेवलप कर रहा है। NSA और CISA ने 2025 में एक साझा गाइडेंस जारी की थी, जिसमें डेटा सप्लाई चेन वल्नरेबिलिटी और खराब इरादे से मॉडिफाई किए गए ट्रेनिंग डेटा को AI सिस्टम की इंटेग्रिटी के लिए सीरियस खतरा बताया गया था। ये सब थ्योरिटिकल व्हाइट पेपर नहीं हैं। ये ऑपरेशनल गाइडेंस हैं, उन एजेंसियों से, जो काल्पनिक रिस्क पर अलर्ट नहीं देतीं।
अटैक सरफेस काफी बड़ा है। अगर आप किसी ऐसे AI सिस्टम के ट्रेनिंग डेटा से छेड़छाड़ कर दें जो थ्रेट डिटेक्शन, मेडिकल डायग्नोसिस या लॉजिस्टिक ऑपटिमाइजेशन के लिए यूज हो रहा है, तो आपको सिस्टम को हैक करने की भी जरूरत नहीं। आपने पहले ही उसकी ‘दुनिया देखने’ की नजरिए को मोड़ दिया है। ये एक काफी एलिगेंट और मुश्किल से पकड़ में आने वाला अटैक वेक्टर है, पारंपरिक साइबरसिक्योरिटी से कहीं अलग।
Department of Defense के CDAO के साथ Scale AI का $300 मिलियन का कॉन्ट्रैक्ट है, जिससे क्लासिफाइड नेटवर्क्स पर AI डिप्लॉय किया जाना है। ये आंशिक रूप से इसलिए है क्योंकि सरकार समझती है कि संवेदनशील एनवायरनमेंट्स में सार्वजनिक, अनवेरिफाइड डेटा पर ट्रेंड AI इस्तेमाल नहीं किया जा सकता। डेटा प्रोवनेंस का सवाल वहाँ सिर्फ थ्योरी नहीं, बल्कि ऑपरेशन का हिस्सा है।
मेनस्ट्रीम बातचीत में जो मिसिंग है, वो ये कि ये सिर्फ सरकार की प्रॉब्लम नहीं है। कोई भी एंटरप्राइज, जो प्रतिस्पर्धात्मक माहौल, फाइनेंशियल सर्विसेज़, फार्मास्युटिकल्स, या क्रिटिकल इन्फ्रास्ट्रक्चर में AI डिप्लॉय कर रही है, उसके डेटा में भी एडवर्सरियल एक्सपोजर हो सकता है, जिसे अब तक पूरी तरह समझा ही नहीं गया है। खतरा बिलकुल असली है। डिफेन्सेस अभी भी डेवलप हो रही हैं।”
BeInCrypto: कोई सरकार या बड़ी कंपनी खुद ये verification लेयर क्यों नहीं बना सकती? जब कोई इस मुद्दे पर सवाल उठाता है, तो असली जवाब क्या है?
Ahmed Rashad: “कुछ कोशिश करते हैं। और जो कोशिश करते हैं, वे बहुत जल्दी समझ जाते हैं कि असली समस्या क्या है।
टेक्नोलॉजी बनाना आसान हिस्सा है। असली मेहनत नेटवर्क में है। वेरिफाइड और credentialed domain एक्सपर्ट्स जैसे radiologists, linguists, legal specialists, engineers, scientists सिर्फ इसलिए नहीं आ जाते क्योंकि आपने उनके लिए प्लेटफॉर्म बना दिया। आपको उन्हें जोड़ना पड़ता है, credential देना पड़ता है, इंसेंटिव स्ट्रक्चर तैयार करने पड़ते हैं जिससे वे जुड़कर काम करें, और ऐसे quality consensus मैकेनिज्म डेवलप करने होते हैं जिससे उनके योगदान स्केल पर सही मायने में impactful बनें। इसमें कई साल लग जाते हैं और ऐसी एक्सपर्टीज की जरूरत होती है, जो ज्यादातर सरकारी एजेंसियों या कंपनियों के पास इन-हाउस नहीं होती।
दूसरी समस्या है डाइवर्सिटी। जब कोई सरकारी एजेंसी अपनी खुद की verification layer बनाती है, तो वो जरूरी तौर पर सीमित और लगभग एक जैसे लोगों के ग्रुप तक ही सीमित रह जाती है। ग्लोबल एक्सपर्ट नेटवर्क का असली फायदा सिर्फ credentialing नहीं है, बल्कि यह अलग-अलग perspectives, भाषाओं, संस्कृति और domain specialization के range में है, जो आप असली स्केल और जियोग्राफीज में काम करके ही पा सकते हैं। हमारे पास 10 लाख से ज़्यादा annotators हैं। यह वह चीज़ नहीं है, जिसे कोई भी अंदरूनी तौर पर आसानी से दोहरा सके।
तीसरी समस्या है इंसेंटिव डिजाइन। क्वॉलिटी कॉन्ट्रीब्यूटर्स को लंबे वक्त तक engaged रखना ट्रांसपेरेंट, फेयर और प्रोग्रामेबल compensation से ही मुमकिन है। Blockchain infrastructure इस काम को बहुत अच्छे तरीके से आसान बनाता है, जिसे ज्यादातर आंतरिक सिस्टम replicate नहीं कर पाते: immutable contribution records, सीधा attribution, और verifiable पेमेंट। सरकारी procurement सिस्टम efficiently ऐसा नहीं कर सकता।
उनकी आपत्ति का सच्चा जवाब है: आप सिर्फ एक tool नहीं खरीद रहे हैं। आप उस नेटवर्क और credentialing सिस्टम तक पहुंच रहे हैं, जिसे बनाने में सालों लगे हैं। विकल्प सिर्फ ‘खुद बनाओ’ नहीं है, बल्कि या तो इसे यूज करो या फिर डेटा क्वॉलिटी का रिस्क लो, जो इसके बिना आ सकता है।”
BeInCrypto: अगर AI आने वाले सालों में देश की कोर इंफ्रास्ट्रक्चर बन जाता है, तो sovereign intelligence layer उसमें 5 साल बाद कहां रखी जाएगी?
Ahmed Rashad: “पांच साल बाद, मुझे लगता है इसकी स्थिति वैसी बनेगी जैसी आज फाइनेंशियल ऑडिट फंक्शन की है – एक जरूरी verification लेयर, जो डेटा और deployment के बीच रहती है, जिसमें रेग्युलेटरी सपोर्ट और प्रोफेशनल स्टैंडर्ड्स जुड़े होंगे।
अभी AI डेवलपमेंट के पास फाइनेंशियल ऑडिटिंग जैसा कुछ भी नहीं है। कंपनियां अपनी ट्रेनिंग डेटा खुद रिपोर्ट करती हैं। इस प्रक्रिया की कोई स्वतंत्र verification नहीं है, न प्रोफेशनल credentialing, न किसी थर्ड पार्टी की यह पुष्टि कि किसी मॉडल की इंटेलिजेंस परिभाषित स्टैंडर्ड्स पर खरी उतरती है। हम अभी फाइनेंस की प्री-Sarbanes-Oxley स्थिति में हैं, जहाँ ज्यादातर ट्रस्ट और self-certification पर काम हो रहा है।
जैसे-जैसे AI critical इन्फ्रास्ट्रक्चर में बदलता जाएगा – जैसे पावर ग्रिड्स, हेल्थकेयर सिस्टम्स, फाइनेंशियल मार्केट्स, डिफेंस नेटवर्क्स में – यह मॉडल काम का नहीं रहेगा। सरकारें ऑडिट को अनिवार्य कर देंगी। Procurement में verified डेटा प्रूवेनेंस को जरूरी शर्त बना दिया जाएगा। लायबिलिटी फ्रेमवर्क्स गलतियों पर बड़ी जिम्मेदारी जोड़ देंगे, जो सही verification से रोकी जा सकती थीं।
Perle का रोल इस पूरी स्टैक में verification और credentialing लेयर के रूप में है – ऐसी संस्था जो इस बात का अपरिवर्तनीय, ऑडिटेबल रिकॉर्ड दे सकती है कि मॉडल किस डेटा पर, किसने, किस स्टैंडर्ड पर ट्रेंड किया। यह किसी AI डेवलपमेंट का सिर्फ एक फीचर नहीं, पांच साल बाद ये प्री-रिक्विजिट बन जाएगा।
बात बड़ी सीधी है कि sovereign intelligence कोई छोटी या सिर्फ डिफेंस का टॉपिक नहीं है। ये AI को deploy करने की नींव है, जहां भी फेलियर के असली नुकसान हैं। और जैसे-जैसे AI और ज्यादा अहमियत वाले एरिया में जाता है, नींव ही सबसे जरूरी बन जाती है।”