Hindi

US Department of War ने 7 टॉप टेक कंपनियों के साथ AI एग्रीमेंट किए

  • US Department of War ने classified नेटवर्क्स पर सात tech firms के साथ AI deals किए
  • SpaceX, OpenAI, Google, NVIDIA, Microsoft, AWS और Reflection का नाम क्लियर लिस्ट में शामिल
  • Anthropic ने ऑटोमेटेड हथियारों और surveillance पर लिमिट हटाने से इनकार किया, इसलिए absent रही

अमेरिका के Department of War ने शुक्रवार को अमेरिका की सात सबसे बड़ी टेक और इंफ्रास्ट्रक्चर कंपनियों के साथ AI एग्रीमेंट साइन किए हैं, जिससे एडवांस्ड AI मॉडल्स को क्लासिफाइड नेटवर्क्स पर डिप्लॉय किया जाएगा।

इन कॉन्ट्रैक्ट्स में SpaceX, OpenAI, Google, NVIDIA, Reflection AI, Microsoft और Amazon Web Services शामिल हैं। ये कंपनियां अब अपने AI मॉडल्स को Impact Level 6 और Impact Level 7 (IL6 और IL7) इन्वॉयरनमेंट्स में ऑपरेट कर सकेंगी, जहां किसी भी लीगल ऑपरेशनल यूज़ के लिए इसकी परमिशन दी गई है।

Department of War के AI एग्रीमेंट्स का अंदरूनी विवरण

डिपार्टमेंट के Chief Technology Officer ने 1 मई को इस पैकेज की घोषणा की थी और इसे “AI-first” War Department बनाने की दिशा में एक बड़ा कदम बताया था। IL6 और IL7 लेवल्स सीक्रेट और टॉप सीक्रेट वर्कलोड्स कवर करते हैं, इसलिए अब ये मॉडल्स सेंसिटिव इंटेलिजेंस और ऑपरेशनल डेटा के साथ काम करेंगे।

“यह सिर्फ एक और नई पहल है हमारे AI-FIRST WAR DEPARTMENT के मिशन में,” War डिपार्टमेंट के Under Secretary for Research and Engineering के ऑफिस ने कहा

अधिकारियों ने बताया कि अलग-अलग वेंडर्स सिलेक्ट करना एक रणनीति के तहत किया गया है। MULTIPLE US PROVIDERS के साथ 계약 करके डिपार्टमेंट वेंडर लॉक-इन से बचना चाहता है, साथ ही बंद व ओपन-सोर्स मॉडल्स दोनों में अपने ऑप्शन ओपन रखना चाहता है।

NVIDIA का हिस्सा इसका ओपन-सोर्स Nemotron फैमिली है, वहीं Reflection AI (जो NVIDIA द्वारा सपोर्टेड और Google DeepMind के पूर्व रिसर्चर्स द्वारा बनाई गई स्टार्टअप है) एक्स्ट्रा ओपन-वेटेड सिस्टम मुहैया कराएगी।

Google अपनी Gemini फैमिली किसी भी लीगल गवर्नमेंट यूज़ के लिए लेकर आया है, और SpaceX, xAI के Grok मॉडल्स से जुड़ा इंफ्रास्ट्रक्चर प्रोवाइड कर सकता है।

Microsoft और AWS अपने क्लाउड और इंफ्रास्ट्रक्चर बैकबोन के रूप में रोल्स जारी रखेंगे जिससे पूरे सिस्टम का रोलआउट और भी स्मूथ होगा।

डिपार्टमेंट में AI एडॉप्शन काफी तेजी से बढ़ रहा है। GenAI.mil प्लेटफॉर्म को लॉन्च के सिर्फ 5 महीनों में 1.3 मिलियन यूजर्स और करोड़ों प्रॉम्प्ट्स मिल चुके हैं, यह जानकारी 1 मई की रिलीज के अनुसार सामने आई है।

Guardrail विवाद के बाद Anthropic शामिल नहीं

इस लिस्ट में Anthropic का नाम नहीं है। Defense Secretary Pete Hegseth ने फरवरी में Anthropic को सप्लाई-चेन रिस्क करार दिया था, जब कंपनी ने ऑटोनॉमस लीथल वेपन्स और बड़े स्तर की घरेलू सर्विलांस पर लगे प्रतिबंध हटाने से इनकार कर दिया था।

“हम किसी भी कंपनी को यह तय नहीं करने देंगे कि हम अपने ऑपरेशनल फैसले कैसे लें,” Defense Department के प्रवक्ता Sean Parnell ने कहा

बाद में एक फेडरल जज ने इस बैन को लागू करने पर रोक लगा दी, और कानूनी लड़ाई अभी भी जारी है।

OpenAI ने अपने प्रतिद्वंदियों की तुलना में ज्यादा सीमित राह चुनी। कंपनी ने कहा कि उसके War Department डील तीन मुख्य वादों को बरकरार रखती है:

  • इसके मॉडल्स का इस्तेमाल मैस डोमेस्टिक सर्विलांस के लिए नहीं किया जा सकता,
  • ये ऑटोनोमस वेपन्स को डाइरेक्ट नहीं कर सकते, और
  • इनकी सेफ्टी गार्डरेल्स कायम रहेंगी।

दूसरी कंपनियों ने “किसी भी कानूनी उद्देश्य” वाली चौड़ी भाषा को स्वीकार किया, जिसमें ये पब्लिक carve-outs शामिल नहीं थीं।

ओपन-सोर्स पुश बनाएगा आगे की दिशा

ये डील्स Department की AI Acceleration Strategy में शामिल हैं, जो 2026 की शुरुआत में प्रकाशित हुई थी और जिसमें वॉरफाइटिंग, इंटेलिजेंस और एंटरप्राइज फंक्शंस के लिए मॉड्यूलर ओपन-सोर्स आर्किटेक्चर की मांग की गई है।

अधिकारियों ने कहा कि यह रणनीति घरेलू वेंडर्स, ट्रांसपेरेंट ओपन-वेट विकल्पों और तेज प्रोटोटाइपिंग को क्लोज़्ड-मॉडल डिपेंडेंस पर तरजीह देती है।

अब देखने वाली बात होगी कि सबसे पहले कौन से मॉडल IL6 डिप्लॉयमेंट के लिए पास होते हैं और OpenAI की जारी गार्डरेल्स, क्लासिफाइड वर्कफ़्लो के स्केल होने के बाद भी कायम रहती हैं या नहीं।


BeInCrypto से नवीनतम क्रिप्टोक्यूरेंसी बाजार विश्लेषण पढ़ने के लिए, यहाँ क्लिक करें

अस्वीकरण

हमारी वेबसाइट पर सभी जानकारी अच्छे इरादे से और केवल सामान्य सूचना के उद्देश्य से प्रकाशित की जाती है, ताकि पाठक जागरूक रह सकें। हमारी वेबसाइट पर दी गई जानकारी के आधार पर पाठक द्वारा की गई प्रत्येक कार्रवाई पूरी तरह से उनके अपने जोखिम पर होती है। कृपया हमारी नियम और शर्तें, गोपनीयता नीति और अस्वीकरण पढ़ें।