Back

विटालिक ब्यूटेरिन ने चेतावनी दी: सुपरइंटेलिजेंट AI आपकी सोच से पहले आ सकता है

sameAuthor avatar

के द्वारा लिखा और edit किया गया
Nandita Derashri

06 जनवरी 2025 10:09 UTC
विश्वसनीय
  • Ethereum के को-फाउंडर ने सुपरइंटेलिजेंट AI खतरों को रोकने के लिए डिफेंसिव एक्सेलेरेशन की आवश्यकता पर जोर दिया।
  • Buterin ने AI सिस्टम्स को मानव निर्णय-निर्माण से जोड़ने की वकालत की ताकि दुरुपयोग के जोखिमों को कम किया जा सके, खासकर सैन्य बलों द्वारा।
  • वह खतरनाक प्रगति को रोकने के लिए देयता नियम, "सॉफ्ट पॉज़" बटन, और AI हार्डवेयर नियंत्रण का सुझाव देते हैं।

Ethereum के सह-संस्थापक Vitalik Buterin ने सुपरइंटेलिजेंट AI से जुड़े खतरों और एक मजबूत रक्षा तंत्र की आवश्यकता के बारे में चेतावनी दी है।

Buterin की टिप्पणियाँ ऐसे समय में आई हैं जब कृत्रिम बुद्धिमत्ता के तेजी से विकास के साथ, AI सुरक्षा के बारे में चिंताएँ काफी बढ़ गई हैं।

Buterin की AI रेग्युलेशन योजना: जिम्मेदारी, पॉज़ बटन, और इंटरनेशनल कंट्रोल

5 जनवरी को एक ब्लॉग पोस्ट में, Vitalik Buterin ने ‘d/acc या डिफेंसिव एक्सेलेरेशन’ के पीछे अपने विचार को स्पष्ट किया, जहाँ तकनीक को नुकसान पहुँचाने के बजाय रक्षा के लिए विकसित किया जाना चाहिए। हालांकि, यह पहली बार नहीं है जब Buterin ने कृत्रिम बुद्धिमत्ता से जुड़े खतरों के बारे में खुलकर बात की है।

“AI के गलत होने का एक तरीका यह है कि यह दुनिया को (लगभग) सबसे बुरे तरीके से खराब कर सकता है: यह सचमुच मानव विलुप्ति का कारण बन सकता है,” Buterin ने 2023 में कहा

Buterin ने अब 2023 से अपनी थ्योरीज़ पर आगे बढ़ते हुए कहा है। Buterin के अनुसार, सुपरइंटेलिजेंस का अस्तित्व में आना संभावित रूप से कुछ ही वर्षों की दूरी पर है।

“ऐसा लगता है कि हमारे पास AGI तक तीन साल की समयसीमा है और सुपरइंटेलिजेंस तक और तीन साल। और इसलिए, अगर हम नहीं चाहते कि दुनिया नष्ट हो जाए या किसी अपरिवर्तनीय जाल में फंस जाए, तो हमें केवल अच्छे को तेज नहीं करना है, बल्कि बुरे को भी धीमा करना है,” Buterin ने लिखा।

AI से संबंधित खतरों को कम करने के लिए, Buterin ने डिसेंट्रलाइज्ड AI सिस्टम्स के निर्माण की वकालत की है जो मानव निर्णय लेने के साथ घनिष्ठ रूप से जुड़े रहते हैं। यह सुनिश्चित करके कि AI मानवों के हाथों में एक उपकरण बना रहे, विनाशकारी परिणामों के खतरे को कम किया जा सकता है।

Buterin ने फिर समझाया कि कैसे सैन्य ‘AI डूम’ परिदृश्य के लिए जिम्मेदार अभिनेता हो सकते हैं। ग्लोबली AI का सैन्य उपयोग बढ़ रहा है, जैसा कि यूक्रेन और गाजा में देखा गया था। Buterin यह भी मानते हैं कि जो भी AI रेग्युलेशन प्रभाव में आएगा, वह सबसे अधिक संभावना सैन्य को छूट देगा, जो उन्हें एक महत्वपूर्ण खतरा बनाता है।

Ethereum के सह-संस्थापक ने आगे AI उपयोग को रेग्युलेट करने की अपनी योजनाओं को स्पष्ट किया। उन्होंने कहा कि AI से जुड़े खतरों से बचने का पहला कदम उपयोगकर्ताओं को जिम्मेदार बनाना है।

“हालांकि एक मॉडल कैसे विकसित होता है और अंत में इसका उपयोग कैसे होता है, इसके बीच का संबंध अक्सर अस्पष्ट होता है, उपयोगकर्ता तय करता है कि AI का उपयोग कैसे किया जाए,” Buterin ने उपयोगकर्ताओं द्वारा निभाई गई भूमिका को उजागर करते हुए समझाया।

यदि दायित्व नियम काम नहीं करते हैं, तो अगला कदम “सॉफ्ट पॉज़” बटन लागू करना होगा जो AI रेग्युलेशन को संभावित खतरनाक प्रगति की गति को धीमा करने की अनुमति देगा।

“लक्ष्य यह होगा कि एक महत्वपूर्ण अवधि में 1-2 वर्षों के लिए विश्वव्यापी उपलब्ध कंप्यूट को ~90-99% तक कम करने की क्षमता हो, ताकि मानवता को तैयारी के लिए अधिक समय मिल सके।”

उन्होंने कहा कि पॉज़ को AI स्थान सत्यापन और पंजीकरण द्वारा लागू किया जा सकता है।

एक और तरीका AI हार्डवेयर को नियंत्रित करना होगा। Buterin ने समझाया कि AI हार्डवेयर को नियंत्रित करने के लिए एक चिप से लैस किया जा सकता है।

यह चिप AI सिस्टम्स को तभी कार्य करने की अनुमति देगा जब उन्हें अंतरराष्ट्रीय निकायों से साप्ताहिक तीन हस्ताक्षर मिलेंगे। उन्होंने आगे कहा कि कम से कम एक निकाय गैर-सैन्य संबद्ध होना चाहिए।

फिर भी, Buterin ने स्वीकार किया कि उनकी रणनीतियों में खामियां हैं और ये केवल ‘अस्थायी रोकथाम’ हैं।

अस्वीकरण

हमारी वेबसाइट पर सभी जानकारी अच्छे इरादे से और केवल सामान्य सूचना के उद्देश्य से प्रकाशित की जाती है, ताकि पाठक जागरूक रह सकें। यह Trust Project दिशानिर्देशों के अनुरूप है। हमारी वेबसाइट पर दी गई जानकारी के आधार पर पाठक द्वारा की गई प्रत्येक कार्रवाई पूरी तरह से उनके अपने जोखिम पर होती है। कृपया हमारी नियम और शर्तें, गोपनीयता नीति और अस्वीकरण पढ़ें।