Ethereum के सह-संस्थापक Vitalik Buterin ने सुपरइंटेलिजेंट AI से जुड़े खतरों और एक मजबूत रक्षा तंत्र की आवश्यकता के बारे में चेतावनी दी है।
Buterin की टिप्पणियाँ ऐसे समय में आई हैं जब कृत्रिम बुद्धिमत्ता के तेजी से विकास के साथ, AI सुरक्षा के बारे में चिंताएँ काफी बढ़ गई हैं।
Buterin की AI रेग्युलेशन योजना: जिम्मेदारी, पॉज़ बटन, और इंटरनेशनल कंट्रोल
5 जनवरी को एक ब्लॉग पोस्ट में, Vitalik Buterin ने ‘d/acc या डिफेंसिव एक्सेलेरेशन’ के पीछे अपने विचार को स्पष्ट किया, जहाँ तकनीक को नुकसान पहुँचाने के बजाय रक्षा के लिए विकसित किया जाना चाहिए। हालांकि, यह पहली बार नहीं है जब Buterin ने कृत्रिम बुद्धिमत्ता से जुड़े खतरों के बारे में खुलकर बात की है।
“AI के गलत होने का एक तरीका यह है कि यह दुनिया को (लगभग) सबसे बुरे तरीके से खराब कर सकता है: यह सचमुच मानव विलुप्ति का कारण बन सकता है,” Buterin ने 2023 में कहा।
Buterin ने अब 2023 से अपनी थ्योरीज़ पर आगे बढ़ते हुए कहा है। Buterin के अनुसार, सुपरइंटेलिजेंस का अस्तित्व में आना संभावित रूप से कुछ ही वर्षों की दूरी पर है।
“ऐसा लगता है कि हमारे पास AGI तक तीन साल की समयसीमा है और सुपरइंटेलिजेंस तक और तीन साल। और इसलिए, अगर हम नहीं चाहते कि दुनिया नष्ट हो जाए या किसी अपरिवर्तनीय जाल में फंस जाए, तो हमें केवल अच्छे को तेज नहीं करना है, बल्कि बुरे को भी धीमा करना है,” Buterin ने लिखा।
AI से संबंधित खतरों को कम करने के लिए, Buterin ने डिसेंट्रलाइज्ड AI सिस्टम्स के निर्माण की वकालत की है जो मानव निर्णय लेने के साथ घनिष्ठ रूप से जुड़े रहते हैं। यह सुनिश्चित करके कि AI मानवों के हाथों में एक उपकरण बना रहे, विनाशकारी परिणामों के खतरे को कम किया जा सकता है।
Buterin ने फिर समझाया कि कैसे सैन्य ‘AI डूम’ परिदृश्य के लिए जिम्मेदार अभिनेता हो सकते हैं। ग्लोबली AI का सैन्य उपयोग बढ़ रहा है, जैसा कि यूक्रेन और गाजा में देखा गया था। Buterin यह भी मानते हैं कि जो भी AI रेग्युलेशन प्रभाव में आएगा, वह सबसे अधिक संभावना सैन्य को छूट देगा, जो उन्हें एक महत्वपूर्ण खतरा बनाता है।
Ethereum के सह-संस्थापक ने आगे AI उपयोग को रेग्युलेट करने की अपनी योजनाओं को स्पष्ट किया। उन्होंने कहा कि AI से जुड़े खतरों से बचने का पहला कदम उपयोगकर्ताओं को जिम्मेदार बनाना है।
“हालांकि एक मॉडल कैसे विकसित होता है और अंत में इसका उपयोग कैसे होता है, इसके बीच का संबंध अक्सर अस्पष्ट होता है, उपयोगकर्ता तय करता है कि AI का उपयोग कैसे किया जाए,” Buterin ने उपयोगकर्ताओं द्वारा निभाई गई भूमिका को उजागर करते हुए समझाया।
यदि दायित्व नियम काम नहीं करते हैं, तो अगला कदम “सॉफ्ट पॉज़” बटन लागू करना होगा जो AI रेग्युलेशन को संभावित खतरनाक प्रगति की गति को धीमा करने की अनुमति देगा।
“लक्ष्य यह होगा कि एक महत्वपूर्ण अवधि में 1-2 वर्षों के लिए विश्वव्यापी उपलब्ध कंप्यूट को ~90-99% तक कम करने की क्षमता हो, ताकि मानवता को तैयारी के लिए अधिक समय मिल सके।”
उन्होंने कहा कि पॉज़ को AI स्थान सत्यापन और पंजीकरण द्वारा लागू किया जा सकता है।
एक और तरीका AI हार्डवेयर को नियंत्रित करना होगा। Buterin ने समझाया कि AI हार्डवेयर को नियंत्रित करने के लिए एक चिप से लैस किया जा सकता है।
यह चिप AI सिस्टम्स को तभी कार्य करने की अनुमति देगा जब उन्हें अंतरराष्ट्रीय निकायों से साप्ताहिक तीन हस्ताक्षर मिलेंगे। उन्होंने आगे कहा कि कम से कम एक निकाय गैर-सैन्य संबद्ध होना चाहिए।
फिर भी, Buterin ने स्वीकार किया कि उनकी रणनीतियों में खामियां हैं और ये केवल ‘अस्थायी रोकथाम’ हैं।
अस्वीकरण
हमारी वेबसाइट पर सभी जानकारी अच्छे इरादे से और केवल सामान्य सूचना के उद्देश्य से प्रकाशित की जाती है, ताकि पाठक जागरूक रह सकें। हमारी वेबसाइट पर दी गई जानकारी के आधार पर पाठक द्वारा की गई प्रत्येक कार्रवाई पूरी तरह से उनके अपने जोखिम पर होती है।