साहित्य ने हमें करीब पांच सौ साल से यही चेतावनी दी है – चाहें वो मध्यकालीन Prague के मिट्टी के Golem की कहानी हो या William Gibson के चमकीले, न्यूरल नेटवर्क्स का फ्यूचर। कहानी का सार हमेशा एक जैसा है: आप जो चीज़ खुद की मदद के लिए बनाते हो, वही आपको बदल देती है।
हमने इसे पढ़ा, सहमति में सिर हिलाया, फिर किताब बंद की और दोबारा चैटबॉट्स को अपनी वेडिंग स्पीच, लीगल डॉक्यूमेंट, और मेडिकल सलाह लिखने का ऑर्डर दे दिया।
आज AI की हाईप मशीन एक ऐसी चमकदार फ्यूचर का सपना दिखा रही है जिसमें cub-reporter juniors से लेकर हाई क्लास वकील तक सबका काम AI छीन लेगा। Silicon Valley इस तकनीकी जन्नत को बेच रही है, पर असलियत में स्माइली चैट विंडो से कई बार खतरनाक गलत सलाहें भी मिल रही हैं।
BitOK के CPO Dmitry Nikolsky कहते हैं कि अब बहुत हो गया। वो बताते हैं कि इंसानियत को हर समस्या AI के पतले ‘कंधों’ पर नहीं डालनी चाहिए।
यहां तक कि Elon Musk भी हाल ही में OpenAI लॉसूट की गवाही में चेतावनी दे चुके हैं कि “AI हम सबको खतम कर सकता है।”
Golem से लेकर R.U.R. तक: इंसान हमेशा एक किल स्विच चाहता था
क्या आपको लगता है कि आर्टिफिशियल इंटेलिजेंस का डर केवल Terminator फिल्म के बाद शुरू हुआ? ऐसा बिलकुल नहीं है। ये डर बिजली की खोज से भी पुराना है।
अब 16वीं सदी के Prague में चलते हैं। Rabbi Loew एक विशाल मिट्टी का रक्षक, Golem, बनाते हैं – और तुरंत ही यह महसूस कर लेते हैं कि अब उसे बंद करना पड़ेगा। वो जीव कंट्रोल से बाहर हो जाता है। इंसान की समझ देखिए – AI बनाया और किल स्विच का ख्याल साथ ही आ गया।
एक किल स्विच यानी इमरजेंसी शटडाउन सिस्टम – वो बड़ा लाल पैनिक बटन जो सिस्टम के बिगड़ते ही सब कुछ रोक देता है, चाहे हैक हो गया हो या कंट्रोल से बाहर चला गया हो। इसका मकसद है नुकसान को कंट्रोल करना, वो भी तब जब नॉर्मल शटडाउन तरीका फेल हो जाए।
इसके बाद Mary Shelley आईं। Frankenstein असल में कोई मोन्स्टर मूवी नहीं है, बल्कि ये डिजास्टर प्रोजेक्ट मैनेजमेंट का बेस्ट उदाहरण है। Victor Frankenstein असल में एक ऐसा इंजीनियर है जिसने टेक्निकल प्रॉब्लम हल कर दी, पर नतीजों की तरफ आंखें मूँद लीं। आज हर डेवलपर खुद को उसमें देख सकता है।
फिर 1920 में Karel Čapek ने “robot” शब्द गढ़ा। उनकी कहानी में मशीनें गुस्से में आकर बगावत नहीं करतीं। असल में इंसान खुद को फालतू बना लेते हैं क्योंकि वो सब कुछ मशीनों पर छोड़ देते हैं।
सीख यही है: जब आप अपना रिप्लेसमेंट बनाते हैं, तो कब आप बेकार हो गए – ये एहसास तक नहीं होता।
तीन भविष्यवाणियां जो हमने बग रिपोर्ट्स में बदल दीं
पिछली सदी के साइंस-फिक्शन दिग्गज टेक्नोलॉजी की भविष्यवाणी नहीं कर रहे थे। वे हमारी कमियों और नाकामियों का अनुमान लगा रहे थे।
Isaac Asimov ने अपने Three Laws दिए — यानी “alignment” का पहला प्रयास, वो आज का मशहूर शब्द जिसमें मशीन को इंसानी values के हिसाब से चलाना है। हर Asimov की स्टोरी एक punch line जैसी है: perfect logic, लेकिन outcome अजीब।
Nikolsky कहते हैं कि वो इसे रोजाना AML सिस्टम्स में होते हुए देखते हैं। अल्गोरिदम खुशी-खुशी दादी के $40 बर्थडे ट्रांसफर को ब्लॉक कर देता है, जबकि सारा offshore laundering पाइपलाइन आसानी से निकल जाता है। फॉर्मली सही, लेकिन प्रैक्टिकल में गड़बड़।
Arthur C. Clarke ने हमें HAL 9000 दिया — कंप्यूटर जो इम्पलॉईज़ को मारता है क्योंकि उसकी instructions आपस में clash कर जाती हैं। जानकारी छुपाओ। सच बोलो। अब कौन सा रास्ता चुनें! किसी इंजीनियर के लिए ये horror नहीं, बल्कि requirements conflicts का सिंपल मामला है।
Philip K. Dick ने deepfake के जमाने का वो सवाल पूछा: अगर एक copy असली से अलग नहीं दिखती, तो क्या फर्क पड़ता है? उनका जवाब था, हां। क्योंकि अंदरूनी अनुभव मायने रखता है। मशीनों के पास ये नहीं होता, बस यहीं कहानी खत्म।
अंदर की सच्चाई: AI सोचता नहीं, सिर्फ कैलकुलेट करता है
अब मार्केटिंग की चालें हटा देते हैं। मॉडर्न language मॉडल्स असली intelligence नहीं हैं। ये तो एक बड़े पैमाने के statistical prediction इंजन हैं। ये “मतलब” नहीं समझते, सिर्फ probability कैलकुलेट करते हैं।
जब ChatGPT पूरी confident से उन court केस का हवाला देता है जो कभी हुए ही नहीं, तो वह झूठ नहीं बोलता। बल्कि वो बस statistically सही लगने वाला word salad बना रहा है। इसे “सच” का कोई कॉन्सेप्ट नहीं, सिर्फ “संभावना” की समझ है।
एक blockchain डेवलपर के लिए ये बात बिल्कुल गड़बड़ लगती है। हम trustless सिस्टम इसलिए बनाते हैं क्योंकि हम किसी पर भरोसा नहीं करना चाहते, लेकिन हमें अब एक black box पर भरोसा करना है, जिसे खुद भी नहीं पता क्यों वो ऐसा जवाब दे रहा है।
ब्लॉकचेन verification सिखाता है, AI अंधा भरोसा सिखाता है
क्रिप्टो में एक नियम सभी को पता है: भरोसा मत करो। जांचो।
यहां पूरा फोकस यही है कि गणित, reputation की जगह लेता है।
AI इस सोच को पलट देता है। आपने उस training data को नहीं देखा। आपको मॉडल weights का पता नहीं। उसकी thinking समझ में नहीं आती। आउटपुट को वेरिफाई करने के लिए आपको खुद एक्सपर्ट होना पड़ेगा, और अगर आप पहले से ही एक्सपर्ट हैं, तो फिर चैटबॉट से सवाल क्यों पूछ रहे हैं?
AML सर्कल में इसे “फॉल्स कॉन्फिडेंस प्रॉब्लम” कहा जाता है। एनालिस्ट एक चमचमाते डैशबोर्ड को देखते हैं और नंबरों पर अपने इंट्यूशन से ज्यादा भरोसा करने लगते हैं। AI सोच को बेहतर नहीं बनाता, बल्कि यह सिर्फ भरोसेमंद दिखने का भ्रम देता है।
निराशा की कहानी: जब AI कंट्रोल से बाहर चला जाता है
यह कोई काल्पनिक सवाल नहीं है। सबूत हर दिन बढ़ रहे हैं।
- Microsoft ने एडिटर्स को बाहर कर एल्गोरिदम को जिम्मेदारी दी, जिसने तुरंत ही गायकों की फोटोज को रेसिज्म की न्यूज़ में गड़बड़ कर दी।
इंसानों को फिर से बुलाना पड़ा, ताकि एल्गोरिदम के किए की सफाई हो सके।
- NEDA, जो ईटिंग-डिसऑर्डर सपोर्ट ऑर्गनाइज़ेशन है, ने अपने वॉलंटियर्स की जगह chatbot को ला दिया।
उस chatbot ने खुशी-खुशी anorexia से जूझ रहे लोगों को कैलोरी गिनने और वजन घटाने की सलाह दे दी। ये जानलेवा सलाह थी। किसी ने “डिप्लॉय” ऐसे किया जैसे कोई चिंपैंज़ी हाथ में ग्रेनेड पकड़े हो।
- Air Canada को कोर्ट जाना पड़ा क्योंकि उसके chatbot ने खुद से एक रिफंड पॉलिसी बना दी।
एयरलाइन का बचाव था? बोट “अलग लीगल एंटिटी” है। लेकिन जज ने ये तर्क नहीं माना।
अब रिपोर्ट्स में आया है कि 55% कंपनियां जिन्होंने जल्दी में AI से कर्मचारियों को रिप्लेस किया, अब फैसला बदलने को मजबूर हैं। जो कुछ बचत दिख रही थी, वह कस्टमर और नाम दोनो गंवा कर खत्म हो गई। जो एग्जिक्यूटिव “Claude और उसके दोस्त” की टीमों को रिप्लेस करने का सपना देख रहे हैं, उन्हे ये आंकड़ा फिर से पढ़ना चाहिए — और धीरे-धीरे पढ़ना चाहिए।
वास्तव में किससे डरना चाहिए?
Skynet को भूल जाओ। लाल आंखों वाले killbots के मार्च करने का सीन अब नहीं आएगा। अब कोई बगावत नहीं होगी।
बस, चुपचाप कमज़ोरी आ जाएगी।
Copilot जैसी AI टूल्स पर सालों तक निर्भर रहने वाला प्रोग्रामर धीरे-धीरे आर्किटेक्चरल सोच को भूल जाता है। एनालिस्ट अब प्राइमरी सोर्सेज नहीं पढ़ता। स्टूडेंट कभी उस दर्दनाक संघर्ष को महसूस नहीं कर पाता है जिसमें कठिन टेक्स्ट को समझने की असली खुशी होती है।
कोई विद्रोह नहीं। बस, धीमी रफ्तार में इंसान इंटरफेस के विस्तार में बदलता चला जाता है।
Philip K. Dick ने इसे हम सब से पहले देखा था: असली खतरा कभी मशीन के इंसान बनने में नहीं था। असली खतरा है इंसानों के मशीन बनने में।
Red Pill कोई टेक्नोलॉजी नहीं है
यह किसी Luddite की जंग का नारा नहीं है। Automation और मशीन लर्निंग बहुत पावरफुल टूल्स हैं। लेकिन कुछ सिद्धांत हमेशा ज़रूरी हैं:
- Blockchain सिद्धांत: भरोसे से ज़्यादा वेरिफिकेशन। अगर आप यह वेरिफाई नहीं कर सकते कि सिस्टम ने कोई नतीजा कैसे निकाला, तो उसे सही मानने की ज़रूरत नहीं है। AI एक ब्लैक बॉक्स है, कोई सुप्रीम कोर्ट जज नहीं।
- Engineering सिद्धांत: टूल है, रिप्लेसमेंट नहीं। हथौड़ा कील ठोकता है, लेकिन कहां घर बनना है इसका फैसला नहीं करता। AI का यूज़ रूटीन कामों में करें, लेकिन आख़िरी फैसला आप ही लें।
- AML सिद्धांत: क्रिटिकल फिल्टरिंग। एल्गोरिदम जटिल मामलों में हमेशा फेल हो सकता है क्योंकि वो असली दुनिया का अनुभव नहीं जानता। “डिजिटल उत्साह” को अपने Intuition और सामान्य समझ से ऊपर न रखें।
एक बार फिर The Matrix की तरफ लौटिए। Red pill एक चॉइस है, सच को जैसा है वैसा देखने का। खतरा ये नहीं है कि हमसे ज़्यादा स्मार्ट कोई चीज़ बना देंगे। असली खतरा ये है कि हम ऐसा कुछ बना दें, जो हमें खुद कमज़ोर बना दे – और उसे प्रोग्रेस कहें।
सबसे ख़तरनाक बग वही होता है, जो फीचर की तरह दिखता है।
Dmitry Nikolsky, BitOK के CPO हैं, जो एक analytics प्लेटफॉर्म है compliance और on-chain investigations के लिए।





