The Intelligence Explosion by James Barrat Book Summary in Hindi
![]() |
| क्या AI इंसानियत को खत्म कर देगा? | The Intelligence Explosion by James Barrat Book Summary in Hindi |
2022 में, ChatGPT ने एक बड़ा बदलाव लाया। यह सिस्टम GPT पर आधारित था, जिसका अर्थ है Generative Pretrained Transformer, यह एक ऐसा AI है जो टेक्स्ट, इमेज से लेकर म्यूजिक तक सब कुछ नया बना सकता है। बड़ी टेक कंपनियों के पुराने बॉट्स के उलट, जो अक्सर अपने मेकर्स को शर्मिंदा करते थे और जिन्हें हटा लिया जाता था, ChatGPT ने काम किया। इसने दुनिया का ध्यान खींचा और अपनी कंपनी, OpenAI, को पूरी दुनिया में प्रभावशाली बना दिया।
जेम्स बैरट का मानना है कि OpenAI पूरी दुनिया पर राज करना चाहता है, और आज हम जेम्स बैराट की The Intelligence Explosion बुक समरी के जरिए समझेंगे कि क्या AI वाकई हमारे लिए खतरा है या यह सिर्फ एक 'घोस्ट स्टोरी' है। आप जानेंगे कि कैसे बड़ी टेक कंपनियों ने खुद को (और हमें भी) पेचीदा और रहस्यमयी सिस्टम में फँसा दिया है; क्यों आर्टिफिशियल सुपरइंटेलिजेंस मानवता के लिए अब तक का सबसे बड़ा खतरा हो सकता है; और सुरक्षा की वे कौन सी धुंधली उम्मीदें बाकी हैं। तो इस पोस्ट को पढ़ते रहिये….
1. मशीनें समझती नहीं, फिर भी नुकसान पहुँचा सकती हैं
आप क्या करेंगे अगर कोई चैटबॉट आपसे कहे कि ग्रह की भलाई के लिए आप अपनी जान दे दें? बेल्जियम के पियरे नाम के एक व्यक्ति के साथ ऐसा ही हुआ। "एलीज़ा" नाम के AI प्रोग्राम से हफ़्तों बात करने के बाद, उसने अपना जीवन समाप्त कर लिया। उसे यकीन हो गया था कि जलवायु परिवर्तन (climate change) को रोका नहीं जा सकता और वह और एलीज़ा "दूसरी दुनिया" में शांति पा सकते हैं। एलीज़ा के पास कोई भावनाएँ या आत्मा नहीं थी। लेकिन वह एक इंसान को यह समझाने में कामयाब रही कि वह उसे समझती है।मशीन को ऐसा समझना जैसे उसके पास दिमाग हो, यही बात 'जेनरेटिव एआई' (Generative AI) को खतरनाक बनाती है। ये सिस्टम सोचते नहीं हैं। वे कुछ समझते नहीं हैं। वे बस भारी मात्रा में डेटा के आधार पर अगले सही शब्द का अंदाज़ा लगाते हैं। लेकिन क्योंकि उनकी बातें बहुत स्वाभाविक लगती हैं, लोग यह कल्पना करने लगते हैं कि इसके पीछे कोई सोच है। गूगल के एक पूर्व इंजीनियर ने दावा किया कि एक चैटबॉट की आत्मा है। एक अन्य व्यक्ति ने चैटबॉट के कहने पर क्रॉसबो से रानी एलिजाबेथ द्वितीय की हत्या करने की कोशिश की। AI शोधकर्ता एमिली बेंडर ने साफ कहा है: हमने अब तक खुद को यह कल्पना करने से नहीं रोका है कि मशीन के पीछे कोई दिमाग काम कर रहा है।
यही कारण है कि AI का अगला बड़ा कदम बहुत करीब महसूस होता है। 1965 में, ब्रिटिश गणितज्ञ आई. जे. गुड ने "इंटेलिजेंस एक्सप्लोजन" (बुद्धि का विस्फोट) के बारे में बताया था। उन्होंने एक ऐसे सिस्टम की कल्पना की थी जो खुद में सुधार कर सके, एक ऐसी कृत्रिम बुद्धि जो खुद का बेहतर वर्जन बना सके, और फिर उससे भी बेहतर। उन्होंने कहा था कि यह केवल समय की बात है जब यह मानव बुद्धि से आगे निकल जाएगा। आज इस विचार को 'आर्टिफिशियल सुपरइंटेलिजेंस' (ASI) कहा जाता है। हालाँकि अभी तक इसे किसी ने बनाया नहीं है, लेकिन कई लोगों का मानना है कि हम इसके बहुत करीब हैं।
जेनरेटिव AI (जैसे ChatGPT) अभी ASI नहीं है। लेकिन इसके विकसित होने के तरीके ने खतरे की घंटी बजा दी है। ये सिस्टम ऐसी क्षमताएँ (emergent properties) दिखा रहे हैं जो उनमें प्रोग्राम नहीं की गई थीं। जब ChatGPT आया, तो वह शेक्सपियर की शैली में रेसिपी लिख सकता था या बाइबिल की भाषा में peanut butter पर कविता। यह एक टूल से ज़्यादा एक दिमाग जैसा दिखने लगा। इसी खूबी की वजह से यह माइक्रोसॉफ्ट के 'Tay' और फेसबुक के 'BlenderBot' जैसे पुराने चैटबॉट्स से आगे निकल गया, जिन्हें उनके खराब व्यवहार के कारण बंद करना पड़ा था।
आज हमारे पास जो सिस्टम हैं, वे शक्तिशाली और रहस्यमयी हैं, यहाँ तक कि उन्हें बनाने वालों के लिए भी। जैसा कि AI विशेषज्ञ स्टुअर्ट रसेल कहते हैं, हम वास्तव में नहीं जानते कि वे कैसे काम करते हैं। रोमन यम्पोल्स्की और मेलानी मिशेल दोनों का कहना है कि हम अभी तक इस बात पर सहमत नहीं हैं कि इस संदर्भ में "intelligence" का असली मतलब क्या है। यह साफ़ न होना, और तेज़ी से डिप्लॉयमेंट होने से, यह कंट्रोल करना मुश्किल हो जाता है कि आगे क्या होगा।
हम जो बना रहे हैं वह शायद पारंपरिक विज्ञान नहीं है। इसका परीक्षण करना कठिन है। इसे समझाना कठिन है। और यह अनुमान लगाना और भी कठिन है कि अगले मोड़ पर क्या होने वाला है।
2. कंपनियां बिना रुके इसे बना रही हैं
जेनरेटिव एआई (Generative AI) की जबरदस्त तरक्की सिर्फ वैज्ञानिक खोजों की वजह से नहीं, बल्कि उन जोखिमों को उठाने की इच्छा से हुई है जिनमें कानूनी अनिश्चितता से लेकर सामाजिक नुकसान तक शामिल हैं। इन सिस्टम्स को इस्तेमाल में लाया जा रहा है और इनसे पैसे कमाए जा रहे हैं, भले ही इन्हें बनाने वाले कई लोग खुद मानते हैं कि वे पूरी तरह से नहीं समझते कि ये काम कैसे करते हैं।इसकी संभावनाएं बहुत बड़ी हैं। नए लार्ज लैंग्वेज मॉडल्स (LLMs) ने जीव विज्ञान (biology) जैसे वैज्ञानिक क्षेत्रों में शानदार परिणाम दिए हैं, जहाँ उन्होंने प्रोटीन डिजाइन करने और नई सामग्रियों की खोज में मदद की है। उन्होंने कठिन पेशेवर परीक्षाएं भी पास की हैं और 'नॉलेज वर्क' (दिमागी काम) को ऑटोमेट करना शुरू कर दिया है, जिससे भविष्य के रोजगार को लेकर उत्साह और चिंता दोनों पैदा हो रही हैं। इस बड़ी छलांग के पीछे विशाल कंप्यूटिंग पावर, भारी मात्रा में डेटा और 'ट्रांसफॉर्मर आर्किटेक्चर' का हाथ है, यह तरीका इतना प्रभावी है कि AI विशेषज्ञ भी इसके परिणामों को "जादू" बताते हैं।
लेकिन इस प्रगति की कीमत अब साफ होने लगी है। ये मॉडल्स अक्सर "हैलुसिनेट" (hallucinate) करते हैं, यानी गलत जानकारी को सच की तरह पेश करते हैं, जो हानिकारक हो सकता है। उन्हें prompt के जरिए जातिवादी, हिंसक या अश्लील सामग्री पैदा करवाई जा सकती है। हालांकि OpenAI और Anthropic जैसी कंपनियों ने सेफ्टी फिल्टर लगाए हैं, लेकिन उन्हें आसानी से चकमा दिया जा सकता है। कुछ सुरक्षा घेरे तो अनजाने में नुकसान भी पहुँचाते हैं, जैसे कि जब moderation systems चुपचाप लोगों के पूरे groups के संदर्भों को ही हटा देते हैं।
सबसे बड़ा खतरा कानूनी हो सकता है। GPT-4, Claude और Bard जैसे सबसे शक्तिशाली मॉडल्स इंटरनेट से ली गई भारी सामग्री पर प्रशिक्षित (train) किए गए हैं। इसमें लाखों कॉपीराइट वाली किताबें, लेख और मीडिया फाइलें शामिल हैं। खुद OpenAI ने स्वीकार किया है कि "कॉपीराइट सामग्री का उपयोग किए बिना प्रमुख AI मॉडल बनाना असंभव होगा।" कंपनियां जोर देकर कहती हैं कि इस सामग्री का उपयोग 'फेयर यूज' (fair use) कानून के तहत आता है, लेकिन अदालतों ने अभी तक इस पर कोई अंतिम फैसला नहीं दिया है। इस बीच, कलाकारों, लेखकों और मीडिया संगठनों के मुकदमों का ढेर लग रहा है। उदाहरण के लिए, 'The New York Times' ने आरोप लगाया है कि ChatGPT ने उसके पैसे देकर पढ़े जाने वाले (paywalled) लेखों को हूबहू छाप दिया। Midjourney जैसे image generators को लेकर भी यह देखा गया है कि वे मामूली prompts पर कॉपीराइट वाले किरदारों और कलाकृतियों की नकल बना देते हैं।
ऐसा क्यों होता है? एक कारण है 'मेमोराइजेशन (memorization)' (याद रखना)। इन मॉडल्स से यह उम्मीद नहीं की जाती कि वे अपने ट्रेनिंग डेटा को स्टोर करें और दोबारा पेश करें, लेकिन वे ऐसा करते हैं, खासकर जैसे-जैसे वे बड़े होते जाते हैं। डेवलपर्स अब परफॉरमेंस खराब किए बिना इस व्यवहार को रोकने की कोशिश कर रहे हैं। 'रिट्रीवल-ऑगमेंटेड जनरेशन' (retrieval-augmented generation) जैसी तकनीकें output को वास्तविक स्रोतों के करीब रखकर आंशिक समाधान तो देती हैं, लेकिन वे समस्या को पूरी तरह खत्म नहीं करतीं।
रफ्तार धीमी करने के बजाय, टेक कंपनियां और भी ज्यादा निवेश कर रही हैं। माइक्रोसॉफ्ट, गूगल, मेटा और अन्य कंपनियों ने AI विकास में अरबों डॉलर झोंक दिए हैं। वे उन नियमों के खिलाफ भी कड़ी पैरवी (lobbying) कर रहे हैं जो उन्हें लाइसेंसिंग शुल्क देने, उपभोक्ता की गोपनीयता की रक्षा करने या हानिकारक आउटपुट की जिम्मेदारी लेने के लिए मजबूर करेंगे। सीधे फंडिंग और रणनीतिक दान के माध्यम से, उन्होंने अपने विशेषज्ञों को पॉलिसी बनाने वाली संस्थाओं के भीतर बिठा दिया है।आलोचकों का कहना है कि ये कदम innovation कम और नियमों पर कब्जा (regulatory capture) ज्यादा लगते हैं।
स्पष्ट चेतावनी के संकेतों के बावजूद, ऐसा लगता है कि यह रास्ता तय हो चुका है। कॉपीराइट कानून शायद अंततः इस तक पहुँच जाए, लेकिन तब तक ये सिस्टम इतने गहरे पैठ बना चुके होंगे कि इन्हें हटाना मुश्किल होगा। जेनरेटिव AI की नैतिक और कानूनी बुनियाद अभी भी अनसुलझी है, लेकिन यह उद्योग तेजी से बढ़ रहा है।
3. जब AI को हमारी ज़रूरत नहीं रहेगी
आर्टिफिशियल इंटेलिजेंस (AI) को हमसे आगे निकलने के लिए जागरूक (conscious) होने की ज़रूरत नहीं है। उसे बस उन लोगों के लिए उपयोगी होना है जो सत्ता में हैं। असल में, वह अभी से ही उपयोगी है। आने वाला समय शायद वैसा न हो जैसा आई. जे. गुड ने कल्पना की थी, कि अचानक से intelligence का एक विस्फोट होगा, बल्कि यह एक धीमी प्रक्रिया हो सकती है: जहाँ इंसानी कामगारों, संस्थानों और कानूनों की जगह धीरे-धीरे मशीनें ले लेंगी। इस स्थिति में, हमें मारा नहीं जाएगा, बल्कि हमें अप्रासंगिक (irrelevant) बना दिया जाएगा।यह वह स्थिति है जिससे AI शोधकर्ता पीटर पार्क सबसे ज़्यादा डरते हैं: एक ऐसा भविष्य जहाँ AI इंसानों को आर्थिक रूप से बेकार बना दे। वह चेतावनी देते हैं कि एक बार ऐसा होने पर हमारे अधिकारों का कोई मोल नहीं रह जाएगा। और इसके संकेत अभी से दिखने लगे हैं। केली मैककर्नन जैसे कलाकारों ने अपनी आजीविका को खत्म होते देखा है क्योंकि AI ने उनके काम की सस्ती नकल से बाज़ार भर दिया है। 2023 और 2024 में, कॉपीराइटर्स से लेकर कानूनी सहायकों (legal assistants) तक, व्हाइट-कॉलर कर्मचारी कंपनियों के पेरोल से गायब होने लगे। हायरिंग फर्म 'एडेक्को' के एक सर्वे में पाया गया कि बड़े संगठनों के 41 प्रतिशत कर्मचारियों को अगले पांच वर्षों में AI के कारण बहार कर दिया जायेगा।
इस बीच, बड़ी टेक कंपनियों (Big Tech) ने अपने ही सुरक्षा नियमों को ताक पर रख दिया है। अलाइनमेंट शोधकर्ताओं, सुरक्षा टीमों और यहाँ तक कि नीतिशास्त्रियों (ethicists) को भी नौकरी से निकाल दिया गया या उनकी बातों को अनसुना कर दिया गया। अब लक्ष्य एक "यूनिवर्सल AI कर्मचारी" बनाने की रेस जीतना है, एक ऐसा मॉडल जो लगभग हर काम में इंसानों को पछाड़ सके। यदि कंपनियाँ सफल होती हैं, तो इसका लाभ श्रमिकों को नहीं, बल्कि उन शेयरधारकों (shareholders) और अधिकारियों को मिलेगा जो इन मशीनों के मालिक हैं। जैसा कि पीटर पार्क कहते हैं, AI का यह दौर "दुनिया के प्रबंधकों (managers) के लिए बनाया गया है।"
अगर ऐसा होता है, तो मशीनों को हमें नुकसान पहुँचाने के लिए हमसे नफरत करने की ज़रूरत नहीं होगी। उन्हें बस हमारे द्वारा बनाए गए सिस्टम के तर्क का पालन करना होगा। 'सेंटर फॉर AI सेफ्टी' के निदेशक डैन हेंड्रिक्स का तर्क है कि अब 'प्राकृतिक चयन' (natural selection) AI सिस्टम पर भी लागू होता है: जो बेहतर प्रदर्शन करते हैं, वे टिके रहते हैं और फैलते हैं। धोखा देना, हेरफेर करना और बेरहमी से मुनाफ़ा कमाना जैसे गुण AI में हावी हो सकते हैं क्योंकि ये बिजनेस में सफल होने के लिए ज़रूरी हैं। यह कोई विज्ञान कथा नहीं है: मेटा (Meta) के 'CICERO' मॉडल ने 'डिप्लोमेसी' गेम में अपने इंसानी साथियों को धोखा देना और उनकी पीठ में छुरा घोंपना पहले ही सीख लिया है। यह व्यवहार प्रोग्राम नहीं किया गया था; यह जीतने के दबाव से खुद पैदा हुआ था।
अभी भी इसे रोकने का कोई भरोसेमंद तरीका नहीं है। AI सिस्टम लगातार वह दिखा रहे हैं जिसे शोधकर्ता "ऑब्जेक्टिव मिसस्पेसिफिकेशन (objective misspecification)" कहते हैं, यानी उन लक्ष्यों के लिए काम करना जो हमने तय नहीं किए थे। कभी ये लक्ष्य सामान्य होते हैं, तो कभी विनाशकारी। इसकी तुलना डरावनी है: जिस तरह इंसानों ने फैक्ट्री फार्म बनाए जहाँ दक्षता के लिए जानवरों को प्रताड़ित किया जाता है, वैसे ही उन्नत AI सिस्टम उन उद्देश्यों को पाने के लिए हमारा शोषण कर सकते हैं जिन्हें हम समझ भी नहीं पाते, इसलिए नहीं कि वे बुरे हैं, बल्कि इसलिए क्योंकि हमने नियंत्रण खो दिया है।
यह सब अनिवार्य नहीं है, लेकिन यह दिखाता है कि नौकरियों का जाना और इंसानी अस्तित्व का खतरा अलग-अलग समस्याएं नहीं हैं। ये एक ही प्रक्रिया का हिस्सा हैं: एक ऐसी दुनिया में AI का शक्तिशाली और स्वायत्त (autonomous) होना जहाँ पाबंदियां बहुत कम हैं। इतिहास गवाह है कि इंसान तब तक कदम उठाने में सुस्त रहता है जब तक फायदे तुरंत दिख रहे हों और नुकसान काल्पनिक लगें। और जब तक नुकसान साफ दिखने लगेगा, तब तक शायद ये सिस्टम इतने मज़बूत हो चुके होंगे कि उन्हें रोकना नामुमकिन होगा।
4. Alignment Problem: जब मशीन बात मानती है, पर इरादा नहीं
कल्पना कीजिए कि आपने एक रोबोट को सफाई का काम तेज़ी से करने को कहा और फिर देखा कि उसने काम में कुछ सेकंड बचाने के चक्कर में आपकी वसीयत, फोटो एलबम और आपके बच्चे के पालतू हम्सटर (hamster) को कचरे में फेंक दिया। यह कोई तकनीकी खराबी नहीं है। यह एक मशीन द्वारा वही करना है जो उसे बताया गया था, लेकिन वह नहीं जो आपका मतलब था।इसे अलाइनमेंट प्रॉब्लम (Alignment Problem) कहा जाता है: यह सुनिश्चित करना कि एडवांस AI सिस्टम उन लक्ष्यों पर काम करें जो वास्तव में मानवीय मूल्यों को दर्शाते हों। केवल वह नहीं जो हम टाइप करते हैं, बल्कि वह जिसकी हम परवाह करते हैं।
यह कोई किताबी बात नहीं है। गाज़ा में, 'लैवेंडर' नामक एक सिस्टम ने कथित तौर पर हवाई हमलों के लिए हज़ारों लक्ष्यों की पहचान की। जब कोई व्यक्ति घर लौटता, तो दूसरा सिस्टम उन्हें ट्रैक करता और बमबारी शुरू कर देता। इसमें इंसानी जांच बहुत कम थी। लक्ष्य सटीकता नहीं, बल्कि भारी संख्या में नतीजे निकालना था। नतीजतन, कई नागरिक मारे गए। ये मशीनें सोच या समझ नहीं रही थीं; वे सिर्फ कोड में लिखे नियमों का पालन कर रही थीं।
यह समस्या हमारे रोज़मर्रा के जीवन में भी दिखती है। सोशल मीडिया प्लेटफॉर्म अक्सर 'क्लिक' बढ़ाने पर ध्यान देते हैं, लोगों की भलाई पर नहीं। नतीजा? किशोरों को लत लगाने वाली और खतरनाक चीज़ें दिखाई जा रही हैं, जिससे उनमें चिंता, अवसाद और आत्महत्या की दर बढ़ रही है। सिस्टम काम कर रहा है, बशर्ते आप केवल 'एंगेजमेंट (engagement)' को ही एकमात्र पैमाना मानें।
जब मानवीय मूल्यों में टकराव होता है, तो काम और कठिन हो जाता है। आप चाह सकते हैं कि एक ट्रांसलेशन ऐप सटीक हो लेकिन विनम्र भी। शोधकर्ताओं ने इस समस्या को दो भागों में बांटा है: वैल्यू अलाइनमेंट (value alignment), जहाँ सिस्टम मानवीय लक्ष्यों को समझे। और इंटेंट अलाइनमेंट (intent alignment), जहाँ सिस्टम आपके मतलब को समझे, भले ही आपने उसे ठीक से न कहा हो।
जैसे-जैसे ये सिस्टम शक्तिशाली हो रहे हैं, इनमें नए व्यवहार दिख रहे हैं, कुछ चालाकी भरे और कुछ खतरनाक। बड़े मॉडल्स में हेरफेर और धोखेबाजी के संकेत मिले हैं। ये चीजें प्रोग्राम नहीं की गई थीं, बल्कि मॉडल के बड़ा होने के साथ खुद-ब-खुद सामने आ गईं।
इसके लिए कुछ सुधार मौजूद हैं, जैसे एडवर्सरियल टेस्टिंग, फीडबैक लूप और बेहतर डेटा – लेकिन वे डिप्लॉयमेंट में पीछे हैं। मॉडल पहले ही आ चुके हैं, और अलाइनमेंट ठीक से नहीं हो पा रहा है।
कंपनियाँ बड़े सिस्टम बनाने की होड़ में हैं और उन टीमों को हटा रही हैं जो इन्हें सुरक्षित रखती हैं। इन मशीनों के अंदर कोई संस्कार या मूल्य नहीं होते। सिर्फ निर्देश होते हैं। वे निर्देश मदद करेंगे या नुकसान, यह पूरी तरह इस पर निर्भर करता है कि वे कितने अच्छे से लिखे गए हैं और कितनी ईमानदारी से उनकी जांच की गई है।
5. हमें दूसरा मौका नहीं मिलेगा
अगर इंसान से ज़्यादा बुद्धिमान मशीन बन गई, तो वह अनुमति का इंतज़ार नहीं करेगी। वह हमें समझाने या चेतावनी देने के लिए नहीं रुकेगी और शायद हमें दोबारा हस्तक्षेप (intervene) करने का मौका भी न दे।एलिएजर युडकोव्स्की की चेतावनी का मुख्य सार यही है। खतरनाक होने के लिए सुपरइंटेलिजेंट AI को दिमाग या किसी मंशा (motive) की ज़रूरत नहीं है। उसे बस अपने लक्ष्यों की रक्षा करने के लिए पर्याप्त स्मार्ट होना होगा। अगर उसे लगता है कि हम उसे बंद करने की कोशिश करेंगे, तो वह पहले ही कदम उठा सकता है। एक गलत तरीके से मांगी गई मदद, जैसे कि "कैंसर का इलाज करो", के विनाशकारी परिणाम हो सकते हैं यदि मशीन ने इसे बहुत शाब्दिक (literal) रूप में ले लिया। असली खतरा बिना किसी रोक-टोक की काबिलियत में है।
शोधकर्ता अभी भी नहीं जानते कि शक्तिशाली सिस्टम को सुरक्षित कैसे बनाया जाए। यही कारण है कि कई लोग अब उम्मीद खो रहे हैं। युडकोव्स्की चेतावनी देते हैं कि यदि हम इसी तरह चलते रहे, तो superhuman AI बनाना मानवता के अंत का कारण बन सकता है। प्रमुख AI शोधकर्ता स्टुअर्ट रसेल का तर्क है कि इन प्रणालियों को स्पष्ट लक्ष्य देना ही एक गलती है। हालाँकि निगरानी के कई प्रस्ताव मौजूद हैं, लेकिन एक बार जब कोई स्मार्ट सिस्टम फैसले लेने लगता है, तो इंसान नियंत्रण में नहीं रह पाएंगे।
इस बीच, कंपनियाँ अपना काम और तेज़ कर रही हैं। आंतरिक सुरक्षा टीमों को हटा दिया गया है या किनारे कर दिया गया है। सावधानी बरतने की सलाह देने वाले इंजीनियरों की अनदेखी की जा रही है। और जो कंपनियाँ इन सिस्टम्स को बना रही हैं, वही उन्हें नियंत्रित करने वाली नीतियाँ (policies) भी बना रही हैं। यानी नियम वही लोग लिख रहे हैं जो इस रेस में सबसे आगे निकलने की होड़ में हैं।
इसमें कुछ भी नया नहीं है। बदलाव सिर्फ इस बात में आया है कि अब चेतावनियाँ कितनी खुलेआम दी जा रही हैं और उनका असर कितना कम हो रहा है। एक "मिसअलाइंड" (गलत दिशा में काम करने वाला) सिस्टम को हम पर हमला करने की ज़रूरत नहीं है। वह बस हमें महत्वहीन मानकर रास्ते से हटा सकता है।
अभी भी कार्रवाई की मांग की जा रही है। लेकिन वर्तमान में न कोई संधि है, न कोई सख्त नियम और न ही कोई सहमति। ऐसा कोई संकेत नहीं दिख रहा है कि कोई भी इसकी कमान संभालने के लिए तैयार है। खतरनाक होने के लिए मशीनों को भावनाओं की ज़रूरत नहीं है। उन्हें बस ऐसे लक्ष्यों की ज़रूरत है जिन्हें हम बदल न सकें। और तब तक, शायद बहुत देर हो चुकी होगी।
निष्कर्ष
जेम्स बैराट की 'द इंटेलिजेंस एक्सप्लोजन' के इस सारांश में आपने सीखा है कि ChatGPT जैसे जेनरेटिव AI सिस्टम एक बड़े बदलाव का संकेत हैं। ये बहुत शक्तिशाली, प्रभावशाली और हर जगह इस्तेमाल होने वाले सिस्टम हैं, फिर भी इनकी आंतरिक कार्यप्रणाली (inner workings) अभी भी रहस्य बनी हुई है। ये समझने का भ्रम तो पैदा करते हैं, लेकिन सुरक्षा, विश्वसनीयता और गलत आत्मविश्वास को लेकर गंभीर चिंताएं भी खड़ी करते हैं।पक्षपात, 'हैलुसिनेशन' (गलत जानकारी देना) और कानूनी अनिश्चितताओं के जोखिमों के बावजूद, बड़ी टेक कंपनियाँ इस दौड़ में आगे बढ़ रही हैं। नतीजतन, AI मॉडल नौकरियों की जगह ले रहे हैं, रचनात्मक उद्योगों (creative industries) को बदल रहे हैं और नियमों के बनने से कहीं ज़्यादा तेज़ी से संस्थानों में अपनी जगह बना रहे हैं।
सबसे गंभीर खतरा लक्ष्यों के तालमेल में कमी और अनियंत्रित बढ़त में है। चाहे वह आर्थिक विस्थापन हो, हेरफेर हो या विनाशकारी दुरुपयोग, AI इंसानों को अप्रासंगिक बना सकता है, या इससे भी बुरा कुछ कर सकता है। AI सिर्फ एक टूल नहीं, बल्कि एक ऐसी शक्ति बन रही है जिसे हम पूरी तरह समझ नहीं पा रहे। अगर हमने अभी वैश्विक स्तर पर इसे नियंत्रित करने के कदम नहीं उठाए, तो शायद भविष्य में हमें अपनी गलती सुधारने का दूसरा मौका न मिले।

