क्या AI अस्तित्व के लिए खतरा है? 5 विशेषज्ञों के जवाब आए सामने

Edited By Updated: 06 Oct, 2025 04:32 PM

is ai an existential threat 5 experts offer their answers

‘‘एआई के गॉडफादर'', कंप्यूटर वैज्ञानिक और नोबेल पुरस्कार विजेता जेफ्री हिंटन ने कहा है कि अगले तीन दशकों में एआई के कारण मानव के विलुप्त होने की 10-20 प्रतिशत संभावना है।

स्नोसवेल; ऑस्ट्रेलियन कैथोलिक यूनिवर्सिटी की निउशा शफ़ियाबादी; सीएसआईआरओ की सारा विविएन बेंटले और टॉरेंस यूनिवर्सिटी की सईदाली मिरजालिली) ब्रिस्बेन (ऑस्ट्रेलिया), छह अक्टूबर (द कन्वरसेशन) सर्वव्यापी कृत्रिम बुद्धिमत्ता (एआई) उत्पादों के वर्तमान युग में कई दावों पर विचार किया जाना है, विशेष रूप से बड़े भाषा मॉडल या एलएलएम पर आधारित जनरेटिव एआई उत्पाद, जैसे कि चैटजीपीटी, कोपायलट, जेमिनी और कई अन्य। एआई दुनिया बदल देगा। एआई ‘‘अद्भुत सफलताएँ'' लाएगा। एआई को बहुत ज़्यादा प्रचारित किया जा रहा है, और यह बुलबुला फूटने वाला है। एआई जल्द ही मानवीय क्षमताओं को पार कर जाएगा, और यह ‘‘अति बुद्धिमान'' एआई हम सभी को खत्म कर देगा। अगर इस आखिरी बात ने आपको चौंका दिया है और आपको ध्यान देने पर मजबूर कर दिया है, तो आप अकेले नहीं हैं। ‘‘एआई के गॉडफादर'', कंप्यूटर वैज्ञानिक और नोबेल पुरस्कार विजेता जेफ्री हिंटन ने कहा है कि अगले तीन दशकों में एआई के कारण मानव के विलुप्त होने की 10-20 प्रतिशत संभावना है। यह एक परेशान करने वाला विचार है - लेकिन इस बात पर कोई सहमति नहीं है कि ऐसा होगा या नहीं और कैसे। इसलिए हमनपांच विशेषज्ञों से पूछा: क्या एआई अस्तित्व के लिए खतरा पैदा करता है? पाँच में से तीन ने कहा, ‘‘नहीं''। यहाँ उनके विस्तृत उत्तर दिए गए हैं। 

1. असली ख़तरा यह नहीं है कि एआई बहुत ज़्यादा स्मार्ट हो जाए। नहीं।
वर्तमान में प्रौद्योगिकी जिस स्थिति में है, उसमें वास्तविक खतरा यह नहीं है कि एआई बहुत अधिक स्मार्ट हो गया है - बल्कि खतरा यह है कि मनुष्य इन उपकरणों के निर्माण और उपयोग के बारे में गलत निर्णय ले रहे हैं। वर्तमान एआई प्रणालियाँ, प्रभावशाली होते हुए भी, मूलतः ‘‘स्टोकेस्टिक पैरट'' ही हैं। वे परिष्कृत पैटर्न-मिलान में संलग्न हैं जो पूर्वानुमान के माध्यम से बुद्धिमत्ता का अनुकरण करती हैं। और बढ़ते प्रमाण बताते हैं कि यह आधार आश्चर्यजनक रूप से कमज़ोर, अविश्वसनीय और तर्कपूर्ण विचारों के साथ असंगत है, बुद्धिमत्ता की तो बात ही छोड़ दें। जनरेटिव एआई में वर्तमान प्रौद्योगिकीय प्रगति प्रभावशाली, यहाँ तक कि परिवर्तनकारी भी है। हालाँकि, ये उपलब्धियाँ क्रमिक और अस्थिर हैं, तथा इस क्षेत्र में एआई विकास का दृष्टिकोण स्वाभाविक रूप से सीमित है। हालांकि भविष्य के प्रौद्योगिकीय प्रतिमान इस आकलन को बदल सकते हैं – और ऐसी प्रगति की भविष्यवाणी करना बेहद मुश्किल है – लेकिन एआई के सभी जोखिम अंततः मानवीय विकल्पों से ही उत्पन्न होते हैं। समृद्ध समाजों का मार्ग बेहतर मानवीय नेताओं, संस्थाओं और शासन से होकर गुजरता है। किसी काल्पनिक ‘सुपरइंटेलिजेंस' के बारे में अटकलें लगाने के बजाय जो इंसानों का सफाया कर सकती है, हमें निगरानी ढाँचों और ज़िम्मेदार विकास पर ध्यान केंद्रित करना चाहिए। अस्तित्वगत जोखिम कोड में नहीं छिपे हैं। अगर कहीं हैं, तो वे हमारे फैसलों में हैं।

2. अग्रणी एआई मॉडल तेज़ी से सामान्य-उद्देश्य क्षमताएँ प्राप्त कर रहे हैं। हाँ।
मेरा दृढ़ विश्वास है कि कृत्रिम बुद्धिमत्ता अस्तित्व के लिए एक ख़तरा है। अभी तक, आज की प्रणालियों में केवल वही है जिसे कमज़ोर या संकीर्ण एआई कहा जाता है - समर्पित कार्यों के लिए सीमित क्षमताएँ, लेकिन मानव-स्तरीय बुद्धिमत्ता नहीं, जिसे सामान्य एआई कहा जाता है। हालाँकि, अग्रणी मॉडल तेज़ी से सामान्य-उद्देश्य क्षमताएँ प्राप्त कर रहे हैं, जिससे बड़े पैमाने पर दुरुपयोग की संभावना बढ़ जाती है। एआई जितना अधिक सक्षम होता जाता है, उतना ही वह उस पर मानवीय नियंत्रण को भी कमज़ोर कर सकता है। सैकड़ों प्रमुख विशेषज्ञों, सार्वजनिक हस्तियों और शोधकर्ताओं ने चेतावनी दी है कि ‘‘एआई से विलुप्त होने के जोखिम को कम करना'' एक वैश्विक प्राथमिकता होनी चाहिए। मशीन लर्निंग शोधकर्ताओं के सर्वेक्षणों के अनुसार, इस सदी में विलुप्ति-स्तर के परिणामों की औसत संभावना लगभग 5 प्रतिशत है। यह एक छोटा प्रतिशत है, लेकिन नगण्य नहीं। साल 2023 में ब्लेचले घोषणा पर हस्ताक्षर करने वाली सरकारों ने “विनाशकारी” जोखिमों को स्वीकार किया है। एआई अनुसंधान प्रयोगशालाएं वर्तमान में ठोस खतरों की श्रेणियों पर नज़र रख रही हैं, जैसे कि बड़े पैमाने पर जैविक और साइबर हमलों के लिए एआई का दुरुपयोग। एआई द्वारा संचालित एक अस्तित्वगत आपदा अपरिहार्य नहीं है, लेकिन समझदारी यही है कि हमें ऐसी ‘‘सीमा रेखाएँ'' लागू करने की ज़रूरत है जिन्हें एआई पार न कर सके, साथ ही तैनाती से पहले कठोर परीक्षण और क्षमताओं के पैमाने के अनुसार स्वतंत्र मूल्यांकन भी ज़रूरी है। हमें अभी कार्रवाई करनी चाहिए, इससे पहले कि बहुत देर हो जाए। 

3. एआई उतना ही अच्छा है जितना कि उसे इस्तेमाल करने वाले लोग। नहीं।
अब परिचित जनरेटिव एआई चैटबॉट्स के अलावा, एआई का भविष्य व्यापक रूप से अज्ञात बना हुआ है। अन्य क्रांतिकारी तकनीकों की तरह – परमाणु ऊर्जा या प्रिंटिंग प्रेस के बारे में सोचें – एआई हमारे जीवन को बदल देगा। ऐसा पहले ही हो चुका है। आज का रोज़गार बाज़ार अपरिचित है, शिक्षण पद्धतियाँ अपरिचित हैं, और निर्णय लेने का काम - चाहे स्वास्थ्य सेवा हो या सेना - अक्सर मशीनों के हाथों में होता है। इसलिए, इस दृष्टिकोण से, शायद एआई एक अस्तित्वगत ख़तरा है। लेकिन समस्या यहीं है। हम एआई के बारे में ऐसे बात करते हैं मानो यह अंतरिक्ष से हमारे जीवन में आ गई हो; जिस तरह से ये प्रणालियाँ स्वायत्त रूप से काम कर सकती हैं, वह इस कहानी को और हवा दे रहा है। लेकिन एआई अंतरिक्ष में नहीं बनी। एआई प्रणालियों का कोड मनुष्यों द्वारा लिखा जाता है, उनके विकास का वित्तपोषण मनुष्यों द्वारा ही किया जाता है, और उनका नियमन भी मनुष्यों द्वारा ही किया जाता है। इसलिए, यदि कोई ख़तरा है, तो वह मशीन नहीं, बल्कि मानव प्रतीत होगा। एआई एक असाधारण उपकरण है जो निस्संदेह मानव जाति की मदद कर सकता है। लेकिन किसी भी अन्य उपकरण की तरह, यह उतना ही अच्छा है जितना कि इसे इस्तेमाल करने वाले लोग। जैसे-जैसे हम एआई क्रांति का सामना कर रहे हैं, आलोचनात्मक सोच में वृद्धि और सीखी हुई लाचारी में कमी अब ज़रूरी हो सकती है। 

4. सबसे स्पष्ट अस्तित्वगत मार्ग सैन्यीकरण है। हाँ।
मुझे इस बात की अधिक चिंता है कि मनुष्य सभ्यता को नष्ट करने के लिए एआई का उपयोग करेंगे, बजाय इसके कि एआई स्वायत्त रूप से नियंत्रण करके ऐसा करे। अस्तित्व का सबसे स्पष्ट मार्ग सैन्यीकरण और व्यापक निगरानी है। यह जोखिम तब और बढ़ जाता है जब हम नवाचार और विनियमन के बीच संतुलन बनाने में विफल रहते हैं और व्यवस्थाओं को बुरे लोगों के हाथों से दूर रखने के लिए पर्याप्त, वैश्विक रूप से लागू सुरक्षा-व्यवस्था नहीं बनाते। भविष्य के हथियारों में एआई को शामिल करने से मानवीय नियंत्रण कम हो जाएगा और हथियारों की होड़ शुरू हो जाएगी। अगर इसे कुप्रबंधित किया गया, तो एआई को राष्ट्रीय सुरक्षा से जोड़ने से एआई-चालित विश्व युद्ध का भी ख़तरा पैदा हो सकता है। शासन के साथ-साथ, हमें यह सुनिश्चित करना चाहिए कि एआई प्रणालियां बिना किसी पूर्वाग्रह, तथ्यों को विकृत किए या किसी एजेंडे को संतुष्ट किए बिना दुनिया के बारे में सच्चाई का सटीक प्रतिनिधित्व करें - लेकिन केवल इतना ही पर्याप्त नहीं है। सुरक्षा एआई के उद्देश्यों को मानवीय मूल्यों के साथ संरेखित करने, इन प्रणालियों पर मानवीय नियंत्रण बनाए रखने और हर कदम पर उनका कठोर परीक्षण करने पर भी निर्भर करती है। इस तरह, हम एआई प्रणालियों के साथ शांतिपूर्वक सह-अस्तित्व में रह सकते हैं।

5. जनरेटिव एआई की ‘‘बुद्धिमत्ता'' गंभीर रूप से सीमित है नहीं।
इस बात के बहुत कम प्रमाण हैं कि वैश्विक विनाश मचाने में सक्षम अति बुद्धिमान एआई निकट भविष्य में आ रहा है। मानवता के अस्तित्व के लिए मौजूदा खतरों के बारे में चिंताएँ – और प्रचार – जनरेटिव एआई, खासकर चैटजीपीटी, क्लाउड, जेमिनी और अन्य जैसे बड़े भाषा मॉडल में हुई प्रगति से उपजी हैं। ऐसा एआई पैटर्न-आधारित भविष्यवाणियाँ करता है कि कौन सा टेक्स्ट किसी उपयोगकर्ता की विशेष ज़रूरत को पूरा कर सकता है, यह उसके द्वारा टाइप किए गए प्रॉम्प्ट पर आधारित होता है। एआई की ‘‘बुद्धिमत्ता'', अपने आप में प्रभावशाली होने के बावजूद, गंभीर रूप से सीमित है। उदाहरण के लिए, बड़े भाषा मॉडल में तार्किक, तथ्यात्मक और वैचारिक समझ की विश्वसनीय क्षमता का अभाव होता है। इन महत्वपूर्ण पहलुओं में, एआई मनुष्यों की तरह समझ नहीं सकता और इसलिए कार्य नहीं कर सकता। भविष्य में एआई को इन सीमाओं से पार पाने में सक्षम बनाने वाली किसी तकनीकी सफलता की संभावना से इनकार नहीं किया जा सकता। लेकिन न ही इसकी कल्पना की जा सकती है और न ही अति-बुद्धिमान एआई के काल्पनिक खतरों पर ज़रूरत से ज़्यादा ज़ोर देने से आज एआई के वास्तविक नुकसानों, जैसे पक्षपातपूर्ण स्वचालित निर्णय, नौकरी छूटना और कॉपीराइट उल्लंघन, से हमारा ध्यान भटकने का खतरा है। यह जलवायु परिवर्तन जैसे वास्तविक अस्तित्वगत खतरों से भी ध्यान हटा सकता है। (नननन

Related Story

Trending Topics

IPL
Royal Challengers Bengaluru

190/9

20.0

Punjab Kings

184/7

20.0

Royal Challengers Bengaluru win by 6 runs

RR 9.50
img title
img title

Be on the top of everything happening around the world.

Try Premium Service.

Subscribe Now!