Edited By ,Updated: 16 Mar, 2026 03:30 AM

कृत्रिम बुद्धिमत्ता (आॢटफिशियल इंटैलीजैंस/ए.आई.) ने जीवन के कई क्षेत्रों में काम को काफी आसान बना दिया है। मैडिकल, लीगल और एजुकेशन जैसे सैक्टर्स में डाटा संग्रहण और त्वरित गणना की सुविधा से कई अच्छे कार्य हो रहे हैं लेकिन जहां ए.आई. ने अभी तक मात्र...
कृत्रिम बुद्धिमत्ता (आर्टिफिशियल इंटैलीजैंस/ए.आई.) ने जीवन के कई क्षेत्रों में काम को काफी आसान बना दिया है। मैडिकल, लीगल और एजुकेशन जैसे सैक्टर्स में डाटा संग्रहण और त्वरित गणना की सुविधा से कई अच्छे कार्य हो रहे हैं लेकिन जहां ए.आई. ने अभी तक मात्र शुरुआती स्तर की नौकरियों पर ही खतरा पैदा किया है, माना जाता है कि धीरे-धीरे शीर्ष स्तरों के पदों को भी अपने अंदर खींच लेगी। इसी बीच ईरान युद्ध के दौरान अमरीका द्वारा किए गए ए.आई. के इस्तेमाल और इस निशाने में हुई चूक के कारण हुई स्कूली बच्चियों की मौत ने दुनिया में नई बहस छेड़ दी है।
दरअसल अग्रणी ए.आई. कंपनी एंथ्रोपिक ने इस साल जनवरी ही में पेंटागन के उस अनुबंध पर हस्ताक्षर करने से इंकार कर दिया, जिसके तहत अमरीकी सेना को ‘सभी वैध उद्देश्यों’ के लिए उसकी तकनीक तक ‘असीमित पहुंच’ मिल जाती। अनुबंध पर हस्ताक्षर करने के लिए, एंथ्रोपिक के सी.ई.ओ. डारियो अमोदेई ने 2 स्पष्ट शर्तें रखीं-अमरीकियों की बड़े पैमाने पर जासूसी नहीं की जाएगी और मानवीय निगरानी के बिना पूरी तरह से स्वायत्त हथियारों का इस्तेमाल युद्ध में नहीं किया जाएगा! इस निर्णय से एंथ्रोपिक को भारी नुकसान हुआ, परन्तु प्रतिद्वंद्वी कंपनी ने तुरंत पेंटागन के साथ मानव नियंत्रण के बिना पूर्ण ए.आई. नियंत्रण के लिए समझौता कर लिया। इस समझौते के बाद अमरीका और इसराईल ने ईरान के खिलाफ व्यापक सैन्य अभियान शुरू कर दिया। युद्ध के पहले ही दिन 28 फरवरी को ईरान के सर्वोच्च नेता अली खामेनेई और उनके 10 टॉप कमांडरों की हत्या उनके परिसर में कर दी गई, जिसे दोनों देशों ने ए.आई. पर्शियन हमले की एक बड़ी जीत माना। परन्तु उसी दिन, 28 फरवरी को, एक और घातक हमला मीनाब में स्थित शजराह तैयबा गल्र्स स्कूल पर भी किया गया। 2 मिसाइलों ने 45 सैकेंड में स्कूल को नष्ट कर दिया था। मीनाब में जो हुआ, वह ए.आई. के अंधाधुंध उपयोग का सबसे भयावह उदाहरण है।
‘शजराह तैयबा’ गल्र्स प्राइमरी स्कूल, जिसमें 165 से अधिक मासूम बच्चियां मौत से लड़ती, चीखती-चिल्लाती रहीं, तकनीकी भाषा में इसे ‘सटीक हमला’ कहा गया। जबकि ट्रम्प यह दावा कर रहे हैं कि लड़कियों के स्कूल पर ईरान ने टोमहॉक मिसाइल से हमला किया था, जबकि सभी जानते हैं कि ईरान के पास यह मिसाइल नहीं है, यहां तक कि इसराईल के पास भी नहीं है, इसलिए उनके द्वारा सोशल मीडिया पर फैलाए गए झूठ से सच को छिपाने का काम किया जा रहा है। दरअसल 10 साल पहले इस क्षेत्र पर इस्लामिक रिवोल्यूशनरी गार्ड कोर (आई.आर.जी.सी.) ईरानी सशस्त्र बलों का एक सैन्य परिसर था। डाटाबेस अपडेट न होने के कारण ए.आई. को यह मालूम नहीं पड़ा कि अब उसी स्थान पर बाईं ओर एक अस्पताल और दाईं तरफ एक अलग प्रवेश द्वार वाला स्कूल मौजूद है।
ए.आई. एल्गोरिद्म यह भी समझने में नाकाम रहा कि 7 से 12 साल की बच्चियां ‘दुश्मन’ नहीं होतीं। एक मशीन के लिए वे केवल ‘कोलेटरल डैमेज’ थीं। यह घटना साबित करती है कि जब हम युद्ध का पूर्ण नियंत्रण ए.आई. को देते हैं, तो हम युद्ध के मैदान से ‘दया’ और ‘विवेक’ को पूरी तरह से खत्म कर देते हैं। अत्याधुनिक ए.आई. मॉडल बहुत ही जल्द एक बड़े डाटा से तुरंत सार निकाल सकते हैं और स्वत: ऐसे पैटर्न तैयार कर सकते हैं, जिनके आधार पर संदिग्ध लोगों और गतिविधियों के संकेत खोजे जा सकें, भले ही उनके बीच संबंध बहुत कमजोर हो। ए.आई. आधारित व्यापक निगरानी हमारी मौलिक स्वतंत्रताओं के लिए गंभीर और नए प्रकार के खतरे पैदा कर सकती है। ऐसी प्रणालियां सोशल मीडिया अकाऊंट्स का विश्लेषण कर सकती हैं और इन्हें कैमरों तथा चेहरे की पहचान (फेशियल रिकॉग्निशन) तकनीक के साथ जोड़कर लोगों को वास्तविक समय में ट्रैक कर सकती हैं।
दरअसल, एक नियंत्रणवादी सरकार न केवल चैट बोर्ड की मदद से किसी व्यक्ति या संगठन के बारे में झूठ फैलाकर उसे बदनाम कर सकती है या गिरफ्तार कर सकती है, बल्कि वह कानूनी रूप से चुनी गई सरकार को भी बहुत जल्दी पुलिस राज्य में बदल सकती है। ऐसे में लोग अपने अधिकारों के लिए कैसे खड़े होंगे, कैसे लड़ेंगे या न्याय कैसे प्राप्त करेंगे? बहुत जल्द कृत्रिम बुद्धिमत्ता (ए.आई.) अपना नया उन्नत संस्करण अपने आप विकसित करने में सक्षम हो जाएगी। ऐसे में मनुष्य को क्या नए नियंत्रण और संतुलन के लिए नए कानून विकसित नहीं करने चाहिएं? किंग्स कॉलेज लंदन की रिसर्च ने पहले ही चेतावनी दे दी है कि उन्नत ए.आई. मॉडल्स युद्ध की स्थिति में 95 प्रतिशत बार परमाणु विकल्प या अत्यधिक आक्रामकता को चुनते हैं। मशीनों के लिए ‘जीत’ ही एकमात्र लक्ष्य है, चाहे उसकी कीमत पूरी दुनिया का विनाश ही क्यों न हो। अगर हम आज ए.आई. को रक्षा क्षेत्र और समाज में खुली छूट देते हैं, तो हम एक ऐसे भविष्य की ओर बढ़ रहे हैं, जहां युद्ध का फैसला जनरल नहीं, बल्कि एक कोडिंग प्रोग्राम करेगा। लोगों की सुरक्षा ए.आई. डाटा का विश्लेषण करेगा! लेकिन ‘ट्रिगर’ पर उंगली और समाज का नियंत्रण हमेशा एक इंसान का ही होना चाहिए।