ईरान में स्कूली बच्चियों की मौत से युद्ध में ए.आई. के इस्तेमाल पर छिड़ी वैश्विक बहस

Edited By Updated: 16 Mar, 2026 03:30 AM

deaths of schoolgirls in iran spark global debate on the use of ai in warfare

कृत्रिम बुद्धिमत्ता (आॢटफिशियल इंटैलीजैंस/ए.आई.) ने जीवन के कई क्षेत्रों में काम को काफी आसान बना दिया है। मैडिकल, लीगल और एजुकेशन जैसे सैक्टर्स में डाटा संग्रहण और त्वरित गणना की सुविधा से कई अच्छे कार्य हो रहे हैं लेकिन जहां ए.आई. ने अभी तक मात्र...

कृत्रिम बुद्धिमत्ता (आर्टिफिशियल इंटैलीजैंस/ए.आई.) ने जीवन के कई क्षेत्रों में काम को काफी आसान बना दिया है। मैडिकल, लीगल और एजुकेशन जैसे सैक्टर्स में डाटा संग्रहण और त्वरित गणना की सुविधा से कई अच्छे कार्य हो रहे हैं लेकिन जहां ए.आई. ने अभी तक मात्र शुरुआती स्तर की नौकरियों पर ही खतरा पैदा किया है, माना जाता है कि धीरे-धीरे शीर्ष स्तरों के पदों को भी अपने अंदर खींच लेगी। इसी बीच ईरान युद्ध के दौरान अमरीका द्वारा किए गए ए.आई. के इस्तेमाल और इस निशाने में हुई चूक के कारण हुई स्कूली बच्चियों की मौत ने दुनिया में नई बहस छेड़ दी है। 

दरअसल अग्रणी ए.आई. कंपनी एंथ्रोपिक ने इस साल जनवरी ही में पेंटागन के उस अनुबंध पर हस्ताक्षर करने से इंकार कर दिया, जिसके तहत अमरीकी सेना को ‘सभी वैध उद्देश्यों’ के लिए उसकी तकनीक तक ‘असीमित पहुंच’ मिल जाती। अनुबंध पर हस्ताक्षर करने के लिए, एंथ्रोपिक के सी.ई.ओ. डारियो अमोदेई ने 2 स्पष्ट शर्तें रखीं-अमरीकियों की बड़े पैमाने पर जासूसी नहीं की जाएगी और मानवीय निगरानी के बिना पूरी तरह से स्वायत्त हथियारों का इस्तेमाल युद्ध में नहीं किया जाएगा!  इस निर्णय से एंथ्रोपिक को भारी नुकसान हुआ, परन्तु प्रतिद्वंद्वी कंपनी ने तुरंत पेंटागन के साथ मानव नियंत्रण के बिना पूर्ण ए.आई. नियंत्रण के लिए समझौता कर लिया। इस समझौते के बाद अमरीका और इसराईल ने ईरान के खिलाफ व्यापक सैन्य अभियान शुरू कर दिया। युद्ध के पहले ही दिन 28 फरवरी को ईरान के सर्वोच्च नेता अली खामेनेई और उनके 10 टॉप कमांडरों की हत्या उनके परिसर में कर दी गई, जिसे दोनों देशों ने ए.आई. पर्शियन हमले की एक बड़ी जीत माना। परन्तु उसी दिन, 28 फरवरी को, एक और घातक हमला मीनाब में स्थित शजराह तैयबा गल्र्स स्कूल पर भी किया गया। 2 मिसाइलों ने 45 सैकेंड में स्कूल को नष्ट कर दिया था। मीनाब में जो हुआ, वह ए.आई. के अंधाधुंध उपयोग का सबसे भयावह उदाहरण है। 

‘शजराह तैयबा’ गल्र्स प्राइमरी स्कूल, जिसमें 165 से अधिक मासूम बच्चियां मौत से लड़ती, चीखती-चिल्लाती रहीं, तकनीकी भाषा में इसे ‘सटीक हमला’ कहा गया। जबकि ट्रम्प यह दावा कर रहे हैं कि लड़कियों के स्कूल पर ईरान ने टोमहॉक मिसाइल से हमला किया था, जबकि सभी जानते हैं कि ईरान के पास यह मिसाइल नहीं है, यहां तक कि इसराईल के पास भी नहीं है, इसलिए उनके द्वारा सोशल मीडिया पर फैलाए गए झूठ से सच को छिपाने का काम किया जा रहा है। दरअसल 10 साल पहले इस क्षेत्र पर इस्लामिक रिवोल्यूशनरी गार्ड कोर (आई.आर.जी.सी.) ईरानी सशस्त्र बलों का एक सैन्य परिसर था। डाटाबेस अपडेट न होने के कारण ए.आई. को यह मालूम नहीं पड़ा कि अब उसी स्थान पर बाईं ओर एक अस्पताल और दाईं तरफ एक अलग प्रवेश द्वार वाला स्कूल मौजूद है।

ए.आई. एल्गोरिद्म यह भी समझने में नाकाम रहा कि 7 से 12 साल की बच्चियां ‘दुश्मन’ नहीं होतीं। एक मशीन के लिए वे केवल ‘कोलेटरल डैमेज’ थीं। यह घटना साबित करती है कि जब हम युद्ध का पूर्ण नियंत्रण ए.आई. को देते हैं, तो हम युद्ध के मैदान से ‘दया’ और ‘विवेक’ को पूरी तरह से खत्म कर देते हैं। अत्याधुनिक ए.आई. मॉडल बहुत ही जल्द एक बड़े डाटा से तुरंत सार निकाल सकते हैं और स्वत: ऐसे पैटर्न तैयार कर सकते हैं, जिनके आधार पर संदिग्ध लोगों और गतिविधियों के संकेत खोजे जा सकें, भले ही उनके बीच संबंध बहुत कमजोर हो। ए.आई. आधारित व्यापक निगरानी हमारी मौलिक स्वतंत्रताओं के लिए गंभीर और नए प्रकार के खतरे पैदा कर सकती है। ऐसी प्रणालियां सोशल मीडिया अकाऊंट्स का विश्लेषण कर सकती हैं और इन्हें कैमरों तथा चेहरे की पहचान (फेशियल रिकॉग्निशन) तकनीक के साथ जोड़कर लोगों को वास्तविक समय में ट्रैक कर सकती हैं। 

दरअसल, एक नियंत्रणवादी सरकार न केवल चैट बोर्ड की मदद से किसी व्यक्ति या संगठन के बारे में झूठ फैलाकर उसे बदनाम कर सकती है या गिरफ्तार कर सकती है, बल्कि वह कानूनी रूप से चुनी गई सरकार को भी बहुत जल्दी पुलिस राज्य में बदल सकती है। ऐसे में लोग अपने अधिकारों के लिए कैसे खड़े होंगे, कैसे लड़ेंगे या न्याय कैसे प्राप्त करेंगे? बहुत जल्द कृत्रिम बुद्धिमत्ता (ए.आई.) अपना नया उन्नत संस्करण अपने आप विकसित करने में सक्षम हो जाएगी। ऐसे में मनुष्य को क्या नए नियंत्रण और संतुलन के लिए नए कानून विकसित नहीं करने चाहिएं? किंग्स कॉलेज लंदन की रिसर्च ने पहले ही चेतावनी दे दी है  कि उन्नत ए.आई. मॉडल्स युद्ध की स्थिति में 95 प्रतिशत बार परमाणु विकल्प या अत्यधिक आक्रामकता को चुनते हैं। मशीनों के लिए ‘जीत’ ही एकमात्र लक्ष्य है, चाहे उसकी कीमत पूरी दुनिया का विनाश ही क्यों न हो। अगर हम आज ए.आई. को रक्षा क्षेत्र और समाज में खुली छूट देते हैं, तो हम एक ऐसे भविष्य की ओर बढ़ रहे हैं, जहां युद्ध का फैसला जनरल नहीं, बल्कि एक कोडिंग प्रोग्राम करेगा। लोगों की सुरक्षा ए.आई. डाटा का विश्लेषण करेगा! लेकिन ‘ट्रिगर’ पर उंगली और समाज का नियंत्रण हमेशा एक इंसान का ही होना चाहिए।

Related Story

    img title
    img title

    Be on the top of everything happening around the world.

    Try Premium Service.

    Subscribe Now!