प्रिंस हैरी मेघन-हैरी भी सुपर इंटेलिजेंस के खिलाफ, कहा-“AI इंसानों से आगे नहीं ”, मानवता खतरे में

Edited By Updated: 22 Oct, 2025 06:27 PM

prince harry meghan join call for ban on development of ai  superintelligence

प्रिंस हैरी और मेघन मार्कल ने एआई “सुपर इंटेलिजेंस” के विकास पर अस्थायी प्रतिबंध की मांग का समर्थन किया है। गूगल, ओपनएआई और मेटा जैसी कंपनियों को निशाना बनाते इस पत्र पर कई वैज्ञानिकों, नेताओं और कलाकारों ने हस्ताक्षर किए। पत्र में चेतावनी दी गई है...

London: ब्रिटेन के प्रिंस हैरी और मेघन मार्कल ने एक अंतरराष्ट्रीय अपील पत्र पर हस्ताक्षर किए हैं, जिसमें कृत्रिम बुद्धिमत्ता (AI) सुपर इंटेलिजेंस के विकास पर अस्थायी प्रतिबंध लगाने की मांग की गई है। इस पत्र में कहा गया है कि जब तक यह सुनिश्चित न हो जाए कि सुपर इंटेलिजेंस सुरक्षित और मानव नियंत्रण में रहेगी, तब तक इसके विकास को रोक दिया जाना चाहिए।यह पत्र गूगल, ओपनएआई और मेटा जैसी बड़ी टेक कंपनियों को सीधे संबोधित करता है, जो ऐसी AI प्रणालियों के विकास में लगी हैं जो कई कार्यों में मनुष्यों से आगे निकल सकती हैं।

 

हैरी और मेघन का संदेश
प्रिंस हैरी ने कहा, “AI का भविष्य मानवता की सेवा करना चाहिए, न कि उसकी जगह लेना। असली प्रगति की परीक्षा यह होगी कि हम कितनी समझदारी से आगे बढ़ते हैं।”उनकी पत्नी मेघन मार्कल ने भी इस पत्र पर हस्ताक्षर किए हैं, जो अब वैश्विक स्तर पर AI सुरक्षा को लेकर चर्चा का केंद्र बन गया है।

   

  • पत्र पर हस्ताक्षर करने वालों में कई प्रतिष्ठित व्यक्तित्व शामिल हैं 
  • स्टुअर्ट रसेल, कंप्यूटर विज्ञान के प्रोफेसर (UC बर्कले)
  • योशुआ बेंगियो और जेफ्री हिंटन, एआई विशेषज्ञ और ट्यूरिंग अवॉर्ड विजेता
  • स्टीव वोज्नियाक, एप्पल के सह-संस्थापक
  • रिचर्ड ब्रैनसन, ब्रिटिश अरबपति
  • माइक मुलेन, अमेरिकी सैन्य प्रमुख
  • सुज़ैन राइस, पूर्व डेमोक्रेटिक विदेश नीति सलाहकार
  • मैरी रॉबिन्सन, आयरलैंड की पूर्व राष्ट्रपति
  • अभिनेता स्टीफन फ्राई, जोसेफ गॉर्डन-लेविट, और संगीतकार विल.आई.एम

 

क्यों बढ़ रही चिंता
पत्र जारी करने वाली संस्था “फ्यूचर ऑफ लाइफ इंस्टीट्यूट” ने चेतावनी दी है कि सुपर इंटेलिजेंस वाली AI मानव जाति के अस्तित्व के लिए खतरा बन सकती है।पत्र में कहा गया है कि जब तक यह सुनिश्चित न हो जाए कि AI पूरी तरह सुरक्षित, पारदर्शी और लोकतांत्रिक नियंत्रण में है, तब तक उसके विकास पर रोक जरूरी है।

 

विशेषज्ञों की राय
AI के अग्रणी वैज्ञानिक जेफ्री हिंटन, जिन्होंने खुद इस तकनीक के विकास में भूमिका निभाई, अब इसके खतरों को लेकर सतर्क कर रहे हैं। उनका कहना है कि अगर सुरक्षा उपायों की अनदेखी की गई तो यह तकनीक मानवता के अस्तित्व के लिए खतरा बन सकती है।

Related Story

Trending Topics

img title
img title

Be on the top of everything happening around the world.

Try Premium Service.

Subscribe Now!