‘आर्टीफिशियल इंंटैलीजैंस’ संबंधी अपराधों में हुई वृद्धि

Edited By ,Updated: 11 Feb, 2024 04:19 AM

increase in crimes related to  artificial intelligence

सभी प्रकार के लोगों को लक्षित करने वाले डीपफेक वीडियो के उदय ने खतरे की घंटी बजा दी है, जिससे व्यापक चिंता पैदा हो गई है और डीपफेक तकनीक के दुरुपयोग को रोकने की तत्काल आवश्यकता है।

सभी प्रकार के लोगों को लक्षित करने वाले डीपफेक वीडियो के उदय ने खतरे की घंटी बजा दी है, जिससे व्यापक चिंता पैदा हो गई है और डीपफेक तकनीक के दुरुपयोग को रोकने की तत्काल आवश्यकता है। संयुक्त राज्य अमरीका की सीनेट ने द्विदलीय कानून पेश किया है जिसे डिसरप्ट एक्सप्लिसिट फोज्र्ड इमेजेज एंड नॉन-कंसेन्सुअल एडिट्स (डिफियंस) एक्ट कहा जाता है। यह कानून व्यक्ति की सहमति के बिना कृत्रिम बुद्धिमत्ता (ए.आई.) द्वारा बनाई गई गैर-सहमति वाली, कामुक छवियों और वीडियो को सांझा करना अवैध बना देगा। 

इसी तरह, यूरोपीय संघ के प्रस्तावित आर्टीफिशियल  इंटैलीजैंस (ए.आई.) अधिनियम का उद्देश्य डीपफेक को संबोधित करने के लिए सख्त नियम प्रदान करना है। जैसे-जैसे यह तकनीक जनता के लिए अधिक उपलब्ध होती जा रही है, बड़ी संख्या में देश डीपफेक की दुविधा से जूझ रहे हैं और इस मुद्दे से कैसे निपटा जाए। सुदूर दक्षिणपंथी एला बुश और जैकब वेयर द्वारा डीपफेक डिजिटल डिसैप्शन के हथियारीकरण शीर्षक वाले इंटरनैशनल सैंटर ऑफ काऊंटर टैरेरिज्म के लिए एक नीति संक्षिप्त में कहा गया है कि ‘डीपफेक’ शब्द डीप लॄनग की अवधारणा से लिया गया है, जो कृत्रिम बुद्धिमत्ता का एक उपसमूह है- मशीन लर्निंग (ए.आई./एम.एल.)। डीप लर्निंग एल्गोरिदम गहरे तंत्रिका नैटवर्क से बने होते हैं, जो मानव मस्तिष्क को इस तरह से अनुकरण करते हैं जो ए.आई. को बड़ी मात्रा में डाटा से ‘सीखने’ में सक्षम बनाता है। 

पाठ और छवियों जैसे असंरचित डाटा को संसाधित करने की क्षमता के कारण डीप लर्निंग मशीन लर्निंग से अद्वितीय है, जो इसे डीपफेक वीडियो, ऑडियो, चित्र या टैक्स्ट बनाने के लिए आदर्श बनाती है। डीपफेक एक विशिष्ट डीप लॄनग एल्गोरिदम का उपयोग करके बनाए जाते हैं जिसे जैनरेटिव एडवरसैरियल नैटवर्क (जी.ए.एन.) कहा जाता है। जिसे पहली बार 2014 में शोधकत्र्ता इयान गुडफैलो द्वारा विकसित किया गया था। इसमें 2 तंत्रिका नैटवर्क शामिल हैं-एक जैनरेटर एल्गोरिदम और एक विभेदक एल्गोरिदम। जैनरेटर एल्गोरिदम एक नकली छवि (या मीडिया का अन्य रूप) बनाता है और विवेचक मीडिया की प्रामाणिकता का आंकलन करता है। स्थिर स्थिति तक पहुंचने तक कार्रवाई घंटों या दिनों तक दोहराई जाती है, जिसमें न तो जनरेटर और न ही विवेचक अपने प्रदर्शन में सुधार कर सकते हैं। 

दूसरे शब्दों में डीपफेक एक प्रकार का सिंथैटिक मीडिया है जिसमें डीप-जैनरेटिव तरीकों के माध्यम से किसी के चेहरे की बनावट में हेर-फेर किया जाता है। हालांकि किसी के चेहरे या आवाज की नकल करने की तकनीक नई नहीं है, लेकिन डीपफेक के बारे में जो क्रांतिकारी है वह जैनरेटिव एडवरसैरियल नेटवर्क्स(जी.ए.एन.) पर निर्भरता है। किसी भी तकनीक की तरह डीपफेक के भी सकारात्मक और नकारात्मक दोनों उपयोग हैं। फिल्म निर्माता बड़े पैमाने पर इस तकनीक का उपयोग फिल्मों का अनुवाद करने, अभिनेताओं की उम्र कम करने, फिल्म निर्माण को गति देने और इसकी लागत कम करने में मदद करने के लिए कर रहे हैं। 

शिक्षा के क्षेत्र में, डीपफेक बहुत अधिक नवीन पाठ बनाने में मदद कर सकता है जो सीखने के पारंपरिक रूप की तुलना में कहीं अधिक आकर्षक है। इसका उपयोग ऐतिहासिक क्षणों को फिर से प्रस्तुत करने के लिए किया जा सकता है। मानव शरीर रचना विज्ञान को समझने और वास्तुकला में सहायता करने में सहायता भी कर सकता है। इसका उपयोग चिकित्सा शोधकत्र्ताओं द्वारा वास्तविक रोगियों के बिना बीमारियों के इलाज के नए तरीके विकसित करने के लिए भी किया जा सकता है। डीपफेक के अनेक लाभ हैं। 

दूसरी ओर, वित्तीय घोटाले, गलत सूचना फैलाने और यौन रूप से स्पष्ट वीडियो सांझा करने जैसे अपराध करने के लिए डीपफेक का बड़े पैमाने पर उपयोग किया जा रहा है। ऐसी रिपोर्टें आई हैं कि पिछले विधानसभा चुनावों में विरोधियों को बदनाम करने के लिए डीपफेक का इस्तेमाल किया गया था और अगर कोई कदम नहीं उठाया गया, तो 2024 के आम चुनावों के दौरान ये व्यापक हो सकते हैं। यह लेखक स्वयं उनकी आवाज का अनुकरण करने वाले एक गहरे नकली वीडियो का शिकार था, जिसे 2019 के संसद चुनावों में मतदान से एक दिन पहले दुर्भावनापूर्ण रूप से प्रसारित किया गया था। सौभाग्य से यह प्रतिरूपण इतना कच्चा और नौसिखिया था कि इसे पकड़ लिया गया और इससे पहले कि यह पर्याप्त प्रतिष्ठित और चुनावी नुकसान कर पाता, उजागर हो गया। फिर भी गहरी नकल ने मतदाताओं के एक निश्चित वर्ग के मन में आशंकाएं पैदा कर दीं। 

ए.आई. और डीपफेक के विनियमन के संबंध में राज्यसभा में उठाए गए एक अतारांकित प्रश्न के जवाब में, सूचना और प्रसारण मंत्रालय ने कहा कि यह वर्तमान में आई.पी.सी. की धारा 469 (प्रतिष्ठा को नुकसान पहुंचाने के उद्देश्य से जालसाजी) और सूचना पर निर्भर करता है। डीपफेक के मुद्दे को संबोधित करने के लिए प्रौद्योगिकी (मध्यवर्ती दिशा-निर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021 बनाए गए। ये नियम सोशल मीडिया मध्यस्थों पर प्रतिबंधित गलत सूचना, स्पष्ट रूप से गलत जानकारी और डीपफेक को शीघ्र हटाने को सुनिश्चित करने का दायित्व डालते हैं। दुर्भाग्य से, ये नियम डीपफेक के मुद्दे को प्रभावी ढंग से संबोधित करने में विफल हैं। इसके अलावा, ये नियम अत्यधिक अस्पष्ट और सामान्य हैं, जिनमें डीपफेक को विनियमित करने के लिए पर्याप्त उपायों का अभाव है। इस प्रकार, एक कानूनी शून्यता मौजूद है जिसके परिणामस्वरूप डीपफेक को उचित रूप से विनियमित करने में विफलता होती है। 

इस शून्यता के परिणामस्वरूप भारत में ए.आई. और डीपफेक संबंधी अपराध में वृद्धि हुई है। इसके अलावा एक रिपोर्ट के अनुसार भारत में डीपफेक की संख्या में 1700 प्रतिशत की वृद्धि देखी गई है। इससे स्पष्ट रूप से पता चलता है कि भारत प्रौद्योगिकी में तेजी से हो रही प्रगति के साथ तालमेल बिठाने के लिए गंभीर रूप से अविकसित और तैयार नहीं है। अगली संसद को इस मुद्दे के समाधान के लिए स्वत: संज्ञान लेते हुए संसद की एक संयुक्त समिति का गठन करना चाहिए और यह सुनिश्चित करना चाहिए कि सभी संबंधित हितधारकों के साथ उचित परामर्श किया जाए।-मनीष तिवारी 
      

IPL
Chennai Super Kings

176/4

18.4

Royal Challengers Bangalore

173/6

20.0

Chennai Super Kings win by 6 wickets

RR 9.57
img title
img title

Be on the top of everything happening around the world.

Try Premium Service.

Subscribe Now!