डीपफेक से सब हैरान..परेशान

डीपफेक से सब हैरान..परेशान
क्या है डीपफेक?
 डीपफेक एआई एक प्रकार की कृत्रिम बुद्धिमत्ता है, जिसका प्रयोग ठोस छवियां, ऑडियो और वीडियो धोखाधड़ी बनाने के लिए किया जाता है। यह शब्द प्रौद्योगिकी और फर्जी सामग्री दोनों का वर्णन करता है, और यह डीप लर्निंग और फेक यानी झूठ का एक सम्मिश्रण है। डीपफेक अक्सर मौजूदा स्रोत सामग्री को बदल देते हैं, एक व्यक्ति को दूसरे से बदल दिया जाता है। वे पूरी तरह से मौलिक सामग्री भी बनाते हैं, जहां किसी को कुछ ऐसा करते या कहते हुए दर्शाया जाता है जो उन्होंने नहीं किया या कहा नहीं। डीपफेक द्वारा उत्पन्न सबसे बड़ा खतरा झूठी जानकारी फैलाने की उनकी क्षमता है जो विश्वसनीय स्रोतों से आती प्रतीत होती है। उदाहरण के लिए, 2022 में यूक्रेनी राष्ट्रपति वलोडिमिर ज़ेलेंस्की का एक डीपफेक वीडियो जारी किया गया था जिसमें वे अपने सैनिकों को आत्मसमर्पण करने के लिए कह रहे थे। डीपफेक के कई उल्लेखनीय उदाहरण हैं, जिन्होंने दुनिया पर अपना प्रभाव छोड़ा है जैसे, फेसबुक के संस्थापक मार्क जुकरबर्ग एक डीपफेक का शिकार हुए थे, जिसमें उन्हें इस बारे में शेखी बघारते हुए दिखाया गया था कि फेसबुक अपने प्रयोगकर्ताओं का "मालिक" कैसे है। अमेरिकी राष्ट्रपति जो बिडेन,पूर्व राष्ट्रपति बराक ओबामा और डोनाल्ड ट्रम्प भी डीपफेक वीडियो के शिकार हुए हैं, कुछ गलत सूचना फैलाने के लिए और कुछ व्यंग्य और मनोरंजन के लिए। ऐसे में डीपफेक गंभीर खतरे पैदा करते हैं, वैसे उनके वैध प्रयोग भी होते हैं, जैसे वीडियो गेम ऑडियो और मनोरंजन, और ग्राहक सहायता और कॉलर प्रतिक्रिया एप्लिकेशन, जैसे कॉल फ़ॉरवर्डिंग और रिसेप्शनिस्ट सेवाएं।
आइए, अब डीपफेक एआई तकनीक के इतिहास पर बात करते हैं...
डीपफेक एआई एक अपेक्षाकृत नई तकनीक है, जिसकी उत्पत्ति एडोब फोटोशॉप जैसे कार्यक्रमों के माध्यम से तस्वीरों के हेरफेर से हुई । 2010 के मध्य तक, सस्ती कंप्यूटिंग शक्ति, बड़े डेटा सेट, एआई और मशीन लर्निंग तकनीक सभी ने मिलकर गहन शिक्षण एल्गोरिदम के परिष्कार को बेहतर बनाया।
2014 में, डीपफेक के केंद्र में स्थित GAN तकनीक को मॉन्ट्रियल विश्वविद्यालय के शोधकर्ता इयान गुडफेलो द्वारा विकसित किया गया था। 2017 में, "डीपफेक" नाम के एक गुमनाम Reddit प्रयोगकर्ता ने मशहूर हस्तियों के डीपफेक वीडियो जारी करना शुरू किए, साथ ही एक GAN टूल भी जारी किया, जो प्रयोगकर्ताओं को वीडियो में चेहरे बदलने की सुविधा देता है। ये इंटरनेट और सोशल मीडिया पर बहुत वायरल हुए।
डीपफेक सामग्री की अचानक लोकप्रियता ने फेसबुक, गूगल और माइक्रोसॉफ्ट जैसी तकनीकी कंपनियों को डीपफेक का पता लगाने के लिए उपकरण विकसित करने में निवेश करने के लिए प्रेरित किया। डीपफेक से निपटने और डीपफेक का पता लगाने की चुनौती से निपटने के लिए तकनीकी कंपनियों और सरकारों के प्रयासों के बावजूद,यह  प्रौद्योगिकी लगातार आगे बढ़ रही है और तेजी से विश्वसनीय डीपफेक छवियां और वीडियो तैयार कर रही है।
यह जानना अत्यंत रोचक होगा कि डीपफेक काम कैसे करते हैं?
डीपफेक नकली सामग्री बनाने और परिष्कृत करने के लिए दो एल्गोरिदम - एक जनरेटर और एक  विभेदक - का प्रयोग करता है। जनरेटर वांछित आउटपुट के आधार पर एक प्रशिक्षण डेटा सेट बनाता है, प्रारंभिक नकली डिजिटल सामग्री बनाता है, जबकि discriminator विवेचक विश्लेषण करता है कि सामग्री का प्रारंभिक संस्करण कितना यथार्थवादी या नकली है। इस प्रक्रिया को दोहराया जाता है, जिससे जनरेटर को यथार्थवादी सामग्री बनाने में सुधार करने की अनुमति मिलती है और जनरेटर को सही करने के लिए त्रुटियों को पहचानने में विभेदक अधिक कुशल हो जाता है।
जनरेटर और विभेदक एल्गोरिदम का संयोजन एक जेनरेटिव प्रतिकूल नेटवर्क बनाता है। एक जेनरेटिव एडवरसैरियल नेटवर्क, जो एक मशीन लर्निंग का एक रूप है, वास्तविक छवियों में पैटर्न को पहचानने के लिए गहन शिक्षण का प्रयोग करता है और फिर नकली बनाने के लिए उन पैटर्न का प्रयोग करता है। डीपफेक तस्वीर बनाते समय, GAN प्रणाली सभी विवरणों और दृष्टिकोणों को पकड़ने के लिए लक्ष्य की तस्वीरों को विभिन्न कोणों से देखती है और व्यवहार, गति और भाषण पैटर्न का भी विश्लेषण करती है। अंतिम छवि या वीडियो को ठीक करने के लिए इस जानकारी को discriminator के माध्यम से कई बार चलाया जाता है।
डीपफेक वीडियो दो तरीकों से बनाए जाते हैं। वे लक्ष्य के मूल वीडियो स्रोत का प्रयोग कर सकते हैं, जहां व्यक्ति को वो बातें कहने और करने के लिए कहा जाता है जो उन्होंने कभी नहीं कहीं या कभी नहीं कीं; या वे उस व्यक्ति के चेहरे को किसी अन्य व्यक्ति के वीडियो से बदल सकते हैं, जिसे फेस स्वैप भी कहा जाता है। डीपफेक बनाने के कुछ विशिष्ट तरीकों में  स्रोत वीडियो डीपफेक, ऑडियो डीपफेक,लिप सिंकिंग डीपफेक आदि हैं। मशीन लर्निंग, डीप लर्निंग और न्यूरल नेटवर्क कुछ प्रमुख प्रौद्योगिकियां हैं जिनका प्रयोग डीपफेक विकसित करने के लिए किया जाता है। दरअसल, एक एल्गोरिदम को मूर्ख बनाना डीपफेक की सफलता की कुंजी है।
आइए, अब बात करते हैं कि आमतौर पर डीपफेक का प्रयोग कैसे किया जाता है?
डीपफेक का प्रयोग काफी भिन्न तरीके से होता है, जैसे किसी कलाकार के काम के मौजूदा हिस्सों का प्रयोग करके नया संगीत उत्पन्न करने के लिए डीपफेक का प्रयोग किया जाता है। ब्लैकमेल और प्रतिष्ठा को नुकसान के उदाहरण तब होते हैं जब किसी लक्षित छवि को गैरकानूनी, अनुचित या अन्यथा समझौता करने वाली स्थिति में रखा जाता है, जैसे कि जनता से झूठ बोलना, यौन कृत्यों में संलग्न होना या ड्रग्स लेना। इन वीडियो का प्रयोग किसी पीड़ित से जबरन वसूली करने, किसी व्यक्ति की प्रतिष्ठा को बर्बाद करने, बदला लेने या सीधे तौर पर उन्हें साइबर धमकी देने के लिए किया जाता है। सबसे आम ब्लैकमेल या बदला लेने का प्रयोग गैर-सहमति वाला डीपफेक पोर्न है, जिसे रिवेंज पोर्न के रूप में भी जाना जाता है। कॉलर प्रतिक्रिया सेवाओं के अंतर्गत कॉल करने वाले के अनुरोधों पर वैयक्तिकृत प्रतिक्रियाएँ प्रदान करने के लिए डीपफेक का प्रयोग करती हैं जिनमें कॉल फ़ॉरवर्डिंग और अन्य रिसेप्शनिस्ट सेवाएँ शामिल होती हैं। ग्राहक फ़ोन सहायता सेवाएँ खाते की शेष राशि की जाँच करने या शिकायत दर्ज करने जैसे सरल कार्यों के लिए नकली आवाज़ों का प्रयोग करती हैं। मनोरंजन के क्षेत्र में फिल्मों और वीडियो गेम में कुछ दृश्यों के लिए अभिनेताओं की आवाज़ का क्लोन बनाते हैं और उसमें हेरफेर करते हैं। मनोरंजन माध्यम इसका प्रयोग तब करते हैं जब किसी दृश्य को शूट करना कठिन होता है, पोस्ट-प्रोडक्शन में जब कोई अभिनेता अपनी आवाज़ रिकॉर्ड करने के लिए सेट पर नहीं होता है, या अभिनेता और प्रोडक्शन टीम का समय बचाने के लिए। डीपफेक का प्रयोग व्यंग्य और पैरोडी सामग्री के लिए भी किया जाता है, जिसमें दर्शक समझते हैं कि वीडियो वास्तविक नहीं है, कानूनी मामले में अपराध या निर्दोषता का संकेत देने वाले सबूत के रूप में किया जा सकता है।
•धोखा देने के उद्देश्य से डीपफेक का प्रयोग किसी व्यक्ति की पर्सनली आइडेंतेफाइएबल इनफॉर्मेशन (पीआईआई), जैसे बैंक खाता और क्रेडिट कार्ड नंबर प्राप्त करने हेतु प्रतिरूपण करने के लिए किया जाता है। इसमें कभी-कभी संवेदनशील जानकारी तक पहुंचने के लिए कंपनियों के अधिकारियों या अन्य कर्मचारियों का प्रतिरूपण करना शामिल हो सकता है, जो एक बड़ा साइबर सुरक्षा खतरा है।
• गलत सूचना और राजनीतिक हेरफेर के उद्देश्य से राजनेताओं या विश्वसनीय स्रोतों के डीपफेक वीडियो का प्रयोग जनता की राय को प्रभावित करने के लिए किया जाता है 
• स्टॉक में हेरफेर करने में किसी कंपनी के शेयर मूल्य को प्रभावित करने के लिए डीपफेक सामग्रियों का प्रयोग किया जाता है। 
क्या डीपफेक कानूनी हैं?
डीपफेक आम तौर पर कानूनी होते हैं, और गंभीर खतरों के बावजूद, कानून प्रवर्तन उनके बारे में बहुत कम बात करता है। डीपफेक केवल तभी अवैध हैं जब वे बाल पोर्नोग्राफ़ी, मानहानि या घृणास्पद भाषण जैसे मौजूदा कानूनों का उल्लंघन करते हैं।
डीपफेक के खिलाफ कानूनों की कमी का कारण यह है कि ज्यादातर लोग नई तकनीक, उसके प्रयोग और खतरों से अनजान हैं। इस वजह से डीपफेक के ज्यादातर मामलों में पीड़ितों को कानून के तहत सुरक्षा नहीं मिल पाती है।
डीपफेक कैसे खतरनाक हैं?
डीपफेक काफी हद तक कानूनी होने के बावजूद महत्वपूर्ण खतरे पैदा करते हैं, जैसे:
• ब्लैकमेल और प्रतिष्ठा को नुकसान जो लक्ष्यों को कानूनी रूप से समझौतावादी स्थितियों में डाल देता है।
• राजनीतिक गलत सूचना जैसे कि राष्ट्र राज्यों के ख़तरनाक अभिनेता इसका प्रयोग नापाक उद्देश्यों के लिए कर रहे हैं।
• चुनाव में हस्तक्षेप, जैसे उम्मीदवारों के फर्जी वीडियो बनाना।
• स्टॉक हेरफेर जहां स्टॉक की कीमतों को प्रभावित करने के लिए नकली सामग्री बनाई जाती है।
• धोखाधड़ी जहां एक व्यक्ति को वित्तीय खाते और अन्य पीआईआई चुराने के लिए प्रतिरूपित किया जाता है।
कैसे पता करें डीपफेक का?
आमतौर पर डीपफेक हमलों को समझना काफ़ी मुश्किल है, फिर भी कुछ संकेतों को समझा जा सकता है, जैसे,चेहरे की असामान्य या अजीब स्थिति, चेहरे या शरीर की अप्राकृतिक हरकत, अप्राकृतिक रंग, ऐसे वीडियो जो ज़ूम इन या आवर्धित करने पर अजीब लगते हैं।असंगत ऑडियो, इसमें लोग पलकें नहीं झपकाते, गलत वर्तनी,ऐसे वाक्य जो स्वाभाविक रूप से प्रवाहित नहीं होते, संदिग्ध स्रोत ईमेल पते,वाक्यांश जो कथित प्रेषक से मेल नहीं खाता। हालाँकि, ए आई इनमें से कुछ संकेतकों पर लगातार काबू पा रहा है, परंतु अभी बहुत कुछ करना शेष है।
अब बात आती है कि डीपफेक से कैसे बचाव करें?
कंपनियां, संगठन और सरकारी एजेंसियां, जैसे कि अमेरिकी रक्षा विभाग की रक्षा उन्नत अनुसंधान परियोजना एजेंसी, डीपफेक की पहचान करने और उसे रोकने के लिए तकनीक विकसित कर रही हैं। कुछ सोशल मीडिया कंपनियां वीडियो और छवियों को अपने प्लेटफॉर्म पर अनुमति देने से पहले उनके स्रोत को सत्यापित करने के लिए ब्लॉकचेन तकनीक का प्रयोग करती हैं। इस तरह, विश्वसनीय स्रोत स्थापित होते हैं और नकली को रोका जाता है।
डीपफेक सुरक्षा सॉफ्टवेयर कई कंपनियों से उपलब्ध हैं, जैसे, एडोब, माइक्रोसॉफ्ट आदि
पिछले दिनों 29 नवंबर 2023 को एशिया पैसेफिक ,गूगल के वाइस प्रेज़िडेंट और हेड ऑफ़ और सेफ्टीश्री सैकेत मित्रा ने बताया कि गूगल रचनाकारों को 'सिंथेटिक' या डीपफेक सामग्री के उचित प्रयोग के साथ-साथ इसके दुरुपयोग को रोकने के बारे में शिक्षित करने के लिए एक नीति तैयार कर रहा है। यह नीति यूट्यूब जैसे प्लेटफार्मों पर कृत्रिम बुद्धिमत्ता (एआई)-जनित सामग्री के प्रयोग को विनियमित करेगी।
व्यक्तिगत स्तर पर हमें मैसेज या वीडियो पर सहज ही विश्वास नहीं करना है और बिना सोचे-समझे उसे फॉवर्ड तो बिलकुल नहीं करना है। निश्चित तौर पर, चुनौती तो बहुत बड़ी है, पर आने वाले समय में इस समस्या का समाधान भी अवश्य होगा,ऐसी आशा हम सब कर रहे हैं।



मीता गुप्ता

Comments

Popular posts from this blog

यूँ ही कोई मिल गया सीज़न-2

पल पल दिल के पास, वो रहता है...

जनरेशन अल्फ़ा और सिक्स-पॉकेट सिंड्रोम