डीपफ़ेक टेक्नोलॉजी

मुक्त ज्ञानकोश विकिपीडिया से
नेविगेशन पर जाएँ खोज पर जाएँ
The printable version is no longer supported and may have rendering errors. Please update your browser bookmarks and please use the default browser print function instead.
चित्र:Deepfake example.gif
डीपफेक तकनीक का एक उदाहरण: मैन ऑफ स्टील के एक दृश्य में, मूल (बाएं) में अभिनेत्री एमी एडम्स की जगह अभिनेता निकोलस केज (दाएं) का चेहरा लगाया गया है।

डीपफ़ेक (अंग्रेज़ी- deepfake, "deep learning" + "fake" [१] ) से तात्पर्य कृत्रिम मीडिया [२] से होता है, जिसमें एक मौजूदा छवि या वीडियो में एक व्यक्ति की जगह किसी दूसरे को लगा दिया जाए, इतनी समानता से कि उनमें अंतर करना कठिन हो जाए। हालाँकि फ़र्ज़ी मीडिया बनाना नया कार्य नहीं है, किंतु डीपफेक ने मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस जैसी शक्तिशाली तकनीकों का लाभ उठाकर नज़र और कान को धोखा देने हेतु दृश्य और ऑडियो सामग्री उत्पन्न करने में काफ़ी बड़ा क़दम है।[३] डीपफेक बनाने के लिए इस्तेमाल की जाने वाली मुख्य मशीन सीखने की विधियाँ डीप लर्निंग पर आधारित होती हैं और इसमें प्रशिक्षण संबंधी न्यूरल नेटवर्क आर्किटेक्चर शामिल होते हैं, जैसे कि ऑटोएन्कोडर्स या जेनरेटर एडवरसियर नेटवर्क (जीएएन)। [४] [५]

डीपफ़ेक ‘ह्यूमन इमेज सिंथेसिस’ नाम की टेक्नोलॉजी पर काम करता है। जैसे हम किसी भी चीज़ की फोटो-कॉपी कर लेते हैं, वैसे ही ये टेक्नोलॉजी चलते-फिरते और बोलते लोगों की हूबहू कॉपी कर सकती है। मतलब हम स्क्रीन पर एक किसी भी इंसान, जीव को चलते-फिरते, बोलते देख सकते हैं, जो नकली हो या जिसकी कॉपी बनाई गयी हो। इस टेक्नोलॉजी की नींव पर बनी एप्स बेहद नुकसान पहुंचा सकती हैं। इससे किसी एक व्यक्ति के चेहरे पर दूसरे का चेहरा लगाया जा सकता है और वो भी इतनी सफ़ाई और बारीकी से कि स्रोत चेहरे के सभी हाव-भाव तक फ़र्ज़ी चेहरे पर दिख सकते हैं।[६]

वर्गीकरण

डीपफ़ेक टेक्नोलॉजी को ऐसे वर्गीकृत किया जा सकता है:[६]

1। फेस-स्वैप: जिसमें वीडियो में चेहरा स्वचालित रूप से किसी अन्य व्यक्ति के चेहरे से बदल दिया जाता है।

2। लिप-सिंक: जिसमें एक स्रोत वीडियो को संशोधित किया जाता है, ताकि जो बोल रहा है उसका मुंह और होंठ एक मनमानी ऑडियो रिकॉर्डिंग के अनुरूप हो सके।

3। कठपुतली-मास्टर : जिसमें एक कलाकार द्वारा एक लक्षित व्यक्ति को एक कैमरे के सामने बैठाकर मिमिक (सिर और आंखो का चलना, चेहरे के हाव भाव) किया जाता है।

जोखिम

जैसा कि फ़ेक न्यूज़ के साथ देखा गया है की फ़ेक न्यूज़ को पकड़ा जा सकता है इसका मतलब यह नहीं है कि इसे क्लिक नहीं किया जाएगा और ऑनलाइन पढ़ा और साझा नहीं किया जा सकता है। क्योंकि वो चीज़ें जो इंटरनेट को चलाती हैं, वो हैं बिना किसी रुकावट के जानकारी का साझाकरण और लोगों की अटेंशन से पैसा बनाना। इसका मतलब है की डीपफ़ेक के इस्तेमाल के लिए हमेशा एक दर्शक वर्ग मौजूद रहेगा। लेकिन किस तरह इस टेक्नोलॉजी का प्रभाव रोका जा सकता है, यह निश्चित ही एक बड़ा प्रश्न है। और आख़िर, हम कितना ही डीपफ़ेक को रोकने के लिए तकनीकी समाधान खोज लें, चाहे वे कितने भी अच्छे हों, वो डीपफ़ेक विडियो/फोटो को फैलने से नहीं रोक सकते। साथ ही कानूनी उपाय, चाहे वे कितने भी प्रभावी हों, आम तौर पर डीपफ़ेक के फैलने के बाद ही लागू हो सकते हैं।[६]

साथ ही, सार्वजनिक जागरूकता में सुधार, डीपफ़ेक से मुकाबला करने की रणनीति का एक अतिरिक्त पहलू हो सकता है। जैसे जब किसी हाई-प्रोफाइल व्यक्ति का संदिग्ध डीपफेक वीडियो आता है, तो यह चंद दिनों या घंटों के अंदर जानना संभव होगा कि उस वीडियो के साथ छेड़छाड़ किस हद तक हुई है। यह जानकारी डीपफ़ेक को फैलने से रोक तो नहीं सकती है, लेकिन यह निश्चित रूप से उनके प्रभाव को कम करने में मदद कर सकता है।[६]

यह सभी देखें

  • फेशियल मोशन कैप्चर
  • कृत्रिम मीडिया
  • वर्चुअल अभिनेता

संदर्भ

  1. स्क्रिप्ट त्रुटि: "citation/CS1" ऐसा कोई मॉड्यूल नहीं है।
  2. स्क्रिप्ट त्रुटि: "citation/CS1" ऐसा कोई मॉड्यूल नहीं है।
  3. Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). "Deepfakes: Trick or treat?". Business Horizons. 63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006.
  4. स्क्रिप्ट त्रुटि: "citation/CS1" ऐसा कोई मॉड्यूल नहीं है।
  5. स्क्रिप्ट त्रुटि: "citation/CS1" ऐसा कोई मॉड्यूल नहीं है।
  6. स्क्रिप्ट त्रुटि: "citation/CS1" ऐसा कोई मॉड्यूल नहीं है।

बाहरी कड़ियाँ