डीपफ़ेक टेक्नोलॉजी

मुक्त ज्ञानकोश विकिपीडिया से
imported>Amherst99 द्वारा परिवर्तित १९:१३, ८ मई २०२१ का अवतरण
(अन्तर) ← पुराना अवतरण | वर्तमान अवतरण (अन्तर) | नया अवतरण → (अन्तर)
नेविगेशन पर जाएँ खोज पर जाएँ
चित्र:Deepfake example.gif
डीपफेक तकनीक का एक उदाहरण: मैन ऑफ स्टील के एक दृश्य में, मूल (बाएं) में अभिनेत्री एमी एडम्स की जगह अभिनेता निकोलस केज (दाएं) का चेहरा लगाया गया है।

डीपफ़ेक (अंग्रेज़ी- deepfake, "deep learning" + "fake" [१] ) से तात्पर्य कृत्रिम मीडिया [२] से होता है, जिसमें एक मौजूदा छवि या वीडियो में एक व्यक्ति की जगह किसी दूसरे को लगा दिया जाए, इतनी समानता से कि उनमें अंतर करना कठिन हो जाए। हालाँकि फ़र्ज़ी मीडिया बनाना नया कार्य नहीं है, किंतु डीपफेक ने मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस जैसी शक्तिशाली तकनीकों का लाभ उठाकर नज़र और कान को धोखा देने हेतु दृश्य और ऑडियो सामग्री उत्पन्न करने में काफ़ी बड़ा क़दम है।[३] डीपफेक बनाने के लिए इस्तेमाल की जाने वाली मुख्य मशीन सीखने की विधियाँ डीप लर्निंग पर आधारित होती हैं और इसमें प्रशिक्षण संबंधी न्यूरल नेटवर्क आर्किटेक्चर शामिल होते हैं, जैसे कि ऑटोएन्कोडर्स या जेनरेटर एडवरसियर नेटवर्क (जीएएन)। [४] [५]

डीपफ़ेक ‘ह्यूमन इमेज सिंथेसिस’ नाम की टेक्नोलॉजी पर काम करता है। जैसे हम किसी भी चीज़ की फोटो-कॉपी कर लेते हैं, वैसे ही ये टेक्नोलॉजी चलते-फिरते और बोलते लोगों की हूबहू कॉपी कर सकती है। मतलब हम स्क्रीन पर एक किसी भी इंसान, जीव को चलते-फिरते, बोलते देख सकते हैं, जो नकली हो या जिसकी कॉपी बनाई गयी हो। इस टेक्नोलॉजी की नींव पर बनी एप्स बेहद नुकसान पहुंचा सकती हैं। इससे किसी एक व्यक्ति के चेहरे पर दूसरे का चेहरा लगाया जा सकता है और वो भी इतनी सफ़ाई और बारीकी से कि स्रोत चेहरे के सभी हाव-भाव तक फ़र्ज़ी चेहरे पर दिख सकते हैं।[६]

वर्गीकरण

डीपफ़ेक टेक्नोलॉजी को ऐसे वर्गीकृत किया जा सकता है:[६]

1। फेस-स्वैप: जिसमें वीडियो में चेहरा स्वचालित रूप से किसी अन्य व्यक्ति के चेहरे से बदल दिया जाता है।

2। लिप-सिंक: जिसमें एक स्रोत वीडियो को संशोधित किया जाता है, ताकि जो बोल रहा है उसका मुंह और होंठ एक मनमानी ऑडियो रिकॉर्डिंग के अनुरूप हो सके।

3। कठपुतली-मास्टर : जिसमें एक कलाकार द्वारा एक लक्षित व्यक्ति को एक कैमरे के सामने बैठाकर मिमिक (सिर और आंखो का चलना, चेहरे के हाव भाव) किया जाता है।

जोखिम

जैसा कि फ़ेक न्यूज़ के साथ देखा गया है की फ़ेक न्यूज़ को पकड़ा जा सकता है इसका मतलब यह नहीं है कि इसे क्लिक नहीं किया जाएगा और ऑनलाइन पढ़ा और साझा नहीं किया जा सकता है। क्योंकि वो चीज़ें जो इंटरनेट को चलाती हैं, वो हैं बिना किसी रुकावट के जानकारी का साझाकरण और लोगों की अटेंशन से पैसा बनाना। इसका मतलब है की डीपफ़ेक के इस्तेमाल के लिए हमेशा एक दर्शक वर्ग मौजूद रहेगा। लेकिन किस तरह इस टेक्नोलॉजी का प्रभाव रोका जा सकता है, यह निश्चित ही एक बड़ा प्रश्न है। और आख़िर, हम कितना ही डीपफ़ेक को रोकने के लिए तकनीकी समाधान खोज लें, चाहे वे कितने भी अच्छे हों, वो डीपफ़ेक विडियो/फोटो को फैलने से नहीं रोक सकते। साथ ही कानूनी उपाय, चाहे वे कितने भी प्रभावी हों, आम तौर पर डीपफ़ेक के फैलने के बाद ही लागू हो सकते हैं।[६]

साथ ही, सार्वजनिक जागरूकता में सुधार, डीपफ़ेक से मुकाबला करने की रणनीति का एक अतिरिक्त पहलू हो सकता है। जैसे जब किसी हाई-प्रोफाइल व्यक्ति का संदिग्ध डीपफेक वीडियो आता है, तो यह चंद दिनों या घंटों के अंदर जानना संभव होगा कि उस वीडियो के साथ छेड़छाड़ किस हद तक हुई है। यह जानकारी डीपफ़ेक को फैलने से रोक तो नहीं सकती है, लेकिन यह निश्चित रूप से उनके प्रभाव को कम करने में मदद कर सकता है।[६]

यह सभी देखें

  • फेशियल मोशन कैप्चर
  • कृत्रिम मीडिया
  • वर्चुअल अभिनेता

संदर्भ

  1. स्क्रिप्ट त्रुटि: "citation/CS1" ऐसा कोई मॉड्यूल नहीं है।
  2. स्क्रिप्ट त्रुटि: "citation/CS1" ऐसा कोई मॉड्यूल नहीं है।
  3. Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). "Deepfakes: Trick or treat?". Business Horizons. 63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006.
  4. स्क्रिप्ट त्रुटि: "citation/CS1" ऐसा कोई मॉड्यूल नहीं है।
  5. स्क्रिप्ट त्रुटि: "citation/CS1" ऐसा कोई मॉड्यूल नहीं है।
  6. स्क्रिप्ट त्रुटि: "citation/CS1" ऐसा कोई मॉड्यूल नहीं है।

बाहरी कड़ियाँ