Rashmika Mandanna deepfake video viral case

रश्मिका मंदाना डीपफेक वीडियो वायरल मामला: जानें क्या होता है डीपफेक और कैसे बनाया जाता है वीडियो, एक्सपर्ट से जानें कैसे बचें?

Rashmika Mandanna deepfake video viral case

Rashmika Mandanna deepfake video viral case

Rashmika Mandanna deepfake video viral case- एक्ट्रेस मृणाल ठाकुर मंगलवार को सोशल मीडिया पर वायरल हुए डीपफेक वीडियो को लेकर रश्मिका मंदाना के समर्थन में सामने आईं और कहा कि ऐसी चीजों का सहारा लेने वाले लोगों को शर्म आनी चाहिए।

मृणाल ठाकुर मंगलवार को सोशल मीडिया पर वायरल हुए डीपफेक वीडियो पर रश्मिका मंदाना के समर्थन में सामने आईं और कहा, ‘ऐसी चीजों का सहारा लेने वाले लोगों को शर्म आनी चाहिए’

मृणाल ने भी इस मुद्दे पर बोलने और संबोधित करने के लिए रश्मिका की सराहना की।

इंस्टाग्राम स्टोरीज पर मृणाल ने एक नोट लिखा, जिसमें लिखा था: ‘ऐसी चीजों का सहारा लेने वाले लोगों को शर्म आनी चाहिए, इससे पता चलता है कि लोगों में कोई विवेक नहीं बचा है। शुक्रिया रश्मिका मंदाना, इस बारे में बात करने के लिए, क्योंकि आए दिन हमें इसकी झलक दिखती रहती है, लेकिन हम में से बहुत से लोग इस मामले में चुप रहना पसंद करते हैं।’

‘हर दिन इंटरनेट पर महिलाओं के अनुचित बॉडी पार्ट को जूम करके मोर्फ्ड, एडिटेड वीडियो दिखते हैं। एक समाज के रूप में हम किस तरफ बढ़ रहे हैं? हम लाइमलाइट में रहने वाली एक्ट्रेसेस जरूर हैं, लेकिन दिन के आखिर में हम भी इंसान ही हैं। हम इस बारे में बात क्यों नहीं कर रहे हैं? चुप मत रहिए, अब चुप रहने का समय नहीं है।’

इससे पहले, अपने वायरल डीप फेक वीडियो के खिलाफ कड़ा रुख अपनाते हुए, रश्मिका ने सोशल मीडिया पर एक लंबा नोट लिखा था, और कहा था, ‘मुझे इसे साझा करते हुए दुख हो रहा है और मुझे ऑनलाइन फैलाए जा रहे मेरे डीप फेक वीडियो के बारे में बात करनी है। ईमानदारी से कहूं तो ये सिर्फ मेरे लिए ही नहीं, बल्कि हममें से हर एक के लिए बेहद खतरनाक है, जो इस टेक्नोलॉजी के मिस यूज की वजह से खतरे में आ गए हैं।’

आइए जानतें है डीफेक के बारे में और इससे कैसे रहें सावधान

शायद कई लोगों ने डीपफेक शब्द पहली बार सुना होता बता दें कि इस का यूज 2017 में किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर रेडिट पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे।

किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है।

इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।

साइबर एक्सपर्ट बताते हैं कि अब रेडी टु यूज टेक्नोलॉजी और पैकेज उपलब्ध है। अब इसे कोई भी उपयोग कर सकता है। वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है। इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है।

डीपफेक वीडियो बनाने का तरीका

सबसे पहले ऐसी फोटो या वीडियो की पहचान की जाती है, जिसमें नकली चेहरा और आवाज फिट की जा सके। तमाम चेहरे जुटाने को इनकोडर एल्गोरिदम और चेहरा बदलने को फेस स्वैप कहते हैं।

दूसरा प्रोग्राम डीकोडर एल्गोरिदम होता है। फेस स्वैप होने के बाद एक्सप्रेशन डाला जाता है। फिर ऑडियो ऐड किया जाता है और वीडियो के एक-एक फ्रेम पर काम किया जाता है, ताकि वीडियो असली लगे। 24 फ्रेम यानी 24 इमेजेस से मिलकर एक सेकेंड का वीडियो बनता है।

आर्टिफिशियल इंटेलिजेंस ने ये काम और आसान कर दिया है। पब्लिक डोमेन में कुछ ऐप हैं जिन पर केवल फोटो डालना होता है और संबंधित का फेक वीडियो या फोटो तैयार हो जाता है। इसके उदाहरण कई सोशल वीडियो चैट ऐप हैं जिनमें आप अपना चेहरा छिपाने के लिए लाइव मास्क लगा लेते हैं या कभी क्राउन पहन लेते हैं।

जानकार कहते हैं कि जो परफेक्ट एआई तकनीक से वीडियो बने होते हैं उन्हें देखकर कोई भी मात खा सकता है। जब तक फेक वीडियो की सच्चाई पता चलती है, विक्टिम की इमेज डैमेज हो चुकी होती है। अमेरिका में हुई एक रिसर्च के अनुसार आमतौर पर 96 प्रतिशत एआई बेस्ड डीपफेक वीडियो का उपयोग पोर्न बनाने में ही होता है।