पुलिस ने युवक को जांच के लिए नोटिस भेजा गया है क्योंकि वीडियो सबसे पहले उसके ही अकाउंट से सोशल मीडिया पर शेयर किया गया था.
Rashmika Mandanna Deepfake Video Case: साउथ और बॉलीवूड एक्ट्रेस रश्मिका मंदाना (Rashmika Mandanna) के 'डीपफेक वीडियो' मामले में दिल्ली पुलिस (Delhi Police) ने बड़ा एक्शन लिया है. पुलिस ने मामले में बिहार के एक19 साल के युवक से पूछताछ की है. पुलिस को शक है कि युवक ने ही पहले वीडियो को अपने सोशल मीडिया प्लेटफॉर्म पर अपलोड किया और फिर इसे अन्य प्लेटफॉर्म पर साझा भी किया। पुलिस ने युवक को जांच के लिए नोटिस भेजा गया है क्योंकि वीडियो सबसे पहले उसके ही अकाउंट से सोशल मीडिया पर शेयर किया गया था.
दिल्ली पुलिस की स्पेशल सेल की 'इंटेलिजेंस फ्यूजन एंड स्ट्रैटेजिक ऑपरेशंस यूनिट' ने 10 नवंबर को भारतीय दंड संहिता की धारा 465 (जालसाजी के लिए सजा) और 469 (बदनाम करने के इरादे से जालसाजी) और सूचना प्रौद्योगिकी अधिनियम की धारा 66 सी और 66 ई के तहत मामला दर्ज किया है।
दिल्ली पुलिस ने मंगलवार को कहा कि फिलहाल इस सिलसिले में किसी को गिरफ्तार नहीं किया गया है. पुलिस के अनुसार युवक ने कहा है कि उसने किसी इंस्टाग्राम अकाउंट से वीडियो 'डाउनलोड' किया था, फिलहाल पुलिस उससे से पूछताछ कर रही हैं।
मिली जानकाकी के अनुसार बिहार के रहने वाले युवक को आईएफएसओ यूनिट के सामने पेश होने और अपना मोबाइल फोन लाने के लिए कहा गया था. बता दें कि आईएफएसओ शाखा ने आरोपी को पकरने के लिए मेटा को एक पत्र लिखा था, जिसमें पुलिस ने यूआरएल और अन्य जानकारी मांगी थी.
गौरतलब है कि हालही में रश्मिका मंदाना का एक वीडियो (Rashmika Mandanna Deepfake Video ) तेजी से वायरल हुआ था. जिसे डीपफेक तकनीक से बनाकर सोशल मीडिया पर साझा किया गया था. वीडियो में किसी और लड़की के चेहरे पर रश्मिका का चेहरा लगाया गया था. वीडियो सामने आने के बाद सभी ने इस पर अपनी नाराजगी जताई थी और सदी के महानायक अमिताभ बच्चन ने इस पर शख्त एक्शन लेने की मांग की थी. वहीं रश्मिका ने इसे काफी डरावना बताया था.
आखिर क्या है Deepfake AI scam?
डीपफेक का जन्म AI की वजह से हुआ है. एआई की डीपफेक तकनीक एक प्रकार का सिंथेटिक मीडिया है। जो एआई का उपयोग कर किसी भी फोटो या वीडियो में किसी भी चेहरे को किसी और व्यक्ति के फोटो और वीडियो से बदल देता है. इतना ही नहीं इसमें आवाज भी पुरी तरह से बदल दिया जाता है. AI यानी आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी क्षमता की वहज से आम लोग इस तरह के फोटो,वीडियो और ऑडियो की पहचान नहीं कर पाते है. AI इसे पुरी तरह असल दिखाने में माहिर है. आम लोग यह पहचान ही नहीं पाते की यह सच या फेक है और जालसाजों के ट्रेप में फस जाते है.
बता दें कि कुछ समय पहले ही एआई की डीपफेक तकनीक की मदद से एक व्यक्ति से 40000 रुपयं ठग लिए थे. डीपफेक किसी की भी आवाज को हुबहू उतारने में माहिर है.
आजकल सोशल मीडियो पर यह काफी चलन में है. वहीं एक्ट्रेस रश्मिका मंदाना भी इसका शिकार हुई है. AI टूल की मदद से किसी भी आवाज, वीडियो और फोटो को किसी से भी बड़ी आसानी और सफाई से बदला जा रहा है.
इससे कैसे बचा जा सकता है
आर्टिफिशियल इंटेलिजेंस जब से आया है लोग इसका सही इस्तेमाल कम और गलत इस्तेमाल ज्यादा कर रहे हैं. लोग आवाज बदलकर लोगों से पैसै ठग रहे है. वीडियो और फोटो को एडिट कर ब्लैकमेल कर रहे हैं. अगर आप चाहते है कि आपके साथ ऐसा कभी ना हो तो आपको सावधान रहने की जरुरत है. आप अपनी नीजी तस्वीरें और वीडियो सोशल मीडियो पर शेयर करने से बचें। क्योंकि अपराधी इन्हें एआई की डीपफेक तकनीक की मदद से एडिट कर आपकोब्लैकमेल कर सकते है. अपनी पर्सनल जानकारी कम से कम ही सोशल मीडिया पर पोस्ट करें।