Deepfake AI scam: जानें आखिर क्या है Deepfake AI scam ?, ज्यादात्तर लोग हो रह हैं इसके शिकार

खबरे |

खबरे |

Deepfake AI scam: जानें आखिर क्या है Deepfake AI scam ?, ज्यादात्तर लोग हो रह हैं इसके शिकार
Published : Nov 6, 2023, 2:02 pm IST
Updated : Nov 6, 2023, 2:02 pm IST
SHARE ARTICLE
Deepfake AI scam
Deepfake AI scam

एआई की डीपफेक तकनीक का लोग गलत इस्तेमाल कर रहे हैं। 

Deepfake AI scam news in Hindi: दुनियाभर में आर्टिफिशियल इंटेलिजेंस AI यानी चर्चा का विषय बना हुआ है.  ज्यादात्तर लोग इसके बारे में जानना चाहते है. यह एक ऐसी टेक्नोलॉजी है जिसका इस्तेमाल लोग सही काम के लिए कम और गलत काम के लिए ज्यादा कर रहे हैं. बता दें कि हाल ही में साउथ और बॉलीवीड एक्ट्रेस रश्मिका मंदाना का एक फेक वीडियो वायरल हो रहा है, जिसे देख लोग हैरान है. वीडियो में एक्ट्रेस डीपनेक जिम आउटफीट में नजर आ रही है. 

बता दें कि इस वीडियो को एआई की डीपफेक तकनीक की मदद से बनाया गया है. वीडियो में किसी और लड़की के चेहरे पर एक्ट्रेस का चेहरा लगा दिया गया है.  बता दें कि एआई की डीपफेक तकनीक का लोग गलत इस्तेमाल कर रहे हैं। 

आखिर क्या है Deepfake AI scam?

डीपफेक का जन्म  AI  की वजह से हुआ है. एआई की डीपफेक तकनीक एक प्रकार का सिंथेटिक मीडिया है। जो एआई का उपयोग कर किसी भी फोटो या वीडियो में किसी भी चेहरे को किसी और व्यक्ति के फोटो और वीडियो से बदल देता है.  इतना ही नहीं इसमें आवाज भी पुरी तरह से बदल दिया जाता है.  AI यानी आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी क्षमता की वहज से आम लोग इस तरह के फोटो,वीडियो और ऑडियो की पहचान नहीं कर पाते है.  AI इसे पुरी तरह असल दिखाने में माहिर है. आम लोग यह पहचान ही नहीं पाते की यह सच या फेक है और जालसाजों के ट्रेप में फस जाते है. 

बता दें कि कुछ समय पहले ही  एआई की डीपफेक तकनीक  की मदद से एक व्यक्ति से 40000 रुपयं ठग लिए थे. डीपफेक किसी की भी आवाज को हुबहू उतारने में माहिर है.

आजकल सोशल मीडियो पर यह काफी चलन में है. वहीं एक्ट्रेस रश्मिका मंदाना भी इसका शिकार हुई है. AI टूल की मदद से किसी भी आवाज, वीडियो और फोटो को किसी से भी बड़ी आसानी और सफाई से बदला जा रहा है. 

इससे कैसे बचा जा सकता है

आर्टिफिशियल इंटेलिजेंस जब से आया है लोग इसका सही इस्तेमाल कम और गलत इस्तेमाल ज्यादा कर रहे हैं. लोग आवाज बदलकर लोगों से पैसै ठग रहे है. वीडियो और फोटो को एडिट कर ब्लैकमेल कर रहे हैं. अगर आप चाहते है कि आपके साथ ऐसा कभी ना हो तो आपको सावधान रहने की जरुरत है. आप अपनी नीजी तस्वीरें और वीडियो सोशल मीडियो पर शेयर करने से बचें। क्योंकि अपराधी इन्हें  एआई की डीपफेक तकनीक  की मदद से एडिट कर आपकोब्लैकमेल कर सकते है. अपनी पर्सनल जानकारी कम से कम ही सोशल मीडिया पर पोस्ट करें। 

 

Location: India, Delhi, New Delhi

SHARE ARTICLE

ROZANASPOKESMAN

Advertisement

 

Union Budget 2025: ਕੀ ਹੋਇਆ ਸਸਤਾ ਤੇ ਕੀ ਮਹਿੰਗਾ? | What's Expensive and What's Cheaper

02 Feb 2025 8:39 AM

US-Mexico Border Donkey News: Donkey लगाने वाले सावधान! जानें कितने भारतीय हो सकते हैं प्रभावित?

25 Jan 2025 7:24 PM

Cryptocurrency Scam in India: 350 करोड़ का Crypto Ponzi Scam, Latest News in Hindi

25 Jan 2025 7:22 PM

Amritpal Singh ਦੀ ਨਵੀਂ ਪਾਰਟੀ ਨੂੰ ਲੈ ਕੇ CM Bhagwant Mann ਦਾ ਬਿਆਨ ਪਾਰਟੀ ਬਣਾਉਣ ਦਾ ਸੱਭ ਨੂੰ ਹੱਕ ਹੈ

15 Jan 2025 5:34 PM

'Bapu Surat Singh Khalsa ਵਰਗਾ ਬੰਦਾ ਪੰਜਾਬ ਨੂੰ ਮਿਲਣਾ ਔਖਾ' | Punjab Latest News Today

15 Jan 2025 5:33 PM

'ਨਾ ਅਸੀਂ ਆਪਣੀ ਮਾਂ, ਨਾ ਪਿਓ ਤੇ ਨਾ ਹੀ ਗੁਰੂ ਸਾਂਭਿਆ...' Lakha Sidhana ਦੇ ਤਿੱਖੇ ਬੋਲ

15 Jan 2025 5:32 PM