Deepfake AI scam: जानें आखिर क्या है Deepfake AI scam ?, ज्यादात्तर लोग हो रह हैं इसके शिकार

खबरे |

खबरे |

Deepfake AI scam: जानें आखिर क्या है Deepfake AI scam ?, ज्यादात्तर लोग हो रह हैं इसके शिकार
Published : Nov 6, 2023, 2:02 pm IST
Updated : Nov 6, 2023, 2:02 pm IST
SHARE ARTICLE
Deepfake AI scam
Deepfake AI scam

एआई की डीपफेक तकनीक का लोग गलत इस्तेमाल कर रहे हैं। 

Deepfake AI scam news in Hindi: दुनियाभर में आर्टिफिशियल इंटेलिजेंस AI यानी चर्चा का विषय बना हुआ है.  ज्यादात्तर लोग इसके बारे में जानना चाहते है. यह एक ऐसी टेक्नोलॉजी है जिसका इस्तेमाल लोग सही काम के लिए कम और गलत काम के लिए ज्यादा कर रहे हैं. बता दें कि हाल ही में साउथ और बॉलीवीड एक्ट्रेस रश्मिका मंदाना का एक फेक वीडियो वायरल हो रहा है, जिसे देख लोग हैरान है. वीडियो में एक्ट्रेस डीपनेक जिम आउटफीट में नजर आ रही है. 

बता दें कि इस वीडियो को एआई की डीपफेक तकनीक की मदद से बनाया गया है. वीडियो में किसी और लड़की के चेहरे पर एक्ट्रेस का चेहरा लगा दिया गया है.  बता दें कि एआई की डीपफेक तकनीक का लोग गलत इस्तेमाल कर रहे हैं। 

आखिर क्या है Deepfake AI scam?

डीपफेक का जन्म  AI  की वजह से हुआ है. एआई की डीपफेक तकनीक एक प्रकार का सिंथेटिक मीडिया है। जो एआई का उपयोग कर किसी भी फोटो या वीडियो में किसी भी चेहरे को किसी और व्यक्ति के फोटो और वीडियो से बदल देता है.  इतना ही नहीं इसमें आवाज भी पुरी तरह से बदल दिया जाता है.  AI यानी आर्टिफिशियल इंटेलिजेंस टेक्नोलॉजी क्षमता की वहज से आम लोग इस तरह के फोटो,वीडियो और ऑडियो की पहचान नहीं कर पाते है.  AI इसे पुरी तरह असल दिखाने में माहिर है. आम लोग यह पहचान ही नहीं पाते की यह सच या फेक है और जालसाजों के ट्रेप में फस जाते है. 

बता दें कि कुछ समय पहले ही  एआई की डीपफेक तकनीक  की मदद से एक व्यक्ति से 40000 रुपयं ठग लिए थे. डीपफेक किसी की भी आवाज को हुबहू उतारने में माहिर है.

आजकल सोशल मीडियो पर यह काफी चलन में है. वहीं एक्ट्रेस रश्मिका मंदाना भी इसका शिकार हुई है. AI टूल की मदद से किसी भी आवाज, वीडियो और फोटो को किसी से भी बड़ी आसानी और सफाई से बदला जा रहा है. 

इससे कैसे बचा जा सकता है

आर्टिफिशियल इंटेलिजेंस जब से आया है लोग इसका सही इस्तेमाल कम और गलत इस्तेमाल ज्यादा कर रहे हैं. लोग आवाज बदलकर लोगों से पैसै ठग रहे है. वीडियो और फोटो को एडिट कर ब्लैकमेल कर रहे हैं. अगर आप चाहते है कि आपके साथ ऐसा कभी ना हो तो आपको सावधान रहने की जरुरत है. आप अपनी नीजी तस्वीरें और वीडियो सोशल मीडियो पर शेयर करने से बचें। क्योंकि अपराधी इन्हें  एआई की डीपफेक तकनीक  की मदद से एडिट कर आपकोब्लैकमेल कर सकते है. अपनी पर्सनल जानकारी कम से कम ही सोशल मीडिया पर पोस्ट करें। 

 

Location: India, Delhi, New Delhi

SHARE ARTICLE

ROZANASPOKESMAN

Advertisement

 

'एक प्रवासी पंजाबी को मारकर भाग जाता है और हम... जब तक गिरफ़्तारी न हो जाए तब कर...

16 Nov 2024 1:53 PM

Indira Gandhi की ह*त्या करने वाले Bhai Beant Singh के गांव में 1984 में क्या थे हालात? प्रत्यक्षदर्शियों की सुनिए...

16 Nov 2024 1:49 PM

ਆਜ਼ਾਦੀ ਦਿਵਾਉਣ ਪਿੱਛੇ ਸਭ ਤੋਂ ਵੱਡਾ ਯੋਗਦਾਨ Kartar Singh Sarabha ਦਾ, ਕਿਵੇਂ ਕਰਤਾਰ ਸਿੰਘ ਸਰਾਭਾ

16 Nov 2024 1:45 PM

ਕੈਨੇਡਾ ਜਾਣਾ ਹੋਰ ਹੋਇਆ ਸੌਖਾ, ਵਿਨੇ ਹੈਰੀ ਦਾ ਨਵਾਂ ਧਮਾਕਾ, ਸਿਰਫ਼ 65 ਹਜ਼ਾਰ 'ਚ ਜਾਓ Canada

15 Nov 2024 3:59 PM

Amrita Warring ਨੇ Dimpy Dhillon ਨੂੰ ਕਰਤਾ ਨਵਾਂ Challenge BJP ਨੂੰ ਲੈ ਕੇ ਵੀ ਕਰਤੀ ਨਵੀਂ ਭਵਿੱਖਬਾਣੀ

15 Nov 2024 3:55 PM

Badal Family ਨੇ ਕੀਤਾ Akali Dal ਦਾ ਨੁਕਸਾਨ, ਫੈਡਰੇਸ਼ਨ ਨੂੰ ਇਹਨਾਂ ਖਤਮ ਕਰਿਆ’ Sarabjit Singh Sohal

15 Nov 2024 3:45 PM