NDMA ने उत्तरकाशी सुरंग श्रमिकों की AI जनरेटेड तस्वीर साझा की, Fact Check रिपोर्ट
रोज़ाना स्पोक्समैन ने अपनी पड़ताल में पाया कि यह वायरल तस्वीर AI जेनरेटेड है।
RSFC (Team Mohali)- पिछले 17 दिनों से उत्तराखंड के उत्तरकाशी में निर्माणाधीन सुरंग में फंसे 41 मजदूरों को सुरक्षित बाहर निकाल लिया गया है। मजदूरों को निकालने के मिशन की सफलता से पूरे देश ने राहत की सांस ली है। अब इस मिशन के बाद सुरंग में भारत का झंडा थामे मजदूरों की एक तस्वीर सोशल मीडिया पर वायरल हो रही है और दावा किया जा रहा है कि यह तस्वीर उत्तरकाशी में निर्माणाधीन सुरंग में फंसे 41 मजदूरों की है। इस तस्वीर को नेशनल डिजास्टर मैनेजमेंट इंडिया समेत कई सोशल मीडिया यूजर्स शेयर कर रहे हैं।
NDMA India | राष्ट्रीय आपदा प्रबंधन प्राधिकरण ने वायरल तस्वीर साझा की और लिखा, "#UttarakhandTunnelRescue"
इसी तरह कई यूजर्स भी इस तस्वीर को शेयर कर रहे हैं, जिनके कुछ पोस्ट आप नीचे क्लिक कर देख सकते हैं।
रोज़ाना स्पोक्समैन ने अपनी पड़ताल में पाया कि यह वायरल तस्वीर AI जेनरेटेड है।
स्पोक्समैन की पड़ताल
अब हम आगे बढ़े और hivemoderation.com पर इस तस्वीर को चेक किया। आपको बता दें कि यह वेबसाइट तस्वीरों की जांच करती है और साफ करती है कि कोई तस्वीर एआई द्वारा बनाई गई है या नहीं। यहां जांच के नतीजों से हुआ कि वायरल तस्वीर AI द्वारा बनाई गई है। इस तस्वीर को 100% AI Generated रेटिंग दी गई थी।
यह स्पष्ट था कि वायरल तस्वीर AI की मदद से बनाई गई थी।
AI या डीपफेक की पहचान कैसे की जा सकती है?
1. आंखों की अप्राकृतिक गतिविधियां: आंखों की अप्राकृतिक गतिविधियों पर ध्यान दें, जैसे पलकें झपकाना या अनियमित गतिविधियां।
2. रंग और रोशनी में मेल: चेहरे और पृष्ठभूमि में रंग और रोशनी को ध्यान से देखें क्योंकि यह रंग और रोशनी में मेल नहीं खाता है।
3. ऑडियो गुणवत्ता: ऑडियो गुणवत्ता की तुलना करें और देखें कि ऑडियो होठों की गति से मेल खाता है या नहीं।
4. दृश्य विसंगतियाँ: दृश्य विसंगतियों का विश्लेषण करें, जैसे शरीर का अजीब आकार या चेहरे की हरकतें, चेहरे की विशेषताओं की अप्राकृतिक स्थिति, या अजीब मुद्रा।
5. रिवर्स इमेज सर्च: वीडियो या व्यक्ति की तस्वीर रिवर्स इमेज सर्च करके देखें कि वे असली हैं या नहीं।
6. वीडियो मेटाडेटा: वीडियो मेटाडेटा की जांच करें और देखें कि क्या इसे बदला या संपादित किया गया है।
7. डीपफेक डिटेक्शन टूल: ऑनलाइन प्लेटफॉर्म या ब्राउज़र एक्सटेंशन पर डीपफेक डिटेक्शन टूल का उपयोग करें, जो संदिग्ध वीडियो को चिह्नित कर सकते हैं।
निष्कर्ष- रोज़ाना स्पोक्समैन ने अपनी पड़ताल में पाया कि यह वायरल तस्वीर AI जेनरेटेड है कोई असली तस्वीर नहीं। वायरल हो रही पोस्ट भ्रामक है।