पीएम मोदी ने ‘डीपफेक’ पर जताई चिंता

जल्द निर्णय लेना, कार्य को कम समय में पूरा करना और शून्य गलती से काम को पूरा करना जैसे फायदे आर्टिफिशियल इंटेलिजेंस के हैं। वहीं आर्टिफिशियल इंटेलीजेंस के कुछ दुष्परिणाम भी है। रश्मिका मंदाना और कट्रीना कैफ के बाद अब प्रधानमंत्री मोदी का भी डी फेक वीडियो बन चुका है। पीएम मोदी ने इस पर प्रतिक्रिया देते हुए कहा कि, मैंने अपने आप का गरबा करते हुए सोशल मीडिया पे वीडियो देखा जिसे देखकर मुझे Artificial Intelligence का गलत इस्तेमाल हो रहा है। प्रधानमंत्री मोदी ने कहा की हमें आर्टिफिशियल इन्टेलिजेन्स के काम को समझना होगा और इसे लोग झूठी जानकारी इंटरनेट पे डाल कर किसी की छवि खराब करने के लिए इस्तेमाल कर सकते हैं। इसके लिए हमें ज़्यादा से ज़्यादा सोशल मीडिया पर सतर्क रहना पड़ेगा।आर्टिफिशियल इन्टेलिजेन्स के बढ़ते खतरे से सतर्क रहने को कहा।

deep fake videos

सबसे ज्यादा विवाद तब हुआ जब अभिनेत्री रश्मिका मंदाना का लिफ्ट में प्रवेश करने का एक वीडियो सोशल मीडिया पर वायरल हो गया। जो शुरुआत में वास्तविक लग रहा था, वह वास्तव में अभिनेत्री का डीपफेक था। मूल वीडियो में एक ब्रिटिश भारतीय लड़की, ज़ारा पटेल को दिखाया गया था, और उसके चेहरे के स्थान पर मंदाना का चेहरा डालने के लिए छेड़छाड़ की गई थी। इतना ही नहीं, इंस्टाग्राम जैसे प्लेटफॉर्म पर राजनीतिक नेताओं के डीपफेक ऑडियो और वीडियो बहुत तेज़ी से वायरल हो रहे हैं।

Deepfake Videos की कुछ पहचान आप भी कर सकते हैं। जो इस प्रकार है।

असामान्य आँखों की गतिविधि : डीपफेक वीडियो अक्सर आखों की असामान्य गति या टकटकी प्रदर्शित करते हैं। वास्तविक वीडियो में, आंखों की गतिविधियां आम तौर पर सहज होती हैं और व्यक्ति की वाणी और कार्यों के साथ समन्वित होती हैं।

आवाज की गुणवत्ता से आप असली और डीपफेक वीडियो में अंतर कर सकते हैं : डीपफेक वीडियो अक्सर Artificial intelligence की मदद से आवाज को रिकॉर्ड करते हैं जिनमें सूक्ष्म खामियां हो सकती हैं।

अजीब शारीरिक आकार या हरकत: डीपफेक के परिणामस्वरूप कभी-कभी अप्राकृतिक शारीरिक आकृति या हरकत हो सकती है। उदाहरण के लिए, अंग बहुत लंबे या छोटे दिख सकते हैं, या शरीर असामान्य या विकृत तरीके से हिल सकता है।