डीपफेक खतरा: यदि हर चीज नकली हो सकती है, तो आप कैसे जानेंगे कि असली क्या है? | भारत समाचार

डीपफेक खतरा: यदि हर चीज नकली हो सकती है, तो आप कैसे जानेंगे कि असली क्या है? | भारत समाचार

डीपफेक खतरा: यदि हर चीज नकली हो सकती है, तो आप कैसे जानेंगे कि असली क्या है?

ऐसी दुनिया में जहां देखने पर अब विश्वास करना नामुमकिन है, भारत एक नए डिजिटल खतरे का सामना कर रहा है: एआई-जनित डीपफेक। ये अति-यथार्थवादी वीडियो और ऑडियो क्लिप न केवल वास्तविकता को विकृत करते हैं। वे जनता की धारणा में हेरफेर करते हैं, गलत सूचना फैलाते हैं और लोकतंत्र में विश्वास को कमजोर करते हैं। 85.5% भारतीय परिवारों के पास कम से कम एक स्मार्टफोन होने के कारण, मोबाइल फोन भारत का बैंक, कक्षा और टेलीविजन बन गए हैं, जिससे नागरिक डिजिटल धोखे के प्रति अधिक संवेदनशील हो गए हैं। उदाहरण के लिए, 2024 के चुनावों के दौरान, व्यंग्यपूर्ण डीपफेक एक प्रकार का अभियान उपकरण बन गया। मृत नेताओं को पुनर्जीवित करने के अलावा, इसमें ऐसे क्लिप भी शामिल थे जिनमें पीएम नरेंद्र मोदी महिलाओं के साथ गरबा नृत्य करते हुए और कमल नाथ एक लोकप्रिय कल्याण योजना की निंदा करते हुए दिखाए गए थे। हालांकि जांच और गिरफ्तारियां हुईं, लेकिन ऐसे वीडियो तथ्य और कल्पना के बीच की रेखा को धुंधला कर देते हैं, जिससे मतदाताओं की राय के विरूपण और लोकतांत्रिक प्रक्रिया की अखंडता को खतरा होता है। साइबर सुरक्षा विशेषज्ञों ने चेतावनी दी है कि AI भी साइबर अपराध में एक महत्वपूर्ण उपकरण बन रहा है: 2024 में 80% फ़िशिंग अभियानों में AI शामिल था, जिसमें घोटालों के लिए डीपफेक का उपयोग किया गया था। एआई के दुरुपयोग में चिंताजनक वृद्धि के बारे में पिछले साल एक टीओआई साक्षात्कार में कैलिफोर्निया विश्वविद्यालय, बर्कले के प्रोफेसर हनी फरीद ने कहा, “जब आप छवियों, ऑडियो और वीडियो को नकली बना सकते हैं, तो आपको कैसे पता चलेगा कि असली वीडियो असली है? अचानक, सब कुछ सवालों के घेरे में है।”

.

डीपफेक के बढ़ते खतरे से लड़ने के लिए टीओआई के साथ कमर कस लें डीपफेक का खतरा राजनीति से परे तक फैला हुआ है। हाल ही में, वित्त मंत्री निर्मला सीतारमण ने संभावित वित्तीय घोटालों और सार्वजनिक विश्वास के क्षरण की चेतावनी देते हुए आवाजों को क्लोन करने और उनकी नकल करके नकली वीडियो बनाने के लिए एआई के दुरुपयोग पर प्रकाश डाला। मुंबई में एक कार्यक्रम में सीतारमण ने कहा, “मैंने अपने कई डीपफेक वीडियो ऑनलाइन प्रसारित होते देखे हैं, जिनमें नागरिकों को गुमराह करने और तथ्यों को विकृत करने के लिए हेरफेर किया गया है।” उन्होंने कहा, “अपराधी आवाजों की नकल करने, पहचान क्लोन करने और लोगों को प्रभावित करने वाले जीवंत वीडियो बनाने के लिए एआई का उपयोग कर रहे हैं।” पर्यवेक्षकों का कहना है कि यह देखते हुए कि भारत के 15 से 29 वर्ष के 97% से अधिक शहरी युवाओं के पास स्मार्टफोन है, इस तरह की गलत सूचनाओं का एक पीढ़ी पर प्रभाव चिंताजनक है। प्रोफेसर फरीद ने कहा, “डीपफेक की शुरुआत 2016 में हुई थी। तब, यह एक मजाक था। लेकिन तकनीक केवल बेहतर हो गई है। पहले, फोटोशॉप्ड फेस स्वैप होते थे। अब लिपसिंक फेक हैं।” उन्होंने चेतावनी देते हुए कहा कि तकनीक अधिक परिष्कृत हो गई है, जिससे गैर-सहमति वाली यौन छवियों के उपयोग के माध्यम से महिलाओं के उत्पीड़न का खतरा बढ़ गया है। नवंबर 2023 में, अभिनेत्री रश्मिका मंदाना वह एक वायरल डीपफेक वीडियो का शिकार हो गई, जिसमें उसके चेहरे को आपत्तिजनक सामग्री के साथ जोड़ दिया गया, जिससे व्यापक आक्रोश फैल गया। फरीद ने नए शब्द ‘जेनरेटिव एआई’ को पुरुष-प्रधान तकनीकी उद्योग द्वारा चतुर “रीब्रांडिंग” बताते हुए कहा, “‘डीपफेक’ शब्द एक रेडिट उपयोगकर्ता से आया है, जिसने इस तकनीक के शुरुआती दिनों में इसका इस्तेमाल पोर्न बनाने के लिए किया था।” जैसे-जैसे एआई विकसित हो रहा है, भारत को मजबूत होना होगा कानूनी विशेषज्ञों का कहना है कि फ्रेमवर्क, डिजिटल साक्षरता को बढ़ाना और सुरक्षा सुनिश्चित करने के लिए विभिन्न क्षेत्रों के लोगों को एक साथ लाना है। फरीद ने कहा, “हमें हर चीज़ को असली या असली नहीं के रूप में लेबल करने की ज़रूरत है।” उन्होंने कहा, “हमें वास्तविक खुलासे की जरूरत है।” डीप फेक के बढ़ते खतरे से निपटने के लिए टीओआई ने पहले से ही तैयारी शुरू कर दी है। सूचित और जागरूक रहने के लिए हमारी ‘धोखा न खाएं’ कहानियों पर नजर रखें। आख़िरकार, जैसा कि फ़रीद कहते हैं, “यदि आप नहीं जानते कि वास्तविक क्या है, तो आप कैसे जानेंगे कि झूठ क्या है”?

सुरेश कुमार एक अनुभवी पत्रकार हैं, जिनके पास भारतीय समाचार और घटनाओं को कवर करने का 15 वर्षों का अनुभव है। वे भारतीय समाज, संस्कृति, और घटनाओं पर गहन रिपोर्टिंग करते हैं।