साइबर लिटरेसी- सांसद ने दिखाया अपना डीपफेक न्यूड फोटो:आप भी हो सकते हैं शिकार, कैसे बचें, सोशल मीडिया पर बरतें 10 सावधानियां

Wait 5 sec.

बीते 14 मई को न्यूजीलैंड की संसद में उस वक्त सब चौंक गए, जब सांसद लॉरा मैक्ल्योर ने खुद की एक AI से बनी न्यूड फोटो संसद में सभी के सामने दिखाई। यह तस्वीर असली नहीं थी, बल्कि डीपफेक थी, जिसे उन्होंने खुद ही इंटरनेट से महज 5 मिनट में बनाया था। उनका मकसद यह दिखाना कि डीपफेक टेक्नॉलॉजी कितनी खतरनाक हो चुकी है और इसे बनाने में कितना कम समय लगता है। आज सोशल मीडिया और इंटरनेट की दुनिया में डीपफेक सिर्फ एक टेक्नोलॉजी नहीं, एक खतरनाक हथियार बन चुका है। इसका इस्तेमाल किसी की छवि बिगाड़ने, करियर को नुकसान पहुंचाने या एजेंटा बनाने के लिए हो सकता है। खासकर युवाओं, महिलाओं और किशोरियों को इसका सबसे अधिक खतरा है। इसलिए जरूरी है कि हम सतर्क रहें, जागरूक बनें और दूसरों को भी डिजिटल सुरक्षा के प्रति सजग करें। तो चलिए, आज साइबर लिटरेसी के इस कॉलम में हम जानेंगे कि डीपफेक क्या होता है? साथ ही जानेंगे कि- एक्सपर्ट: राजेश दंडोतिया, एडिशनल डीसीपी, क्राइम ब्रांच, इंदौर डॉ. पवन दुग्गल, साइबर सिक्योरिटी और AI लॉ एक्सपर्ट, नई दिल्ली सवाल- डीपफेक क्या है? जवाब- डीपफेक एक आर्टिफिशियल इंटेलिजेंस (AI) टेक्नोलॉजी है, जिसका इस्तेमाल करके किसी व्यक्ति के चेहरे, हाव-भाव, आवाज या बोलने के तरीके की बिल्कुल नकल तैयार की जा सकती है। इसके जरिए किसी के वीडियो या फोटो को इस तरह बदला जा सकता है कि वह देखने में पूरी तरह असली लगे, जबकि वह फर्जी या नकली होता है। इसे वीडियो, ऑडियो और फोटो तीनों फॉर्म में तैयार किया जा सकता है। सवाल- डीपफेक कितना खतरनाक है? जवाब- यह AI टेक्नीक बहुत खतरनाक है क्योंकि ये नकली वीडियो और फोटो इतने असली लगते हैं कि उन्हें पहचानना मुश्किल हो जाता है। इससे किसी की छवि खराब हो सकती है, झूठी खबरें फैल सकती हैं और लोग धोखे में पड़ सकते हैं। यह पर्सनल जीवन, समाज और राजनीति सभी के लिए बड़ा खतरा बन गया है। सवाल- डीपफेक वीडियो या फोटो कैसे बनाए जाते हैं? जवाब- डीपफेक वीडियो और फोटो बनाने के लिए आर्टिफिशियल इंटेलिजेंस (AI) और मशीन लर्निंग के साथ जेनरेटिव एडवर्सरियल नेटवर्क्स (GANs) का इस्तेमाल किया जाता है। इसके कुछ स्टेप्स हैं। जैसेकि- एन्कोडर और डिकोडर सवाल- आम लोग कैसे जान सकते हैं कि कोई वीडियो या फोटो डीपफेक है? जवाब- AI में लगातार होते अपडेट की वजह से वीडियो या फोटो को पहचाना मुश्किल हो चला है। हालांकि कुछ बेसिक बातों का ध्यान रखकर कुछ हद तक इसकी पहचान हो सकती है। इसे नीचे दिए ग्राफिक में देखिए- सवाल- डीपफेक के शिकार बनने की संभावना किन लोगों में ज्यादा होती है? जवाब- इसका शिकार आमतौर पर सेलिब्रिटी और प्रसिद्ध लोग (जैसे फिल्म स्टार, राजनेता, सोशल मीडिया इन्फ्लुएंसर) बनते हैं। इसके अलावा युवा, महिलाएं और लड़कियां जो लोग सोशल मीडिया पर ज्यादा एक्टिव होती हैं। उन्हें भी इससे खतरा है। सवाल- डीपफेक फोटो या वीडियो से हम खुद को कैसे बचा सकते हैं? जवाब- डीपफेक से खुद को बचाने के लिए सतर्कता और डिजिटल सावधानी बहुत जरूरी है। नीचे दिए गए उपाय अपनाकर आप अपनी तस्वीरों और पहचान की सुरक्षा कर सकते हैं। सवाल- भारत में डीपफेक के खिलाफ क्या कानून मौजूद हैं? जवाब- साइबर सिक्योरिटी और AI लॉ एक्सपर्ट डॉ. पवन दुग्गल बताते हैं कि भारत में फिलहाल डीपफेक जैसे AI-जनरेटेड फर्जी वीडियो, फोटो या ऑडियो के लिए कोई विशेष कानून नहीं है, लेकिन कई मौजूदा कानून और धाराएं ऐसे मामलों में इस्तेमाल की जा सकती हैं। ये कानून डिजिटल हैरेसमेंट, निजता के उल्लंघन, फर्जी जानकारी फैलाने और महिलाओं के खिलाफ साइबर अपराध जैसे मामलों को कवर करते हैं। भारत में डीपफेक से निपटने वाले प्रमुख कानून: भारत में डीपफेक से जुड़े अपराधों के लिए आईटी एक्ट, BNS और आईटी नियम 2021 का संयुक्त रूप से इस्तेमाल होता है। भविष्य में डीपफेक के लिए अलग से सख्त कानून लाने की मांग हो रही है। सवाल- डीपफेक का शिकार होने पर क्या करें? जवाब- डीपफेक का शिकार होने पर घबराएं नहीं, तुरंत इसकी शिकायत दर्ज कराएं। ………………… ये खबर भी पढ़िए… वीडियो कॉल पर गिरफ्तारी, जानिए क्या है 'डिजिटल अरेस्ट':फोन पर धमकी मिले तो क्या करें, जानें इस स्कैम से बचने के 5 तरीके साइबर फ्रॉड के नए तरीके ‘डिजिटल अरेस्ट’ के बारे में तो आपने सुना ही होगा। डिजिटलाइजेशन के इस दौर में यह सबसे खतरनाक और तेजी से बढ़ने वाला फ्रॉड है। यह ठगी का ऐसा जाल है, जिसमें आम नागरिक, प्रोफेशनल्स, बड़े बिजनेसमैन से लेकर छात्र-छात्राएं भी फंस रहे हैं। पूरी खबर पढ़िए...