Twitter
Advertisement
  • LATEST
  • WEBSTORY
  • TRENDING
  • PHOTOS
  • ENTERTAINMENT

DNA TV Show: पीएम मोदी भी Deep Fake से चिंता में, कैसे बन गई है ये तकनीक मुसीबत, क्यों बढ़ी इससे AI को लेकर चिंता

Deep Fake Video: तस्वीरों से छेड़छाड़ करने का काम सालों से होता आ रहा है, लेकिन आर्टिफिशियल इंटेलिजेंस (AI) ने इसे दूसरे ही लेवल पर पहुंचा दिया है. Deep Fake Video के कारण अब असली-नकली का भेद करना ही संभव नहीं हो पा रहा है.

article-main

DNA TV SHOW

FacebookTwitterWhatsappLinkedin

डीएनए हिंदी: Deep Fake Video Controversy- आपको याद होगा कि 5-10 वर्ष पहले तक, तस्वीरों से छेड़छाड़ की कई खबरें आती थीं. ऐसे हजारों मामले आते थे, जिनमें किसी तस्वीर को Photoshop करके, उसमें मन माफिक बदलाव कर दिया जाता था. कभी किसी तस्वीर में चेहरा बदल दिया जाता था, तो कभी किसी Certificate का Data बदल दिया जाता था. उस दौर में अगर इस तरह के Fraud की गंभीरता को समझा गया होता, या कार्रवाई की जाती तो शायद, आज हम Deep Fake Videos जैसी बड़ी समस्या से बच जाते. लेकिन आज Deep Fake Videos हमारे इस समाज की एक बड़ी समस्या बन चुका है. किसी और के वीडियो पर किसी अन्य का चेहरा लगा देना, कुछ लोगों को मनोरंजक लगता होगा. लेकिन जिनके साथ ऐसा किया जाता है, वो इसे अपनी privacy का उल्लंघन मानते हैं और सच यही है कि किसी भी व्यक्ति का deep Fake videos बनाना गलत है. तकनीक का यह दुरुपयोग कितना बड़ा हो गया है, इसका अंदाजा ऐसे लगाया जा सकता है कि प्रधानमंत्री नरेंद्र मोदी को भी इसे लेकर भरे मंच से चिंता जतानी पड़ी है.

रश्मिका मंदाना और काजोल के वीडियो से ज्यादा उछला मामला

Deep Fake Video पिछले कुछ समय से सामने आ रहे हैं, लेकिन तकनीक के इस दुरुपयोग का मसला अब ज्यादा उछला है. पहले अभिनेत्री रश्मिका मंदाना और इसके बाद अब अभिनेत्री काजोल का Deep Fake वीडियो वायरल हो रहा है, जिसमें वो कपड़े बदलते नजर आ रही हैं. ये वीडियो आपत्तिजनक है, इसलिए हम आपको ये नहीं दिखा सकते हैं. पहली बार में देखने पर वीडियो में काजोल ही नजर आती हैं, लेकिन काजोल को इससे पहले, इस तरह के वीडियोज़ में नहीं देखा गया. वो कैमरे के सामने कपड़े बदलते हुए वीडियो बनाती नहीं देखी गई हैं. इसलिए इस वीडियो को लेकर लोगों को संदेह हुआ. वीडियो को सामान्य नजर से देखें तो ये काजोल ही लगती हैं, लेकिन ऐसा नहीं है.

काजोल के वीडियो को ध्यान से देखने पर खुलती है पोल

काजोल के वायरल वीडियो को ध्यान से देखने पर ये संदेह हो जाता है कि ये DEEP FAKE वीडियो है. जिस लड़की के शरीर पर काजोल का चेहरा Deep Fake तकनीक से लगाया गया है, उसका नाम है Rosie Breen. Rosie Breen, Social Media Influencer हैं. Rosie का जो वीडियो इस्तेमाल किया गया है, वो उनके Tiktok Platform पर डाला गया था. ये वीडियो Social Media Trend 'Get Ready With Me' के लिए बनाया गया था, जिसका इस्तेमाल काजोल का चेहरा लगाकर किया गया. काजोल जैसी सम्मानित अभिनेत्री के लिए इस तरह के वीडियो बनाना, उनकी मानहानि से भी जुड़ा मामला है. हो सकता है कि ये वीडियो उनको अपमानित करने के मकसद से बनाया गया था.

क्यों बढ़ रही है ऐसे वीडियो से ज्यादा चिंता

Deep Fake वीडियो बनाने वाले कुछ लोगों को ये मजेदार लगता होगा. वो मानते होंगे कि इस तरह के वीडियोज़ से लोगों का मनोरंजन होता है, लेकिन इस तरह के वीडियो बनाने के कुछ घातक परिणाम भी हो सकते हैं. अपराधी Deep Fake Videos का दुरुपयोग कर सकते हैं.

  • इस तरह के वीडियो से महिलाओं का शोषण होता है. रश्मिका मंदाना और काजोल, इसका बड़ा उदाहरण हैं.
  • Deep Fake Videos से किसी व्यक्ति की पहचान चुराई जाती है, जो कि गलत है.
  • ऐसे वीडियोज़ Hate Speech से फैले तनाव की वजह बन सकते हैं. 
  • किसी समुदाय के बारे में भड़काऊ बातें किसी Celebrity के Deep Fake से बुलवा देना, घातक साबित हो सकता है.
  • Deep Fake की मदद से Fake News भी फैलाई जा सकती है. News Anchor को झूठी खबर बताते हुए Deep Fake Video आने पर, लोगों के लिए सही और गलत का फर्क समझना मुश्किल हो जाएगा.
  • चुनावों में Deep Fake वीडियो की मदद से लोगों में भ्रम फैलाया जा सकता है. ये भी काफी खतरनाक साबित हो सकता है.

स्थिति ये है कि इस वक्त किसी भी Celebrity का Deep Fake वीडियो आपको मिल सकता है. यही नहीं देश के प्रधानमंत्री नरेंद्र मोदी के भी कई Deep Fake Video और Audio, सोशल मीडिया पर फैले हुए हैं. यही वजह है कि Deep Fake को लेकर केंद्र सरकार भी चिंतित है. आज प्रधानमंत्री नरेंद्र मोदी ने भी Deep Fake के दुरुपयोग को लेकर चिंता जताई.

AI ने आसान कर दी ये धोखेबाजी

आज के समय में artificial Intelligence इस कदर high tech हो चुका है कि किसी की भी फोटो से चंद मिनटों में Deepfake वीडियो बनाई जा सकती है. Deepfake तकनीक के जरिए किसी की भी आवाज की हुबहू copy की जा सकती है. AI के जरिए आवाज़ की copy कर आजकल साइबर ठग लोगों को चूना भी लगा रहे हैं. Deepfake एक तरह का Synthetic media है. इसमें AI का उपयोग करके मौजूदा photo या video में मौजूद किसी व्यक्ति को किसी और की फोटो से बदल दिया जाता है. AI का उपयोग करके किसी भी शख्स की आवाज को copy कर हुबहू आवाज भी बना ली जाती है. AI की वजह से Fake Video को पहचान पाना लोगों के लिए बहुत मुश्किल होता है और वो आसानी से किसी trap में फंस सकता है.

इसे और सरल शब्दों में बताएं तो Deepfake term का मतलब है ऐसी तस्वीरें या Video जिसमें चेहरा तो आपका दिखेगा, लेकिन असल में वो आप नहीं होंगे. अब हम आपको उदाहरण के तौर पर विश्व की कुछ बड़े नेताओं और Celebrties के DEEP FAKE वीडियोज दिखाने जा रहे हैं. यकीन मानिए आपमें से बहुत लोगों को असली और नकली का फर्क नहीं मालूम पड़ेगा.

रश्मिका मंदाना का भी वायरल हुआ था वीडियो

Social Media पर कुछ दिनों पहले एक लड़की का वीडियो बहुत वायरल हुआ था. इस वीडियो में वो लड़की एक लिफ्ट में दाखिल होती है. उस महिला ने one piece swimsuit पहना हुआ था. ये लड़की हूबहू दक्षिण भारतीय फिल्मों की अभिनेत्री रश्मिका मंदाना जैसी नजर आती है. पहली बार जब ये video social media पर वायरल हुआ, तब लोगों को यही लगा कि रश्मिका मंदाना, Swimsuit में लिफ्ट में दिखी हैं. लेकिन सच्चाई ये थी कि वीडियो में दिखने वाली लड़की कोई और थी, वो रश्मिका मंदाना नहीं थीं. उस लड़की के वीडियो को AI की Deepfake technology की मदद से बिल्कुल रश्मिका जैसा दिखाया गया था यानि चेहरा किसी और का और शरीर किसी और का.

इस Video को अगर आप बहुत करीब से देखेंगे तो ही आपको इसकी सच्चाई पता चलेगी. जब महिला बंद हो रहे lift के दरवाजे से निकलने की कोशिश करती है, तब किसी और के चेहरे से लेकर रश्मिका के चेहरे तक का बदलाव नजर आता है. ये सब इतने आराम से हो जाता है कि एक आम इंसान आसानी से नहीं समझ सकता.

ब्रिटिश महिला ने दिखाया Deep Fake का खेल

अब मैं आपको दो video एक साथ दिखाता हूं, जिसे देखकर आपको पता चलेगा कि artifical Intelligence का कैसे गलत इस्तेमाल कर एक अन्य महिला के चेहरे पर अभिनेत्री रश्मिका मंदाना का चेहरा लगा दिया गया. Original video एक ब्रिटिश-भारतीय महिला ज़ारा पटेल का हैं. कुछ दिन पहले अपने इस वीडियो को ज़ारा पटेल ने खुद Instagram पर upload किया था, जबकि दूसरा video Deepfake है, जिसमें ज़ारा पटेल के चेहरे पर मंदाना का चेहरा लगा दिया गया.

Social Media के फोटोज के गलत इस्तेमाल का खतरा

आजकल हर कोई social media का इस्तेमाल करता है, social media पर लोग अपनी photos या Videos शेयर करते हैं। Facebook हो या Instagram या फिर WhatsApp. हर कोई अपनी DP लगाता है. आपने भी लगाई होगी, बस इसी बात का फायदा Deepfake video बनाने वाले करते है.

Deepfake video बनाने के लिए सिर्फ 5 या उससे ज्यादा तस्वीरों की जरूरत होती है. Artificial Intelligence इन तस्वीरों की Study करके इन्हें Software की शक्ल में Store कर लेता है. ये काम इस तरह से किया जाता है, कि जिसके चेहरे का इस्तेमाल किया गया है और जिसकी video पर लगाया गया है. उन दोनों को ही इसका पता नहीं चलता. अगर कुछ छोटे कदम उठाएं तो काफी हद तक आप Deep Fake से बच सकते हैं.

  • कोशिश करें कि Social Media पर अपनी एक तरह की कई Photos, या वीडियो ना डालें.
  • फिर अपनी Social media Setting, Public ना करके Private रखें, ताकि केवल आपके दोस्त ही तस्वीरें या Videos देख सकें.

कैसे कर पाएं असली और डीप फेक वीडियो में फर्क

अब सवाल ये है कि असली और Deep Fake वीडियो में पहचान कैसे करेंगे तो expert ने कुछ तरीके बताए हैं, लेकिन इसके लिए आपको हर वीडियो को ध्यान से देखना होगा. क्योंकि अगर आप ध्यान से देखेंगे तो आपको Deep Fake Videos में दिखने वाले व्यक्ति के

  • चेहरे हावभाव और पलकें झपकने के pattern में अंतर नजर आएगा। ध्यान से देखने पर आपको कुछ गड़बड़ी का अहसास हो जाएगा.
  • lip-synching यानी शब्दों और होंठों के हिलने-डुलने में अंतर साफ नजर आएगा.
  • Deep Fake Videos में जो चेहरे दिखाई देते हैं, उनके चेहरे की रंगत भी बदलती रहती है यानी Skin Tone लगातार बदलता दिखाई देता है.
  • Deep Fake Videos में आमतौर पर शरीर और चेहरे की बनावट में काफी अंतर नजर आएगा, यानी चेहरे और शरीर का कुदरती अनुपात बिगड़ा हुई दिखाई देता हैं.
  • Deep Fake Videos में अक्सर Body Movements यानी शरीर की चाल-ढाल में भी फर्क दिखा देता है. व्यक्ति झटके लेते हुए चलता हुआ दिखाई देता है.
  • Deep Fake videos में व्यक्ति की परछाई में भी गड़बड़ दिखाई देती है. उसमें भी झटके महसूस होते नजर आते हैं.

इसीलिए कभी भी अगर आपके पास कोई Video आया है, तो उसे ध्यान से देखना जरूरी है. हो सकता है कि वो वीडियो Deep Fake हो. अगर आगे कभी आपके किसी जानकार की video आपको मिले तो आप उसे भी जागरूक करें.

ऑनलाइन भी चेक कर सकते हैं वीडियो

कई websites भी हैं जो DEEP FAKE VIDEO की पहचान करने में आपकी मदद कर सकती हैं, जैसे Deepfakedetecter.com, deepware.com या फिर अमेरिका की MIT यूनिवर्सिटी की media lab का Detect deep Fakes भी इसमें आपकी मदद कर सकता है. इसलिए आगे से अगर आपके पास कोई VIDEO आता है, या फिर आप social media पर कोई ऐसा VIDEO देखते हैं, तो उसे पारखी नजर से जरूर देखिए. आपको ये भी सोचना चाहिए कि अगर कोई VIDEO किसी ऐसे व्यक्ति का है, जो इस तरह के VIDEO में पहले नहीं दिखाई दिया है, तो भी आपके मन में संदेह जरूर होना चाहिए. इसलिए अगली बार अगर कोई VIDEO आपको दिखे, तो उसे ध्यान से देखिए.

सजा भी मिल सकती है ऐसे वीडियो बनाने पर

Deep Fake Video बनाने वालों को ये मनोरंजन लग सकता है, लेकिन आपको ये बता दें कि इस तरह के मामलों में सज़ा का भी प्रावधान है. IT ACT 2000 के तहत DEEP FAKE वीडियो बनाने पर आपराधिक मामला दर्ज किया जा सकता है.

  • इस तरह के मामलों को व्यक्ति की निजता का हनन माना जाता है.
  • इस मामले में IT ACT के सेक्शन 66 D के तहत 3 वर्ष तक की सज़ा हो सकती है.
  • इसके अलावा Social Media Platform पर शिकायत दर्ज करने पर कंपनी को 24 घंटे में वीडियो हटाना होता है.
  • इस तरह के अपराधन में IPC के सेक्शन 499, 500 के तहत भी मामला दर्ज किया जा सकता है.
  • इस तरह के वीडियो को मानहानि से भी जोड़कर देखा जाता है.

अब आप समझ गए होंगे कि अगर आप मनोरंजन के लिए भी Deep Fake बना रहे हैं, तो सावधान रहिए. क्योंकि मनोरंजन के नाम पर जो Deep Fake आप बना रहे हैं, वो आपको जेल भी पहुंचा सकते हैं.

देश-दुनिया की ताज़ा खबरों Latest News पर अलग नज़रिया, अब हिंदी में Hindi News पढ़ने के लिए फ़ॉलो करें डीएनए हिंदी को गूगलफ़ेसबुकट्विटर और इंस्टाग्राम पर.

Advertisement

Live tv

Advertisement

पसंदीदा वीडियो

Advertisement