पश्चिमी देश इस समय फ़ेक न्यूज़ की एक नई क़िस्म को परिभाषित करने की बहस में लगे हुए हैं. फ़िलहाल वहां इस क़िस्म को ‘डीपफ़ेक’ नाम दिया गया है. यह क्या है और पश्चिम इससे इतना डरा हुआ क्यों है, और भारत के लिहाज़ से यह शब्द क्यों महत्वपूर्ण होना चाहिए इस पर चर्चा करने से पहले नीचे दिए कुछ वीडियो देखते हैं.

Play
Play

इन दोनों वीडियो में अमेरिका के पूर्व राष्ट्रपति बराक ओबामा, वर्तमान राष्ट्रपति डोनाल्ड ट्रंप और रूस के राष्ट्रपति व्लादिमीर पुतिन अलग-अलग मुद्दों पर बात कर रहे हैं. अब अगर इनकी बस चार-पांच सेकंड की क्लिप दिखाकर आपसे कोई कहे कि ये तीनों व्यक्ति वे नहीं हैं जो आप समझ रहे हैं तो शायद एक पल के लिए आप उसे हैरानी से देखने लगें. हालांकि दोनों वीडियो आख़िर तक देखने के बाद यह साफ़ हो जाता है कि यहां ओबामा, ट्रंप और पुतिन असली नहीं हैं.

और यह कमाल है, या कहिए ‘बवाल’ है उस आधुनिक तकनीक का जिसे आर्टिफ़िशियल इंटेलिजेंस कहा जाता है. इस तकनीक के ज़रिए कई अंतरराष्ट्रीय नेताओं के फ़र्ज़ी वीडियो उन्हीं की शक्लों के साथ तैयार किए जा रहे हैं. पश्चिमी मीडिया इसे आने वाले वक़्त के लिए एक बड़ी चुनौती मान रहा है.

‘रिवेंज पॉलिटिक्स’ की आशंका

एडिटिंग टूल्स के ज़रिए वीडियो में किसी व्यक्ति के चेहरे की जगह किसी और का चेहरा लगाने का काम पहले भी होता रहा है. लेकिन आर्टिफ़िशियल इंटेलिंजेस के ज़रिए अब इस काम को इतनी बारीक़ी से अंजाम दिया जा रहा है कि एडिटिंग विशेषज्ञ भी एक बार के लिए चक्कर में पड़ जाते हैं. यही डीपफ़ेक के डर की एक बड़ी वजह है. बराक ओबामा का वीडियो देखकर इस डर को समझा जा सकता है. अमेरिकी विशेषज्ञों को आशंका है कि कहीं जल्द ही इन डीपफ़ेक वीडियो का इस्तेमाल चुनावों में न होने लगे.

वहीं, दुनियाभर की पॉर्न इंडस्ट्री में इस तकनीक का इस्तेमाल आम हो गया है. किसी व्यक्ति से बदला लेने के लिए उसका चेहरा किसी पॉर्न वीडियो में चिपका दिया जाता है. इसे रिवेंज पॉर्न कहा जाता है. डीपफ़ेक की शुरुआत में हॉलीवुड की कई नामी अभिनेत्रियां इस नई तकनीक का शिकार बन चुकी हैं. कुछ समय पहले बॉलीवुड से हॉलीवुड पहुंचीं अभिनेत्री प्रियंका चोपड़ा भी इसका शिकार हुई थीं. लेकिन जल्दी ही बड़े नेता भी इसकी चपेट में आने लगे. डोनाल्ड ट्रंप और व्लादिमीर पुतिन का वीडियो इसका उदाहरण हैं. वहीं, बराक ओबामा का वीडियो डीपफ़ेक के ख़तरे से आगाह करने के मक़सद से बनाया गया था.

विशेषज्ञों से एक क़दम आगे

डीपफ़ेक से जुड़ी एक बड़ी दिक़्क़त यह है कि फ़ेसबुक, ट्विटर, वॉट्सएप, इंस्टाग्राम और यूट्यूब जैसे बड़े सोशल मीडिया प्लेटफ़ॉर्म इस समस्या को लेकर उम्मीद के मुताबिक़ सतर्क नहीं दिखते. यहां इस विषय पर लोगों को जागरूक किए जाने की कोशिशें नहीं हो रही हैं. हालांकि ऐसा नहीं है कि ये प्लेटफ़ॉर्म कुछ भी नहीं कर रहे. सीएनएन की एक रिपोर्ट के मुताबिक़ फ़ेसबुक विशेषज्ञों के साथ मिलकर इस दिशा में काम कर रहा है कि कैसे इन वीडियो को रोका जा सकता है. गूगल भी अपने स्तर पर विशेषज्ञों से संपर्क कर रहा है. लेकिन तकनीक की इस लड़ाई में फ़िलहाल डीपफ़ेक जीतता दिख रहा है. रिपोर्ट के मुताबिक़ डेवलेपर्स इस तकनीक को और संपन्न बना रहे हैं ताकि उनके वीडियो और ज़्यादा असली लगें.

फ़ेक न्यूज़ से बड़ा ख़तरा

डीपफ़ेक वीडियो कितने ख़तरनाक हो सकते हैं इसका अंदाज़ा इसी बात से लगाया जा सकता है कि पश्चिम इसे फ़ेक न्यूज़ से ज़्यादा बड़ा ख़तरा मान रहा है. आज कल फ़ेक न्यूज़ का सच बताने वाली कई वेबसाइटें दुनियाभर में काम कर रही हैं. जानकार बताते हैं कि इसका थोड़ा बहुत असर हुआ है. लेकिन डीपफ़ेक का जल्द ही कोई समाधान ढूंढना मुश्किल है. ऐसा इसलिए क्योंकि यह तकनीक किसी नए वायरस की तरह है जिसकी दवाई फ़िलहाल अमेरिका जैसे विकसित देश के पास भी नहीं है. वहीं, ज़्यादातर देश के लोग तो इस बारे में जानते तक नहीं. अगर उनके यहां डीपफ़ेक वीडियो वायरल होना शुरू हो जाएं तो लोग उन्हें सच मानते हुए हाथोंहाथ लेंगे. जानकार तो यहां तक कहते हैं कि अगले एक साल में यह तकनीक इतनी आगे बढ़ जाएगी कि असली-नक़ली वीडियो को पहचानना लगभग नामुमकिन हो जाएगा.

डीपफ़ेक के ख़तरे से आगाह करते हुए सोशल मीडिया विशेषज्ञ सैम वूली बताते हैं, ‘कई प्लेटफ़ॉर्म नग्नता के संदर्भ में नियमों पर ज़ोर देते हैं. लेकिन डीपफ़ेक को लेकर उनके यहां कोई दिशा-निर्देश नहीं हैं.’ वूली का कहना है कि इससे ग़ैरज़रूरी जीआईएफ़ (ग्राफ़िक इंटरचेंज फ़ॉर्मेट - चंद सेकंडों वाले वीडियो जिनका इस्तेमाल व्यंग्य करने के लिए किया जाता है) में बढ़ोतरी होगी. उदाहरण के लिए किसी बड़े नेता या व्यापारी की किसी स्थिति को ग़लत तरीक़े से पेश किया जा सकता है, या सैनिकों को युद्ध अपराध करते दिखाया जा सकता है. वूली के मुताबिक़ डीपफ़ेक से समाज और लोकतंत्र को ज़्यादा बड़े पैमाने पर नुक़सान हो सकता है.

एल्गोरिदम से समाधान?

हालांकि अमेरिकी रक्षा विभाग का मुख्यालय पेंटागन इस समस्या से निपटने का तरीक़ा निकाल सकता है. वह ऐसे तरीक़े (टूल्स) विकसित करने की कोशिश कर रहा है जिनके ज़रिए डीपफ़ेक वीडियो और दूसरी भ्रामक तस्वीरों का पता लगाया जा सके. इस काम में लगे विशेषज्ञों का कहना है कि जिस तरह बायोमेट्रिक डेटा के विश्लेषण के लिए एल्गोरिदम (किसी काम को करने का क्रम) का सहारा लिया जाता है, उसी से डीपफ़ेक वीडियो को भी पहचाना और पकड़ा जा सकता है.

कार्नेजी मेलन यूनिवर्सिटी की सत्या विनेती को इसमें आंशिक सफलता मिली है. वे बताती हैं कि बात करते समय लोगों के माथे, गालों और गले में ख़ून का बहाव कम-ज़्यादा होता है. लेकिन फ़र्ज़ी वीडियो में शरीर में ख़ून के बहाव से जुड़े सिग्नल व्यापक रूप से भिन्न होते हैं.

सत्या ने डेमोंस्ट्रेशन के लिए कुछ वीडियो बनाए और फिर उनका डीपफ़ेक वर्जन तैयार किया. उन्होंने पाया कि असली चेहरे पर नक़ली तस्वीरों की ओवरलैपिंग की वजह से मशीन में दर्ज हुई हृदय गति में अंतर देखने को मिला. किसी-किसी केस में गालों के विश्लेषण से पता चला कि हृदय प्रति मिनट 57 से 60 बार धड़का, जबकि माथे के विश्लेषण से हृदय गति 108 पता चली. सत्या ने कहा कि सामान्यतः इतना अंतर नहीं होता. ऐसा असली वीडियो में दिख रहे शख़्स के चेहरे पर किसी और की तस्वीर लगाने से होता है. लेकिन बात वही है कि इतना ज़्यादा विश्लेषण करने की रुचि और समय विशेषज्ञों के पास है, आम लोगों के पास नहीं.

एक और विशेषज्ञ सिवे ल्यू ने बताया कि आंखों की झपकियों पर ग़ौर करके भी डीपफ़ेक का पता लगाया जा सकता है. वे कहते हैं, ‘अगर 30 सेकंड के वीडियो में व्यक्ति एक बार भी आंख नहीं झपकाता तो वह वीडियो संदिग्ध है.’ हालांकि ल्यू ने बताया कि इस बारे में उनका लेख प्रकाशित होने के बाद डीपफ़ेक डेवलेपर्स ने इस कमी को दूर कर लिया. अब वे ऐसे वीडियो को पहचानने के नए तरीक़ों पर काम कर रहे हैं.

भारत के लिए बेहद ख़तरनाक

भारत के संदर्भ में डीपफ़ेक कितना ख़तरनाक हो सकता है इसका अंदाज़ा लगाना मुश्किल नहीं है. हमारे यहां वैसे भी आजकल अफ़वाह भर से लोगों की जान ली जा रही है. बड़ी संख्या में लोग सच जानने से पहले ही भड़कते दिख रहे हैं. इसकी एक वजह यह भी है कि समाज और सरकारों के पास इन लोगों की समस्याओं का हल नहीं है. इनमें से ज्यादातर बेरोज़गार युवा हैं जो अपनी कुंठाओं से मुक्त होने के लिए आतुर हैं. ये एक बड़ी भीड़ का हिस्सा हैं और बीते समय में ऐसे कई मौके आए जब फ़र्ज़ी खबरों ने इन्हें उकसाया है और इससे देश के कई इलाक़ों में अराजकता फैली है.

भारत में सामाजिक व राजनीतिक स्तर पर इस समस्या का हल अभी तक नहीं ढूंढा जा सका है और ज़ाहिर है कि ऐसे में यहां डीपफ़ेक कहीं ज्यादा बड़ी चुनौती बन सकता है. देश में अगले साल लोक सभा चुनाव होने हैं. चूंकि अमेरिका जैसा विकसित समाज भी डीपफ़ेक के जरिए चुनावों को प्रभावित करने की आशंका से डरा हुआ है, तो भारत के लिए भी यह चिंता स्वभाविक ही होनी चाहिए. फ़िलहाल तो इस समस्या का हल सिर्फ़ जागरूकता है और यह तभी हो सकता है जब सरकार और सत्ताधारी पार्टियों से लेकर विपक्षी पार्टियां तक एकसुर में इस ख़तरे के प्रति जनता को आगाह करें.