इस साल मई में, वाशिंगटन डीसी में संयुक्त राज्य अमेरिका (यूएस) के रक्षा विभाग के मुख्यालय, पेंटागन के पास एक विस्फोट को दिखाती एक नकली तस्वीर सोशल मीडिया अकाउंट्स पर जमकर साझा की गई थी, इनमें कुछ ऐसे अकाउंट्स भी शामिल थे जो सत्यापित यानी कि वेरिफ़ाइड अकाउंट थे. इस तस्वीर के साथ एक रिपोर्ट भी साझा की जा रही थी और भारत में मुख्यधारा टीवी के कई समाचार चैनलों पर इसे प्रसारित भी कर दिया गया था. बाद में पता चला कि तस्वीर शायद जेनरेटिव आर्टिफिशियल इंटेलिजेंस (एआई) का इस्तेमाल कर बनाई गई थी, जो पाठ्य भाग (टेक्स्ट), फ़ोटो, ऑडियो और सिंथेटिक डाटा जैसी असली लगने वाली सामग्री को तैयार कर सकता है. हालांकि, यह पहली बार नहीं है जब जेनरेटिव एआई ने धूम मचाई हो.
जेनरेटिव एआई के उपयोग के बारे में विशेष रूप से चिंताजनक है "डीप फ़ेक", जो मानव चेहरे की विशेषताओं और अभिव्यक्तियों को दोहराकर असली दिखने वाले वीडियो बना सकता है.
जेनरेटिव एआई के उपयोग के बारे में विशेष रूप से चिंताजनक है "डीप फ़ेक", जो मानव चेहरे की विशेषताओं और अभिव्यक्तियों को दोहराकर असली दिखने वाले वीडियो बना सकता है. 2019 में, गैबॉन के राष्ट्रपति, अली बोंगो के एक डीप फ़ेक वीडियो ने उनकी शासन करने की योग्यता पर सवाल उठा दिए और इस अफ्रीकी देश की सेना को तख़्ता-पलट करने के लिए तैयार कर दिया. हालांकि, यह कोशिश नाकाम रही लेकिन डीप फ़ेक वीडियो ने ग़लत जानकारियों को तैयार करने की एआई की क्षमता और राष्ट्रीय सुरक्षा और कानून व्यवस्था पर पड़ने वाले इसके गंभीर असर को दर्शाया.
रूस-यूक्रेन के बीच जारी संघर्ष एक ऐसा सक्रिय क्षेत्र बन गया है, जहां डीप फ़ेक को लेकर जमकर प्रयोग किए जा रहे हैं और उनका इस्तेमाल भी हो रहा है. मार्च 2022 में, यूक्रेनी राष्ट्रपति वोलोदिमीर जेलेंस्की का अपने सैनिकों को आत्मसमर्पण करने के लिए कहता हुआ, एक डीप फ़ेक वीडियो वायरल हो गया. हालांकि, वीडियो का स्तर बहुत परिष्कृत नहीं था, जिससे इसे नकली के रूप में पहचान पाना आसान हो गया था. इसी तरह, एक डीप फ़ेक वीडियो जिसमें रूसी राष्ट्रपति व्लादिमीर पुतिन अपने सैनिकों से हथियार डालने और घर जाने का आग्रह करते दिख रहे हैं, वह भी ट्विटर (अब ‘एक्स’) पर वायरल हो गया था. ज़मीन से विश्वसनीय रिपोर्टिंग की अनुपस्थिति में, इस तरह के डीप फ़ेक वीडियो दोनों पक्षों के नागरिकों के लिए अराजकता और भ्रम का कारण बने. उन्होंने सैन्य अभियानों के आस-पास भ्रम और अनिश्चितता भी फैलाई.
ग़लत जानकारी को मिल रहा प्रौद्योगिकी से बढ़ावा
डिसइंफॉर्मेशन, या जानबूझकर ग़लत जानकारी और अफ़वाहों का प्रसार, जिसका उद्देश्य जनमत को प्रभावित करना या सच्चाई को धुंधला करना है, एक बड़ी चुनौती बनकर उभरा है, ख़ासतौर पर मौजूदा लोकतांत्रिक समाजों के लिए. राजनीतिक लोग तो अपने राजनीतिक एजेंडे को आगे बढ़ाने के लिए घरेलू राजनीति में इसका इस्तेमाल कर ही रहे हैं, प्रतिद्वंद्वी राज्यों ने भी अपने ‘हाइब्रिड युद्ध’ या ‘ग्रे ज़ोन रणनीति’ के एक प्रमुख घटक के रूप में भी इसका लाभ उठाया है. यूरोपीय संघ (ईयू) ने इस प्रक्रिया की विस्तार से व्याख्या की है और इसे विदेशी सूचना हेर-फेर हस्तक्षेप’ (फॉरेन इंफॉर्मेशन मैनिपुलेशन इंटरफ़ेस- एफ़आईएनआई) कहा है, इसमें 'अंत', यानी, गुमराह करने वाले व्यवहार पर ज़ोर दिया गया है, ‘साधनों’ के बजाय, यानी कि जो सामग्री पहुंचाई गई है उसकी सत्यता पर.
हाल ही में एआई (AI) में हुए तकनीक़ी विकास, जैसे कि डीप फ़ेक और भाषा मॉडल पर आधारित चैटबॉट जैसे कि चैट जीपीटी, ने डिसइंफॉर्मेशन को बढ़ावा देने में मदद की है. तकनीक़ी समुदाय से इतर, ये उपकरण अब आम इंटरनेट उपयोगकर्ताओं के लिए सुलभ होने लग गए हैं. इसने साज़िश सिद्धांतकारों (कॉन्सिपिरेसी थ्योरी या षडयंत्र सिद्धांत, किसी घटना के सामान्य स्पष्टीकरण को ख़ारिज करता है और मानता है कि घटना के पीछे किसी गुप्त समूह या संस्था की गुप्त साज़िश है) और डिसइंफॉर्मेशन के प्रसारकों को झूठी सामग्री और भ्रामक कहानियां जल्दी और सस्ते में तैयार करने में सक्षम बनाया है. यूरोपोल का अनुमान है कि 2026 तक, 90 प्रतिशत ऑनलाइन सामग्री एआई-जनित होगी और उसमें हेर-फेर होगा.
हाल ही में एआई (AI) में हुए तकनीक़ी विकास, जैसे कि डीप फ़ेक और भाषा मॉडल पर आधारित चैटबॉट जैसे कि चैट जीपीटी, ने डिसइंफॉर्मेशन को बढ़ावा देने में मदद की है. तकनीक़ी समुदाय से इतर, ये उपकरण अब आम इंटरनेट उपयोगकर्ताओं के लिए सुलभ होने लग गए हैं.
डीप फ़ेक सामग्री के उदय ने सूचना परिदृश्य के गतिविज्ञान को बदल दिया है, इसने सूचनाओं के अतिप्रवाह से प्रमाणिक जानकारियों के प्रवाह को दबा दिया है. यह उस स्थिति की ओर ले जा सकता है, जिसे विशेषज्ञ कहते हैं- ‘झूठे को मिलने वाला फ़ायदा’ (लायर्स डिविडेंड- झूठी जानकारी फैलाने वालों को मिलने वाले फ़ायदे को कहा जाता है, जो ऐसे वातावरण की वजह से होता है जहां बहुत सी झूठी या ग़लत जानकारियां होती हैं और इसलिए यह स्पष्ट नहीं होता कि क्या वास्तविक है और क्या झूठ). डीप फ़ेक के बारे में बढ़ती जागरूकता एक शंकालु आबादी को एक वास्तविक वीडियो की प्रामाणिकता पर सवाल उठाने के लिए प्रेरित करेगी, जिससे अपराधियों के लिए न्याय से बचना आसान हो जाएगा. अमेरिका में 6 जनवरी, 2021 को हुए कैपिटल हिल दंगों के अपराधियों ने कानूनी कार्यवाही के दौरान वीडियो सबूत को एआई जनित बताते हुए इसी तरह का लाभ उठाने की कोशिश की थी, हालांकि उसका कोई फ़ायदा नहीं हुआ. सोशल मीडिया के माध्यम से व्यापक पहुंच के साथ, डीप फ़ेक स्थितिजन्य जागरूकता को प्रभावित कर सकते हैं और विशेष रूप से संकट के समय में निर्णय लेने की क्षमता को ख़तरे में डाल सकते हैं. ऐसे में अचरज की बात नहीं है कि एआई शोधकर्ता उन्नत एआई प्रणालियों के विकास को रोकने का आह्वान कर चुके हैं.
चीन की एआई-सक्षम डिसइंफॉर्मेशन में बढ़त
अधिनायकवादी शासनों ने विशेष रूप से लोकतंत्रों को लक्षित करने के लिए डिसइंफॉर्मेशन का लाभ उठाया है. जैसा कि अपेक्षित था, जनवादी गणराज्य चीन ने अपने प्रचार अभियानों का विस्तार करने के लिए एआई-आधारित उपकरणों का उपयोग करने में बढ़त ली है.
पिछले कुछ वर्षों में, चीन ने एआई में भारी निवेश किया है और उसका इरादा है कि 2030 तक वह इस क्षेत्र में दुनिया भर में सबसे आगे हो जाए और बाद में इसे सैन्य क्षेत्र में भी शामिल कर ले. बिना बल प्रयोग के दुश्मन को वश में करने के अपने प्रयास में, चीन ने ‘बुद्धिमानी से युद्ध’ की अवधारणा विकसित की है, जो प्रतिद्वंद्वी की ज्ञान-संबंधी क्षमता को निशाना बनाता है. डीप फ़ेक तकनीक़ का सैन्य सिद्धांतों में एकीकरण उसके इस लक्ष्य को मज़बूत करता है. ताइवान के राष्ट्रीय सुरक्षा ब्यूरो के निदेशक, साई मिंग-येन (Tsai Ming-yen) ने पहले ही ‘संज्ञानात्मक युद्ध’ के एक भाग के रूप में ताइवान में अराजकता फैलाने के लिए चीनी कम्युनिस्ट पार्टी (सीसीपी) द्वारा डीप फ़ेक के संभावित उपयोग के बारे में चिंताओं को उठाया है.
अधिनायकवादी शासनों ने विशेष रूप से लोकतंत्रों को लक्षित करने के लिए डिसइंफॉर्मेशन का लाभ उठाया है. जैसा कि अपेक्षित था, जनवादी गणराज्य चीन ने अपने प्रचार अभियानों का विस्तार करने के लिए एआई-आधारित उपकरणों का उपयोग करने में बढ़त ली है.
चीन की डीप फ़ेक-से तैयार डिसइंफॉर्मेशन के उपयोग का एक प्रमुख उदाहरण है, सीसीपी के हितों और अमेरिका विरोधी प्रचार को बढ़ावा देने के लिए एआई-जनित समाचार एंकरों का उपयोग करना. पिछले साल ‘वुल्फ़ न्यूज़’ के बैनर तले दिखाई दी गई दो वीडियो में, इन एंकरों ने घरेलू बंदूक हिंसा के प्रति अमेरिकी सरकार की कथित रूप से कमज़ोर प्रतिक्रिया और यूएस-चीन के प्रमुखों के एक शिखर सम्मेलन के सकारात्मक परिणामों के महत्व जैसे मुद्दों पर चर्चा की. ये एंकर एक ब्रिटिश फर्म, सिंथेसिया द्वारा प्रदान किए गए एक एआई वीडियो साधन के माध्यम से तैयार किए गए थे. हालंकि वीडियो ने ऑनलाइन ज़्यादा तनाव तो पैदा नहीं किया, लेकिन इसने सीसीपी के डिसइंफॉर्मेशन को फैलाने के उद्देश्यों से व्यावसायिक रूप से उपलब्ध एआई वीडियो-जेनेरेशन टूल्स के दुरुपयोग को रेखांकित किया.
भारत के लिए प्रासंगिकता
भारत ने अभी तक चीन या सीसीपी से जुड़े तत्वों द्वारा निर्मित कोई डीप फ़ेक वीडियो नहीं देखा है. हालांकि, यह बस समय की बात हो सकती है.
जून 2020 में गलवां घाटी में झड़प के बाद से चीन और पीपुल्स लिबरेशन आर्मी (पीएलए) की ओर से भारत विरोधी प्रचार में तेज़ बढ़ोत्तरी हुई है. विशेष रूप से, एक्स (पहले ट्विटर) चीन से जुड़े तत्वों के लिए इस दुष्प्रचार- जो गलवां झड़प से संबंधित भ्रामक ख़बरों को आगे बढ़ाने, अपने क्षेत्रीय दावों को आक्रामक रूप से आगे बढ़ाने और भारत की सैन्य तैयारियों पर विवाद करने पर केंद्रित है- को आगे बढ़ाने का एक पसंदीदा उपकरण बन गया है, कुछ मामलों में, उनके प्रयासों को पाकिस्तानी ट्विटर ट्रोलों द्वारा बढ़ावा दिया गया था, जिन्होंने अपने स्वयं के नेटवर्कों में इस प्रचार को बढ़ाया. हाल ही में, गलवां झड़प की तीसरी वर्षगांठ से पहले, चीनी हैंडल ने अप्रिय तस्वीरें और वीडियो पोस्ट किए, जिससे भारतीय सेना को ख़राब रोशनी में दिखाने का प्रयास किया गया.
इसके अलावा, एक यूएस-आधारित डाटा विश्लेषण फ़र्म, न्यू किट डाटा लैब्स ने हाल ही में दावा किया है कि बीजिंग स्थित एक निजी एआई फर्म, स्पीच ओशन, जिसके ग्राहकों में पीएलए से जुड़े लोग भी हैं, भारत से आवाज़ के नमूने एकत्र कर रही है, जो मुख्य रूप से पंजाब और जम्मू और कश्मीर जैसे संवेदनशील सीमा क्षेत्रों से हैं. फ़र्म का कहना है कि स्थानीय लोगों को पहले से लिखे गए शब्दों, वाक्यांशों या वार्तालापों को रिकॉर्ड करने के लिए काम पर रखा गया है, जिन्हें फिर चीन-आधारित सर्वर पर स्थानांतरित कर दिया जाता है. जबकि इस डाटा के दोहन (डाटा हार्वेस्टिंग- से अर्थ विभिन्न स्रोतों- वेबसाइट्स, ऐप्स और सोशल मीडिया प्लेटफ़ॉर्म से जानकारी एकत्र कर, उनका विश्लेषण कर निष्कर्ष निकालना है. ज्य़ादातर मामलों में, डाटा हार्वेस्टिंग स्क्रिप्ट (कंप्यूटर कोड्स) और बॉट का इस्तेमाल कर उपयोगकर्ता की जानकारी के बिना व्यक्तिगत डाटा और भुगतान विवरण जैसी जानकारी इकट्ठा करने के लिए किया जाता है) का सटीक उद्देश्य अभी भी अज्ञात है, लेकिन यह डीप फ़ेक के लिए मशीन लर्निंग के लिए आवाज़ के नमूनों के संभावित उपयोग की ओर इशारा कर सकता है, जिसे फिर प्रचार के लिए इस्तेमाल किया जा सकता है. चीन के भारत विरोधी प्रचार के रिकॉर्ड को देखते हुए भारत के नीति निर्माताओं को इस संभावना के प्रति सतर्क रहना चाहिए.
एक यूएस-आधारित डाटा विश्लेषण फ़र्म, न्यू किट डाटा लैब्स ने हाल ही में दावा किया है कि बीजिंग स्थित एक निजी एआई फर्म, स्पीच ओशन, जिसके ग्राहकों में पीएलए से जुड़े लोग भी हैं, भारत से आवाज़ के नमूने एकत्र कर रही है, जो मुख्य रूप से पंजाब और जम्मू और कश्मीर जैसे संवेदनशील सीमा क्षेत्रों से हैं.
जब शारीरिक युद्ध से घृणा की जाती है, तो प्रचार और विघटन जैसी ग्रे-ज़ोन रणनीतियां रणनीतिक लाभ प्राप्त करने के लिए अपनाई जाती हैं. बल का प्रयोग किए बिना प्रतिद्वंद्वी की आबादी को वश में करने के लिए सूचना का हथियारीकरण और डिसइंफॉर्मेशन का प्रसार महत्वपूर्ण है. जेनरेटिव एआई और डीप फ़ेक जैसी तकनीक़ी प्रगति ने इन रणनीतियों को केवल बढ़ावा दिया है. उन्होंने राष्ट्रीय सुरक्षा प्रतिष्ठान के लिए भानुमति के एक पिटारे को खोल दिया है, जिसके परिणाम आज के समय के हिसाब से कहीं अधिक होने वाले हैं. भारत को इस ख़तरे से निपटने के लिए एक आगे बढ़कर सक्रिय दृष्टिकोण अपनाना होगा.
समीर पाटिल ऑब्ज़र्वर रिसर्च फ़ाउंडेशन में एक वरिष्ठ अध्येता हैं.
शौर्या गोरी ऑब्ज़र्वर रिसर्च फ़ाउंडेशन में एक इंटर्न हैं.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.