Published on Oct 28, 2023 Commentaries 0 Hours ago

जनरेटिव्ह एआयचा सज्ञानात्मक युद्धामध्ये अवलंब होत असल्याने राष्ट्रीय सुरक्षेसाठी महत्त्वपूर्ण धोका निर्माण झालेला आहे.

एआयचा युद्धामध्ये अवलंब, चुकीची माहिती आणि फसवणूक

2023 च्या मे महिन्यामध्ये एक घटना घडली, ती म्हणजे वॉशिंग्टन डीसी मधील युनायटेड स्टेटस (यूएस)च्या डिपार्टमेंट ऑफ पेंटागॉन जवळ स्फोट दर्शविणारी बनावट प्रतिमा काही सोशल मीडियावरील सत्यापित खात्यांवर मोठ्या प्रमाणात शेअर करण्यात आली होती. विशेष म्हणजे भारतातील मुख्य प्रवाहात असणाऱ्या टीव्ही वृत्तवाहिन्यांवर ही प्रतिमा एका अहवालासह प्रसारित करण्यात आली होती. कालांतराने असे लक्षात आले की ही प्रतिमा बहुधा जनरेटिव्ह आर्टिफिशियल इंटेलिजन्स (AI) द्वारे तयार केली गेली आहे. जी सिंथेटिक डाटासह मजकूर प्रतिमा ऑडिओ आणि वास्तववादी सामग्री तयार करू शकते. अशाप्रकारे जनरेटिव्ह एआयने स्प्लॅश करण्याची ही पहिलीच वेळ आहे असे नाही.

विशेष करून जनरेटीव एआयच्या वापराच्या बाबतीत  “डीप फेक” आहे, जे मानवी चेहऱ्याची वैशिष्ट्ये आणि हावभावांची प्रतिकृती बनवून वास्तववादी दिसणारे व्हिडिओ तयार करू शकतात. 2019 मध्ये, गॅबॉनचे अध्यक्ष, अली बोंगो यांच्या एका बनावट व्हिडिओने, राज्य करण्याच्या त्यांच्या तंदुरुस्तीबद्दल चिंता निर्माण केली होती. आफ्रिकन देशाच्या सैन्याला सत्तापालट करण्याबाबत उद्युक्त केले होते. काही प्रमाणात ते  अयशस्वी झाले आहेत, परंतु AI ची चुकीची माहिती आणि राष्ट्रीय सुरक्षा आणि कायद्याच्या अंमलबजावणीसाठी बनावट व्हिडिओ ने त्याचे गंभीर परिणाम समोर आणले आहेत.

2019 मध्ये, गॅबॉनचे अध्यक्ष, अली बोंगो यांच्या एका व्हिडिओने, त्यांच्या तंदुरुस्तीबद्दल चिंता निर्माण केली होती. आफ्रिकन देशाच्या सैन्याला सत्तापालट करण्याबाबत उद्युक्त केले होते.

सध्या सुरू असलेल्या रशिया युक्रेन संघर्षाच्या काळामध्ये अशा स्वरूपाचे बनावट प्रयोगाची अंमलबजावणी करण्यासाठी जणू मैदानच बनले आहे. मार्च 2022 मध्ये, युक्रेनचे राष्ट्राध्यक्ष व्होलोडिमिर झेलेन्स्की यांचा त्यांच्या सैन्याला आत्मसमर्पण करण्यास सांगणारा एक बनावट व्हिडिओ व्हायरल झाला होता. तथापि, तसे पाहायला गेल्यास या व्हिडिओची तंत्रज्ञान विषयक पातळी फारशी प्रगत नव्हती, ज्यामुळे ते बनावट असल्याचे समजणे सोपे झाले होते. त्याचप्रमाणे, रशियाचे राष्ट्राध्यक्ष व्लादिमीर पुतिन यांनी आपल्या सैन्याला शस्त्रे टाकून घरी जाण्यास उद्युक्त केल्याचा एक बनावट व्हिडिओ देखील ट्विटरवर (आता ‘एक्स’) व्हायरल झाला होता. युद्धाच्या मैदानावरून कोणताही विश्वासार्ह अहवाल नसताना, अशा  बनावट व्हिडिओंमुळे दोन्ही बाजूंच्या नागरिकांमध्ये गोंधळ  निर्माण झाला. मात्र या बनावट व्हिडिओच्या माध्यमातून लष्करी कारवायांभोवती गोंधळ आणि अनिश्चितता देखील काही प्रमाणात पसरली होती.

डिसइन्फॉर्मेशनसाठी तांत्रिक प्रोत्साहन

जनमतावर प्रभाव पाडण्यासाठी किंवा सत्य अस्पष्ट करण्याच्या उद्देशाने खोटी माहिती, अफवा, चुकीची माहिती हेतुपुरस्सर प्रसारित करणे समकालीन लोकशाही समाजासाठी एक महत्त्वपूर्ण गंभीर आव्हान म्हणून समोर आले आहे. राजकीय नेत्यांकडून त्यांचा राजकीय अजेंडा पुढे नेण्यासाठी त्याचा देशांतर्गत वापर करण्या व्यतिरिक्त विरोधी राज्यांनी त्यांच्या ‘हायब्रीड वॉरफेअर’ किंवा ‘ग्रे झोन रणनीती’चा एक प्रमुख घटक म्हणून त्याचा फायदा घेण्यास सुरुवात केली आहे. युरोपियन युनियन (EU) ने या घटनेचे सविस्तर वर्णन केले आहे.  त्याला ‘परकीय माहिती हाताळणी हस्तक्षेप’ (FINI) असे म्हटले आहे. अशी सामग्री जी ‘अंत’, म्हणजे, हाताळणीच्या वर्तनावर, ‘माध्यम’ ऐवजी, म्हणजे, वितरित केलेल्या सत्यतेवर नेहमी जोर देत राहिली आहे.

अलीकडच्या काळामध्ये AI मधील झालेली तांत्रिक प्रगती बनावट आणि चॅट GPT सारख्या भाषा मॉडेल वर आधारित चॅटबॉट्सने, चुकीची माहिती वाढविण्यात एक प्रकारे मदत केली आहे. तंत्रज्ञानाच्या पातळीवर पाहतात समुदायाच्या पलीकडे ही साधने आधीच सामान्य इंटरनेट वापरकर्त्यांसाठी प्रवेश योग्य आणि सोपी झाली आहेत. यामुळे षड्यंत्र सिद्धांतवादी आणि चुकीची माहिती पसरवणाऱ्यांना खोटी सामग्री आणि दिशाभूल करणारी कथा पटकन आणि स्वस्तात तयार करण्यास अधिक सक्षम केले आहे. युरोपोलचा अंदाज आहे की 2026 पर्यंत, 90 टक्के ऑनलाइन सामग्री AI-व्युत्पन्न असेल आणि तिचा वापरही केला जाईल.

जनमतावर प्रभाव पाडण्यासाठी किंवा सत्य अस्पष्ट करण्याच्या उद्देशाने खोटी माहिती, अफवा, चुकीची माहिती हेतुपुरस्सर प्रसारित करणे समकालीन लोकशाही समाजासाठी एक महत्त्वपूर्ण गंभीर आव्हान म्हणून समोर आले आहे.

बनावट सामग्रीच्या उदयाने माहितीच्या लँडस्केपची गतिशीलता बदलून गेली आहे. बनावट साहित्याची गर्दी वाढल्याने वास्तववादी आणि प्रामाणिक माहितीचा प्रवाह कमी झालेला दिसत आहे. याला तज्ञ “लयर्स डिव्हिडंड” म्हणून संबोधतात. बनावट माहितीबद्दल वाढणारी जागरूकता संशयवादी लोकसंख्येला वास्तविक व्हिडिओच्या सत्यतेवर प्रश्नचिन्ह वारंवार उपस्थित करेल. ज्यामुळे गुन्हेगारांना न्याय चुकवणे सोपे होईल. 6 जानेवारी 2021 च्या कॅपिटल हिल दंगलीच्या गुन्हेगारांनी AI व्युत्पन्न केलेल्या व्हिडिओ पुराव्याचा हवाला देऊन कायदेशीर कारवाईदरम्यान असा फायदा घेण्याचा प्रयत्न झाला होता, परंतु काही उपयोग झाला नाही. सोशल मिडीयाद्वारे मोठ्या प्रमाणात पोहोचल्यामुळे, बनावट परिस्थितीजन्य जागरूकता प्रभावित करू शकतात आणि निर्णय घेण्यास धोका निर्माण करू शकतात, विशेषतः संकटाच्या काळात. या क्षेत्रातील आश्चर्याची गोष्ट म्हणजे, AI संशोधकांनी आधीच प्रगत AI प्रणाली विकसित करणे थांबवण्याचे आवाहन केले आहे.

AI-सक्षम डिसइन्फॉर्मेशनवर चीनची आघाडी

हुकुमशाही शासन असलेल्या काही देशांनी लोकशाहीला लक्ष्य करण्यासाठी चुकीच्या माहितीचा फायदा घेतला आहे. अपेक्षेप्रमाणे, पीपल्स रिपब्लिक ऑफ चायना ने आपल्या प्रचार मोहिमांचा विस्तार करण्यासाठी AI-आधारित साधनांचा वापर करण्यात पुढाकार घेतलेला दिसत आहे.

गेल्या काही वर्षांत, चीनने AI मध्ये मोठ्या प्रमाणावर गुंतवणूक केली आहे, 2030 पर्यंत या डोमेनमध्ये जागतिक नेता बनण्याचा आणि त्यानंतर तो लष्करी डोमेनमध्ये समाविष्ट करण्याचा चीनचा मानस आहे. बळाचा वापर न करता शत्रूला वश करण्याच्या प्रयत्नात, चीनने ‘बुद्धिमान युद्ध’ ही संकल्पना विकसित केली आहे. जी शत्रूच्या संज्ञानात्मक क्षमतेला लक्ष्य करणारी आहे.  बनावट तंत्रज्ञान लष्करी सिद्धांतांमध्ये एकत्रीकरण करून हे लक्ष्य अधिक मजबूत करत आहे. तैवानच्या नॅशनल सिक्युरिटी ब्युरोचे महासंचालक त्साई मिंग-येन यांनी आधीच ‘संज्ञानात्मक युद्धाचा’ भाग म्हणून तैवानमध्ये अराजकतेची बीजे पेरण्यासाठी चिनी कम्युनिस्ट पार्टी (CCP) द्वारे बनावटीच्या संभाव्य वापराबद्दल चिंता व्यक्त केली आहे. बनावट तंत्रज्ञान लष्करी सिद्धांतांमध्ये एकत्रीकरण करून हे लक्ष्य मजबूत करत आहे.

चीनच्या बनावट-सक्षम डिसइन्फॉर्मेशनच्या वापराचे ठळक उदाहरण म्हणजे CCP हितसंबंध आणि यूएस विरोधी प्रचारासाठी AI-व्युत्पन्न न्यूज अँकरचा केलेला वापर.  गेल्या वर्षी ‘वुल्फ न्यूज’ च्या बॅनरखाली दिसलेल्या दोन व्हिडिओंमध्ये, या अँकरनी यूएस सरकारच्या घरगुती बंदुकीच्या हिंसाचाराला कथितपणे क्षीण प्रतिसाद आणि यूएस-चीन राष्ट्र प्रमुखांच्या शिखर परिषदेच्या सकारात्मक परिणामांचे महत्त्व यासारख्या मुद्द्यांवर चर्चा केली होती. सिंथेसिया या ब्रिटीश फर्मने प्रदान केलेल्या AI व्हिडिओ सोल्यूशनद्वारे हे अँकर तयार करण्यात आले होते. या व्हिडीओजने ऑनलाइन जास्त ट्रॅक्शन निर्माण केले नसले तरी, त्यांनी CCP चे व्यावसायिकरित्या उपलब्ध AI व्हिडिओ-जनरेशन टूल्सचा गैरवापर यानिमित्ताने स्पष्टपणे अधोरेखित केला आहे.

भारतासाठी प्रासंगिकता

चीन किंवा CCP-संबंधित घटकांनी तयार केलेला बनावट व्हिडिओ भारताने अद्याप पाहिलेला नाही. जून 2020 मध्ये गलवान खोऱ्यातील संघर्षानंतर चीन आणि पीपल्स लिबरेशन आर्मी (PLA) कडून भारतविरोधी प्रचाराला उधाण आले आहे. विशेषत:, X हे चीनशी संबंधित घटकांसाठी एक पसंतीचे साधन म्हणून उदयास आले आहे. गलवान चकमकीला, आक्रमकपणे आपले प्रादेशिक दावे दाबून तसेच भारताच्या लष्करी सज्जतेवर त्यांनी वाद घातला आहे. काही प्रकरणांमध्ये, त्यांच्या प्रयत्नांना पाकिस्तानी ट्विटर ट्रोल्सने चालना दिलेली दिसते. ज्यांनी त्यांच्या स्वतःच्या नेटवर्कमध्ये याबद्दलचा प्रचार वाढविण्यास मदत केली. अगदी अलीकडे, गलवान चकमकीच्या तिसऱ्या वर्धापन दिनापूर्वी, भारतीय सैन्याला खराब प्रकाशात दाखवण्याच्या प्रयत्नात चिनी लोकांनी ग्राफिक प्रतिमा आणि व्हिडिओ पोस्ट केले आहेत.

यूएस-आधारित डेटा अॅनालिटिक्स फर्म, न्यू काइट डेटा लॅब्सने अलीकडेच दावा केला आहे की बीजिंग-आधारित खाजगी एआय फर्म, स्पीच ओशन, ज्याचे ग्राहक पीएलएशी संबंध आहेत,  प्रामुख्याने पंजाब आणि जम्मू आणि काश्मीर यासारख्या संवेदनशील सीमा प्रदेशांमधून आवाजाचे नमुने गोळा करत आहेत.

शिवाय, यूएस-आधारित डेटा अॅनालिटिक्स फर्म, न्यू काइट डेटा लॅब्सने अलीकडेच दावा केला आहे की बीजिंग-आधारित खाजगी एआय फर्म, स्पीच ओशन, ज्याचे ग्राहक पीएलएशी संबंध आहेत,  प्रामुख्याने पंजाब आणि जम्मू आणि काश्मीर यासारख्या संवेदनशील सीमा प्रदेशांमधून आवाजाचे नमुने गोळा करत आहेत. या फार्मच्या माहितीनुसार प्री-स्क्रिप्ट केलेले शब्द, वाक्ये किंवा संभाषणे रेकॉर्ड करण्यासाठी स्थानिकांना नियुक्त केले गेले आहे. जे नंतर चीन-आधारित सर्व्हरवर हस्तांतरित केले जातात. या डेटा हार्वेस्टिंगचा नेमका उद्देश अज्ञात असताना, ते सखोल बनावटसाठी मशीन लर्निंगसाठी व्हॉइस नमुन्यांच्या संभाव्य वापराकडे निर्देश करतात, जे नंतर प्रचारासाठी वापरले जाण्याची शक्यता वाढते. भारताच्या विरोधातील प्रचाराबाबत चीनचा आतापर्यंतचा रेकॉर्ड पाहता भारतीय धोरणकर्त्यांनी या शक्यतेबाबत सावध राहिले पाहिजे.

ज्यावेळी भौतिक युद्धाचा तिरस्कार केला जातो तेव्हा धोरणात्मक फायदा मिळवण्यासाठी प्रचार आणि डिसइन्फॉर्मेशन सारख्या ग्रे-झोन युक्त्या वापरल्या जात आहेत. बळाचा वापर न करता शत्रूच्या लोकसंख्येला वश करण्यासाठी माहितीचे शस्त्रीकरण आणि चुकीच्या माहितीचा प्रसार महत्त्वपूर्ण घटक आहे. जनरेटिव्ह एआय आणि डीप फेक यांसारख्या तांत्रिक प्रगतीने या युक्तींना प्रोत्साहन दिले आहे. त्यांनी आजच्या काळातील कल्पनेच्या पलीकडे असलेल्या परिणामांसह राष्ट्रीय सुरक्षा आस्थापनेसाठी एक पेंडोरा बॉक्स उघडला आहे. या धोक्याचा सामना करण्यासाठी भारताने सक्रिय दृष्टिकोन बाळगला पाहिजे.

समीर पाटील हे ऑब्झर्व्हर रिसर्च फाउंडेशनचे वरिष्ठ फेलो आहेत.

शौर्य गोरी हे ऑब्झर्व्हर रिसर्च फाउंडेशनमध्ये इंटर्न आहेत.

हे लेखकाचे वैयक्तिक विचार आहेत

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.

Authors

Sameer Patil

Sameer Patil

Dr Sameer Patil is Senior Fellow, Centre for Security, Strategy and Technology and Deputy Director, ORF Mumbai. His work focuses on the intersection of technology ...

Read More +
SHOURYA GORI

SHOURYA GORI

Read More +