जगातील बहुतेक लोकशाही देशांप्रमाणे भारतालाही सध्या चुकीच्या माहितीचा सामना करावा लागतो आहे. या मोहिमांमध्ये AI म्हणजेच कृत्रिम बुद्धिमत्तेची शक्ती कमी वापरली जाते आणि व्यक्तिगत प्रभावाचा अतिवापर होतो. यामध्ये कोणतीही प्रचारमोहीम ही एका व्यक्तीवर प्रभाव टाकण्यासाठी घडवून आणलेली चर्चा असते.
Image Source: Getty
जनरेटिव्ह आर्टिफिशियल इंटेलिजेंस (जनरेशन-AI) भाषिक, भौगोलिक आणि मानसिकदृष्ट्या अनुकूल सामग्री तयार करण्यास सक्षम झाल्यामुळे आता व्यक्तीनुसार प्रचार तयार करणे शक्य झाले आहे. यात प्रत्येक संदेश प्राप्तकर्त्याची ओळख, विश्वास प्रणाली, भावनिक स्थिती आणि सांस्कृतिक संदर्भांशी जुळवून घेतला जातो. त्यामुळे मोठ्या प्रमाणात संदेश पाठवणे म्हणजे ब्राॅडकास्ट करणे याचे प्रमाण लवकरच कमी होईल. त्याऐवजी माहितीचा प्रभाव केवळ त्यांच्या लक्ष्यासाठी अल्गोरिदम पद्धतीने तयार केलेल्या चर्चेच्या स्वरूपात वितरित केला जाईल.
मार्केटिंगचे वैयक्तिकीकरण आणि माहिती युद्ध यांच्यातील रेषा अस्पष्ट होतात. AI चुकीच्या माहिती मोहिमेचा वेग, प्रसार आणि वैयक्तिकीकरण वाढवू शकते.
AI हे मशीन लर्निंगद्वारे सोशल मीडिया आणि ऑनलाइन उपस्थितीच्या डेटा-समृद्ध वातावरणाचा फायदा घेऊन व्यक्तींना अचूकपणे लक्ष्य करू शकते. भूतकाळातील एकाच प्रकारच्या प्रचाराप्रमाणे आता एखादी व्यक्ती डोळ्यासमोर ठेवून अल्गोरिदमचा वापर करून घेऊन एखादा संदेश तयार करता येतो. त्यासाठी प्रत्येक क्लिक, लाईक किंवा लोकेशन पिंग याबद्दलची माहिती वापरता येते. यामुळे मार्केटिंगचे वैयक्तिकीकरण आणि माहिती युद्ध यांच्यातील रेषा अस्पष्ट होतात. AI चुकीच्या माहिती मोहिमेचा वेग, प्रसार आणि वैयक्तिकीकरण वाढवू शकते. शिवाय असंख्य प्रकारचे प्लॅटफार्म्स अस्तित्वात असल्यामुळे लष्करी किंवा निवडणूक प्रचारातही याचा वापर होऊ शकतो.
माणसांसारखी भाषा निर्माण असलेल्या मजकुरावर क्लॉड आणि GPT-4 सारखी मॉडेल्स वापरून कमी खर्चात स्वयंचलित आणि वैयक्तिकीकरण असलेली प्रक्रिया करता येते. यामुळे अत्यंत सूक्ष्मपणे विविध प्रकारच्या प्रचाराचे मोठ्या प्रमाणात उत्पादन करता येते.
या क्षमतांचे एक प्रमुख प्रदर्शन म्हणजे कुप्रसिद्ध क्लॉड अभ्यास. यामध्ये 100 मानवी व्यक्तिरेखा तयार करण्यात आल्या. संपूर्ण युरोप, पश्चिम आशिया आणि आफ्रिकेतील विविध सोशल मीडिया प्लॅटफॉर्मवर अत्याधुनिक प्रभाव मोहिमा आखण्यात आल्या. काही अल्बेनियन राजकारण्यांना पाठिंबा देणे, दुबईचा प्रचार करताना युरोपियन व्यवसायावर टीका करणे आणि केनियामधील विकास उपक्रमांचे समर्थन करणे यासारख्या अनेक उद्देशांसाठी विशिष्ट नरेटिव्ह तयार करण्यात आले. अधिक चिंताजनक गोष्ट म्हणजे माणसांचा विश्वास मिळवण्यासाठी आणि अधिक मानवी दिसण्यासाठी तसेच माहितीच्या गुप्त एकत्रीकरणासाठी माहितीचे नियंत्रण वापरकर्त्याच्या हातात दिले गेले.
या मास-मॅनिप्युलेशन मशीनचा आणखी एक स्तर म्हणजे AI ची, चेहऱ्यावरील हावभाव, भाषणातील छंद आणि बोललेल्या किंवा लिखित सामग्रीवर आधारित व्यापक आणि जवळजवळ एकाच वेळी भावनांचे विश्लेषण करण्याची क्षमता.
सोशल मीडिया डेटा, इंटरनेट व्यवहार आणि अगदी भाषिक शैलीचे विश्लेषण करून AI एखाद्या व्यक्तीच्या व्यक्तिमत्त्वाचा किंवा राजकीय मतांचा अंदाज लावू शकते. यामध्ये वय, लिंग यासारख्या लोकसंख्याशास्त्रीय घटकांच्या पलीकडे जाऊन एखादी व्यक्ती कसा विचार करते किंवा तिच्या मनात कोणत्या भावना निर्माण होतात याचा फायदा घेऊन माहिती गोळा केली जाते. केंब्रिज ॲनालिटिकाच्या बाबतीत 2018 मध्ये हेच घडले. आता तर डेटावर प्रक्रिया करण्याची क्षमता आणि जनरेटिव्ह AI मधील प्रगतीमुळे व्यक्तीचे रेखाटन आणि तिला लक्ष्य करणे हे मोठ्या स्तरावर आणि अधिक अचूक झाले आहे. व्यक्तीच्या प्रोफाइलसह तिच्या स्थानाबद्दलचा डेटा विलीन करण्याची क्षमता असल्यामुळे प्राप्तकर्त्याचे मूळ गाव, स्थानिक बातम्या किंवा जवळपासच्या घटनांचा संदर्भ देणारी चुकीची माहिती तयार करण्यास मदत होते. व्यक्तीचा विश्वास बसेल असे संदर्भ दिल्यामुळे अशा प्रकारचा खोटा प्रचारही विश्वासार्ह बनतो. वैयक्तिक आणि स्थानिक माहितीचे हे मिश्रण एखाद्या कृतीला उत्तेजन देण्यासाठी प्रभावमोहिमांची कार्यक्षमता आणखी मजबूत करते.
या मास-मॅनिप्युलेशन मशीनचा आणखी एक स्तर म्हणजे AI ची, चेहऱ्यावरील हावभाव, भाषणातील छंद आणि बोललेल्या किंवा लिखित सामग्रीवर आधारित व्यापक आणि जवळजवळ एकाच वेळी भावनांचे विश्लेषण करण्याची क्षमता. या क्षमतेमुळे व्यक्तीच्या भावनिक असुरक्षिततेचा फायदा घेऊन ती भावना आणखी वाढवता येते. उदाहरणार्थ एखादा समूह विशिष्ट संकटाबद्दल चिंताग्रस्त आढळला तर AI ची प्रभावमोहीम त्यांना शांत करणारी चुकीची माहिती देऊन लक्ष्य करते किंवा आणखी अविश्वास निर्माण करणारी सामग्री वापरून त्यांची भीती आणखी वाढवते.
या तंत्रज्ञानाची क्षमता लक्षात घेता काही देश आणि आणखी समाजविरोधी घटकांनी यात रस दाखवला आहे.
लष्करी मोहिमांच्या संदर्भात बचावात्मक आणि आक्रमकपणे वापरता येणारे 'one to one' प्रभाव हल्ले तयार करण्याची AI ची क्षमता हे महत्त्वाचे उदाहरण आहे. चीनची पीपल्स लिबरेशन आर्मी (PLA) याला अचूक संज्ञानात्मक हल्ले असे म्हणते. यामध्ये तैवानसारख्या विरोधी देशांमधील प्रमुख निर्णय घेणाऱ्यांना लक्ष्य करणे आणि त्यांच्या श्रद्धा, भावनिक प्रणाली आणि वर्तणुकीच्या प्रवृत्तींवर आधारित 'प्रचार प्रवर्धक' तयार करणे या गोष्टींचा समावेश होतो. हे प्रवर्धक चीनच्या हितसंबंधांना संभाव्यपणे पुढे नेण्याच्या उद्देशाने लोकांवर प्रभाव पाडण्यासाठी सत्य माहिती आणि चुकीची माहिती तयार करण्यास किंवा निर्माण करण्याची परवानगी देतात.
या तंत्रज्ञानाची क्षमता शोधणारा चीन हा एकमेव देश नाही. रशिया-युक्रेन युद्धातही रशियन प्रचारकांनी युक्रेनचे राष्ट्राध्यक्ष व्लादिमीर झेलेन्स्की यांचे डीपफेक व्हिडिओ तयार केले. यात ते त्यांच्या सैनिकांना शरण जाण्यास सांगत होते. अशा डीपफेक व्हिडिओवर क्वचितच विश्वास ठेवला जातो परंतु यातील माहितीचा गैरवापर करून खोटा प्रचार करता येतो. अमेरिकन लष्कराच्या विशेष मोहीम दलांनी ‘घोस्ट मशीन’ विकसित केली आहेत. केवळ 30 सेकंदांच्या ऑडिओद्वारे शत्रू सैन्याच्या कमांडरचे किंवा त्याच्या कुटुंबातील सदस्यांचे वैयक्तिकृत AI व्हॉइस क्लोन तयार करणे शक्य आहे. याचा वापर त्यांना पक्षांतर करण्यास किंवा आत्मसमर्पण करण्यास उद्युक्त करण्यासाठी केला जाऊ शकतो. यामुळे शत्रूचे मनोबल खचते आणि त्यांना जलद गतीने फसवणे शक्य होते. अशी वैयक्तिकृत फसवणूक पूर्वी मोठ्या प्रमाणात सैद्धांतिक होती. पण AI मुळे ती प्रत्यक्षात आली आहे.
राजकीय क्षेत्रात अतिवैयक्तिक स्वरूपाच्या चुकीच्या माहिती मोहिमा निवडणूक निकाल बदलवण्यासाठी सक्षम होतील. AI सिस्टीम महत्त्वाच्या लोकसंख्येला किंवा स्थानिकांना एखाद्या विशिष्ट क्षणी लक्ष्य करून खास प्रचार निर्माण करू शकतात. यातून तटस्थ मतदारांचे मन आपल्या बाजूने वळवता येते. त्यामुळे मोठे राजकीय ध्रुवीकरण होऊ शकते, गोंधळ वाढतो आणि निंदानालस्तीला ऊत येतो.
कोणतेही संदेश हे मोठ्या प्रमाणात असू शकतात परंतु त्याचे रूपांतर वैयक्तिक सामग्रीत केल्याने बचावकर्त्यांना त्याच्यावर देखरेख ठेवणे किंवा प्रतिवाद करणे कठीण होते. प्रत्येक मतदाराला त्याच्यासाठी म्हणून खास असा संदेश दिसू शकतो. उदाहरणार्थ, एखाद्याला त्यांच्या आर्थिक चिंतांना वाव देणारी AI-फॅब्रिकेटेड बातमी दिसते तर त्याच्या शेजाऱ्याला सामाजिक तक्रारींबद्दलचा एखादा डीपफेक व्हिडिओ दिसतो. अशा प्रभावमोहिमांद्वारे एखादा समूह आतून पोखरणे, घुसखोरी करणे, विध्वंस करणे ही राजकीय उद्दिष्टे साध्य करता येतात. AI च्या यंत्रणेमुळे प्रचारकांना वैयक्तिक पातळीवर मोठ्या प्रमाणात मानसिक युद्ध करण्यास वाव मिळतो. त्यामुळे सामाजिक ऐक्य नष्ट होते. अशा वैयक्तिकृत प्रचार मोहिमा लोकशाहीसाठी चिंताजनक आहेत कारण समाजकंटक किंवा देशविरोधी लोक याचा वापर निवडणूक प्रक्रिया आणि सार्वजनिक चर्चा कमकुवत करण्यासाठी करू शकतात.
अतिव्यक्तिगत प्रभाव मोहिमांमध्ये प्रचंड विघटनकारी क्षमता असली तरीही ती प्रत्यक्षात आणण्यात अनेक अडथळे आहेत.
एखाद्या व्यक्तीच्या प्रोफाइलनुसार संदेश बदलल्याने प्रत्येक बाबतीत नाटकीयदृष्ट्या मोठा प्रभाव पाडण्याची हमी मिळू शकत नाही. माणसाचे मानसशास्त्र गुंतागुंतीचे आहे आणि व्यक्ती अजूनही पूर्णपणे तयार केलेल्या खोट्या गोष्टी नाकारू शकतात किंवा त्याकडे दुर्लक्ष करू शकतात. त्यामुळे अतिव्यक्तिगतीकरण प्रचार हा एकमेव उपाय नाही. कारण त्याची प्रभाव पाडण्याची क्षमता ही संदर्भ आणि अंमलबजावणीच्या गुणवत्तेवर अवलंबून असते.
आणखी एक महत्त्वाची मर्यादा म्हणजे मोठ्या प्रमाणात वैयक्तिक डेटाची मागणी. प्रत्येक लक्ष्याबद्दल तपशीलवार माहिती असेल तरच अल्गोरिदम ती सामग्री व्यक्तीप्रमाणे उपलब्ध करून देऊ शकतात. असा डेटा वाढत्या प्रमाणात उपलब्ध होत असताना सोशल मीडिया, डेटा उल्लंघन किंवा डेटा ब्रोकर्सद्वारे त्याचा प्रवेश मर्यादित आहे आणि खरेदीसाठी मानवी हस्तक्षेप आणि बॅक-चॅनेल नेटवर्क्समध्ये प्रवेश आवश्यक आहे.
शिवाय डेटा संरक्षणाचे उपाय अशा हाताळणीचे धोके कमी करण्यास मदत करू शकतात. त्यामुळे प्रचारकांना आवश्यक असलेला कच्चा वैयक्तिक डेटा मिळू शकत नाही. सध्या 144 देशांमध्ये म्हणजे जगातील 82 टक्के लोकसंख्या कोणत्या ना कोणत्या प्रकारच्या डेटा संरक्षण चौकटीत समाविष्ट आहे. तरीही कायदेशीर व्यवस्था तांत्रिक उत्क्रांतीच्या गतीपेक्षा खूपच मागे आहेत.
सार्वजनिकरित्या उपलब्ध असलेल्या जनरेटिव्ह AI चा चुकीच्या हेतूने वापर होऊ नये म्हणून नियम अस्तित्वात आहेत. तरीही त्वरित इंजेक्शन आणि जेलब्रेकिंग (prompt injections and jailbreaking) सारख्या तंत्रांमुळे AI वर्तनात आमूलाग्र बदल करणे आणि AI संघटनांच्या अंतर्गत धोरणांना धक्का देणे शक्य होते.
वैयक्तिक स्वरूपाच्या हायपरपर्सनलाइज्ड प्रभाव मोहिमा पूर्णपणे स्वायत्त किंवा मोफत नसतात. त्या प्रभावी होण्यासाठी संसाधने, समन्वय आणि पुनरावृत्ती चाचणीची आवश्यकता असते. चीनसारखे देश एक गंभीर धोरण म्हणून हायपरपर्सनलाइज्ड प्रभाव मोहिमांचे एकत्रीकरण सक्रियपणे शोधत आहेत. इतर देशांना मात्र अशा तंत्रज्ञान मोहिमा खर्चिक वाटू शकतात.
अतिव्यक्तिगतीकरण हे केवळ सध्याच्या मोहिमांचे वैशिष्ट्य नाही. या मोहिमा माहिती कशी तयार केली जाते, माहितीचा वापर कसा केला जातो आणि ती वितरित कशी केली जाते यामध्ये एक संरचनात्मक बदल दर्शवतात. त्याचे यश अचूकता, प्रमाण आणि स्वयंचलित यंत्रणेत आहे. तसेच त्याचा धोका सूक्ष्मता, विखंडन आणि सामायिक वास्तवाच्या घसरणीत आहे. अशा मोहिमांचे यश सध्या तरी परिणामांपासून दूर आहे. AI यंत्रणेला कथनाची सुसंगतता राखण्यासाठी आणि शोध टाळण्यासाठी क्युरेटेड डेटा, संरचित सूचना आणि देखरेखीची आवश्यकता असते.
सध्या, अति-व्यक्तिगत प्रभावामुळे अत्याधुनिक घटक आणि संसाधने असलेल्या कंपन्यांना स्पष्ट फायदे मिळतात परंतु तांत्रिक अडथळे, नियामक संघर्ष आणि मानवी अनिश्चिततेमुळे ते मर्यादितच राहतात. असे असले तरी याचा मार्ग स्पष्ट आहे. जनरेटिव्ह मॉडेल्स अधिक स्वायत्त होत असताना आणि पाळत ठेवणारे डेटासेट्स कमकुवत होत असताना मन वळवणे आणि हाताळणी यांच्यातील रेषा आणखी अस्पष्ट होत जाईल.
उदारमतवादी समाज आणि खुल्या व्यासपीठांसाठी हे मोठे आव्हान आहे. अशा यंत्रणांची वाढ रोखणे, त्यात अडथळे आणणे आणि त्यांचे अवमूल्यन करणे हे मोठे आव्हान असेल. माहितीच्या अखंडतेचे रक्षण करण्यासाठी स्टारलिंग फ्रेमवर्कसारख्या संरचनांचा वापर करून देशांनी व्यापक डिजिटल धोरणे आणि डिझाइन तत्त्वे अंमलात आणली पाहिजेत. नागरिकांची लवचिकता आणि डेटा साक्षरता मजबूत करण्यासाठी सिंगापूरच्या दृष्टिकोनावर आधारित मीडिया शिक्षण मोहीम राबवणेही अत्यंत महत्त्वाचे आहे. भौगोलिक आणि इतर क्षेत्रांमध्ये सुरक्षितता, गुणवत्ता, विश्वास आणि परस्परसंवाद वाढवण्यासाठी समान विचारसरणीच्या सरकारांनी AI प्रशासन यावर सुसंवाद ठेवणेही आवश्यक आहे. अतिव्यक्तिगतीकरण ही प्रभाव मोहिमांची पुढची सीमा असू शकते. तथापि त्याची अंतिम क्षमता ही हल्लेखोरांच्या कारवाया आणि बचावकर्त्यांचा प्रतिसाद यावर विकसित होणाऱ्या परस्परसंवादावर अवलंबून असेल. तंत्रज्ञानाची ही शर्यत सुरूच आहे आणि हेच तंत्रज्ञान जगभरातील विविध देशांच्या माहिती वातावरणाला आकार देणार आहे.
साहिल सोनाळकर हे ऑब्झर्व्हर रिसर्च फाउंडेशनमध्ये रिसर्च इंटर्न आहेत.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.