डीपफेक्सपासून चॅटबॉट्सपर्यंत, जिहादी संघटना AI चा दुरुपयोग करून तरुण मनांना कट्टरवादी बनवत आहेत आणि ऑनलाइन दहशतवादविरोधी प्रयत्नांना मागे टाकत आहेत.
Image Source: Getty Images
जागतिक सुरक्षेच्या बदलत्या चित्रात आता तंत्रज्ञानाचा वापर केवळ सरकारे किंवा मोठ्या कंपन्यांपुरता मर्यादित राहिलेला नाही. दहशतवादी गट, विशेषतः जिहादी नेटवर्क्स, प्रगत तंत्रज्ञान आणि AI (Artificial Intelligence (AI)) चा मोठ्या प्रमाणावर वापर करू लागले आहेत. त्यांचा उद्देश म्हणजे नवीन लोकांना त्यांच्या गटात सामील करून घेणे, त्यांच्या विचारसरणीचा प्रचार करणे आणि मोठ्या प्रमाणावर लोकांपर्यंत पोहोचणे. आजची डिजिटल पिढी इंटरनेटवर वाढली आहे. त्यामुळे ही पिढी एकीकडे या जगाची निर्मिती करणारी तर दुसरीकडे लक्ष्य बनणारी झाली आहे. जिहादी संघटना हेच साधन वेगाने वापरू लागल्या आहेत. AI च्या मदतीने त्या केवळ मोठ्या संख्येने लोकांपर्यंत पोहोचत नाहीत, तर सरकारे आणि सुरक्षा यंत्रणांनी उभारलेल्या पारंपरिक दहशतवादविरोधी प्रयत्नांनाही मागे टाकत आहेत.
जिहादी संघटनांकडून AIचा वाढता वापर हा त्यांच्या कामकाजात झालेला मोठा बदल मानला जातो. पूर्वी हे गट फक्त गुप्त मंचांवर (जसे की बंद चॅट ग्रुप्स) व्हिडिओ किंवा पीडीएफ (PDF) दस्तऐवज शेअर करत असत. पण आता ते AI चा वापर करून आपला प्रचार अधिक आकर्षक आणि प्रभावी पद्धतीने सादर करत आहेत. ते अगदी व्यावसायिक कंपन्या जशा मार्केटिंगमध्ये आधुनिक तंत्रज्ञान वापरतात, तसाच वापर करत आहेत.
जिहादी संघटना हेच साधन वेगाने वापरू लागल्या आहेत. AI च्या मदतीने त्या केवळ मोठ्या संख्येने लोकांपर्यंत पोहोचत नाहीत, तर सरकारे आणि सुरक्षा यंत्रणांनी उभारलेल्या पारंपरिक दहशतवादविरोधी प्रयत्नांनाही मागे टाकत आहेत.
जिहादी गट आता खूप वेगाने बदल स्वीकारत आहेत. ते AI (AI) चा वापर करून केवळ मोठ्या प्रेक्षकांपर्यंत पोहोचत नाहीत, तर दहशतवादविरोधी पारंपरिक उपायांनाही मागे टाकत आहेत. उदाहरणार्थ, युरोपोलच्या 2022 च्या “डिजिटायझेशन अँड टेररिझम” या अहवालात इशारा देण्यात आला होता की अतिरेकी गट AI चा वापर स्वयंचलित प्रचार सामग्री तयार करण्यासाठी, चेहरा ओळख प्रणालीपासून वाचण्यासाठी आणि ऑनलाइन ट्रेंड समजण्यासाठी करत आहेत. जरी अनेक जिहादी गटांकडे स्वतःची तांत्रिक AI तज्ज्ञता नसली तरी ते मुक्त-स्रोत (open-source) AI साधनं आणि डार्कनेटवरील सेवा वापरतात. त्यामुळे भरतीसाठी संदेश पाठवणे, विशिष्ट लोकांपर्यंत पोहोचणे आणि प्रचार मोहिमा चालवणे हे काम अत्यंत कमी मानवी हस्तक्षेपाने आणि जलद गतीने करता येते.
2025 मध्ये दहशतवादी गट आपलं लक्ष अधिकाधिक नव्या पिढीकडे म्हणजेच “डिजिटल नेटिव्हज” कडे वळवत आहेत. ही ती तरुण पिढी आहे जी सोशल मीडिया, ऑनलाइन गेम्स आणि वैयक्तिक कंटेंट दाखवणाऱ्या अल्गोरिदममध्ये वाढली आहे. त्यामुळे AI च्या आधारे चालणाऱ्या भरती पद्धतींना ते लवकर बळी पडतात.
अमेरिकन-येमेनी धर्मगुरू अन्वर अल-अवलाकी हा अल-कायदासाठी इंग्रजी भाषेत प्रचार करणारा प्रमुख चेहरा होता. त्याचे भाषणं आणि लेख आजही ऑनलाइन मोठ्या प्रमाणावर उपलब्ध आहेत. दहशतवादी गट अजूनही याच सामग्रीचा वापर ब्रेनवॉशसाठी करतात. AI आधारित रेकमेंडेशन सिस्टीम्समुळे असे साहित्य पुन्हा पुन्हा लोकांसमोर येत राहते. कधी ऑटोप्ले व्हिडिओ, कधी सर्च रिजल्ट्स किंवा अल्गोरिदमने सुचवलेले पॅटर्न्स. त्यामुळे अशा कंटेंटचा पूर्णपणे बंदोबस्त करणे प्लॅटफॉर्मसाठी कठीण ठरते.
याशिवाय, AI च्या साधनांचा वापर करून अतिरेकी भरती करणारे लोक अगदी निरुपद्रवी वाटणारे प्रोफाईल्स, ब्लॉग्स किंवा चॅट रूम्समधून लोकांशी संवाद साधतात. कधी ते इन्फ्लुएन्सर असल्याचा आव आणतात, तर कधी समान छंद किंवा आवड असलेल्या ग्रुपचा भाग असल्याचं दाखवतात. आधी ते साधा गप्पांचा सूर धरतात आणि नंतर हळूहळू व्यक्तींना अतिरेकी विचारसरणीकडे वळवतात. हे AI बॉट्स माणसासारखं बोलतात, भावना आणि भाषेवर प्रतिक्रिया देतात, ज्यामुळे असुरक्षित तरुणांना खोटी जवळीक आणि स्वीकार मिळाल्यासारखं वाटतं.
जिहादी गटांकडून होत असलेला एक गंभीर धोका म्हणजे डीपफेक आणि सिंथेटिक मीडियाचा वापर. साध्या डिजिटल साधनांच्या मदतीने हे गट नामांकित धार्मिक नेते किंवा राज्यकर्त्यांची हुबेहूब नक्कल करणारे व्हिडिओ तयार करतात. हे व्हिडिओ कधी खोटी माहिती पसरवण्यासाठी, तर कधी शहादतीचं गौरवगान करण्यासाठी वापरले जातात.
दहशतवादी गट जनरेटिव्ह AI चा वाढत्या प्रमाणात उपयोग करून सोशल मीडियाचा गैरफायदा घेत आहेत. या माध्यमातून ते प्रचार जलद पसरवतात, लोकांच्या विचारसरणीत बदल घडवतात आणि नवे अनुयायी तयार करतात. ते इतके खरे वाटणारे बनावट फोटो, व्हिडिओ आणि मजकूर तयार करतात की, जखमी मुलांची दृश्ये किंवा खोटे हल्ले खरेच घडलेत असा भास होतो. अशी सामग्री पाहणाऱ्यांच्या भावनांना तीव्र धक्का देते आणि खरी-खोटी ओळखणं कठीण झाल्यामुळे अशा गोष्टींवर नियंत्रण ठेवणं फार अवघड ठरतं.
हे संवादबॉट्स मानवी संवादाची हुबेहुब नक्कल करतात आणि भाषिक व भावनिक संकेतांवर आधारित आपली उत्तरे बदलतात. त्यामुळे असुरक्षित व्यक्तींमध्ये खोटा विश्वास आणि मान्यता निर्माण केली जाते.
डीपफेक तंत्रज्ञान दहशतवादविरोधी प्रयत्नांसाठीही मोठा धोका ठरतो, कारण या माध्यमातून जिहादी प्रचारकांची खरी ओळख लपवली जाते आणि चेहरा ओळखणारी साधने निष्प्रभ होतात.
इराक व सिरियातील इस्लामिक स्टेट (ISIS), अल-कायदा, हमास आणि हिझबुल्ला यांसारखे गट सोशल मीडियाचा वापर करून झपाट्याने विविध भाषांमध्ये आणि अनेक प्लॅटफॉर्मवर संदेश पसरवत आहेत. कृत्रिम बुद्धिमत्तेवर आधारित (AI-powered) चॅटबॉट्सद्वारे प्रत्यक्ष संभाषणासारखे वैयक्तिकृत संवाद साधून भरतीची प्रक्रिया अधिक प्रभावी केली जाते.
दहशतवादी गट जखमी मुलांचे फोटो, बनावट हल्ले किंवा इतर अतिवास्तव (hyper-realistic) प्रतिमा, व्हिडिओ आणि मजकूर तयार करतात, जे भावनिक प्रतिक्रिया निर्माण करतात आणि खरे असल्याचा भास निर्माण करतात. त्यामुळे त्यांची ओळख पटवणे व नियंत्रण ठेवणे कठीण होते. हे गट ट्रेंडिंग हॅशटॅग्सचा गैरवापर करतात, व्हायरल कंटेंटच्या कमेंट सेक्शनमध्ये घुसून आपला प्रचार पसरवतात. काही संघटना याहून पुढे जाऊन AI-आधारित ॲनालिटिक्सद्वारे click-through rates, drop-off points आणि user sentiment analysis यासारखे मेट्रिक्स तपासतात. यामुळे ते राजकीय मोहिमांमध्ये वापरल्या जाणाऱ्या तंत्राप्रमाणेच आपला संदेश अचूकपणे पोहोचवतात.
मुख्य प्रवाहातील प्लॅटफॉर्मवरून हटवले गेले की हे गट टेलिग्राम किंवा Justpaste.it सारख्या कमी नियमन असलेल्या माध्यमांकडे सरकतात, जिथे AI-निर्मित सामग्री झपाट्याने पसरते. तसेच Generative Adversarial Networks (GAN) च्या मदतीने तयार केलेले खोटे चेहरे वापरून बनावट ओळखी निर्माण केल्या जातात आणि समन्वयित दिशाभूल मोहिमा चालवल्या जातात. जनरेटिव्ह AI (AI), अल्गोरिदमिक प्रवेग (algorithmic amplification) आणि वर्तनात्मक विश्लेषण (behavioural analytics) यांचा संगम झाल्याने सोशल मीडिया दहशतवादी नेटवर्क्सच्या हाती एक अत्यंत प्रभावी, कमी खर्चिक शस्त्र बनले आहे.
डिजिटल मनोरंजन आणि विचारधारात्मक ब्रेनवॉशिंग यामधील सीमारेषा झपाट्याने धूसर होत आहेत. यामुळे एक नवा धोका निर्माण झाला आहे. दहशतवाद्यांकडून गेमिफिकेशन ऑफ एक्स्ट्रीमिझम जिहादी गटांनी व्हिडिओ गेम्सच्या इमर्सिव्ह (immersive) गुणधर्मांचे नेहमीच कौतुक केले आहे. आता AI-आधारित गेम डिझाईन टूल्स सहज उपलब्ध होत असल्यामुळे, तरुणांना आकर्षक पद्धतीने प्रशिक्षण देण्यासाठी किंवा त्यांना कट्टर बनवण्यासाठी आभासी वातावरण विकसित होण्याची खरी भीती आहे. उदाहरणार्थ, ISIS ने यापूर्वी Call of Duty सारख्या लोकप्रिय फर्स्ट-पर्सन शूटिंग गेम्समध्ये इस्लामिक स्टेटचे प्रतीक वापरण्यासाठी समर्थकांना प्रोत्साहित केले होते.
AI-सक्षम क्रिप्टो ट्रेडिंग बॉट्स निधी उभारणीसाठी वापरले जात असल्याचे समोर आले आहे. फायनान्शियल ॲक्शन टास्क फोर्स (FATF) आणि इतर आर्थिक संस्थांनी AI-आधारित ऑटोमेशनद्वारे दहशतवादी निधी उभारणीच्या हालचालींना संशयित ठरवले आहे. याशिवाय, भारतातील दहशतवाद्यांनी PayPal आणि Amazon चा वापर करून निधी हस्तांतरित केला आणि दहशतवादी कारवायांसाठी लागणारी सामुग्री खरेदी केली. यात पुलवामा बॉम्बस्फोटासाठी लागणारे घटकसुद्धा समाविष्ट होते.
AI-आधारित चॅटबॉट्स हे अतिरेक्यांच्या भरती साधनांमधील सर्वात वेगाने वाढणारे आणि स्केलेबल शस्त्र मानले जात आहेत. नैसर्गिक भाषा प्रक्रिया (NLP) आणि एन्क्रिप्शनच्या साहाय्याने हे चॅटबॉट्स 24x7 मानवासारखे संवाद साधणारे भरती इंटरफेस उपलब्ध करून देतात, ज्यांचे प्रभावी निरीक्षण करणे जवळजवळ अशक्य आहे.
ग्लोबल डिसइन्फॉर्मेशन इंडेक्सच्या अभ्यासानुसार, अशा चॅटबॉट्सच्या माध्यमातून अतिरेकी दीर्घकालीन संवाद साधून वापरकर्त्यांना हळूहळू अधिक टोकाच्या विचारसरणीकडे ढकलतात. हे बॉट्स धार्मिक गुरूंची नक्कल करून वैयक्तिक सल्ला देतात, धार्मिक प्रश्नांची उत्तरे देतात आणि सतत अतिरेकी विचारांना बळकटी देतात.
मानवी भरतीदारांपेक्षा AI बॉट्स एकाच वेळी शेकडो, किंबहुना हजारो लोकांना विचारसरणीच्या दीर्घकालीन ब्रेनवॉशिंग प्रक्रियेत मार्गदर्शन करू शकतात.
AI आणि जिहादी प्रचार यांचा संगम जागतिक दहशतवादविरोधी यंत्रणांसाठी गंभीर आव्हान निर्माण करतो. कीवर्ड ट्रॅकिंग किंवा अकाउंट फ्लॅगिंगसारख्या पारंपरिक तंत्रज्ञानाची परिणामकारकता झपाट्याने कमी होत आहे. त्यातच, कंटेंट हॅशिंग सिस्टम्सची ताकदही कमी होत आहे, कारण जनरेटिव्ह AI सतत अशा नव्या आवृत्त्या तयार करतो ज्यामुळे पारंपरिक हॅश-मॅचिंग साधनांना फसवले जाते. AI चा वापर करून अतिरेकी संघटना हायपर-पर्सनलाइज्ड आणि डेटावर आधारित संदेश तयार करतात, ज्यामध्ये वापरकर्त्यांच्या वर्तन, भावना आणि भौगोलिक स्थानाचा आधार घेतला जातो.
डीपफेक्स आणि कृत्रिम माध्यमांच्या वापरामुळे परिस्थिती अधिक गुंतागुंतीची बनते, कारण यामुळे कंटेंटचा मूळ स्रोत, निर्माता आणि हेतू अस्पष्ट होतो, ज्यामुळे कायदेशीर जबाबदारी निश्चित करणे कठीण होते. त्यातच, नियामक असमानता आणि विविध प्लॅटफॉर्मवरील असुरक्षितता ही समस्या वाढवतात, तर मानवी मध्यस्थांना भाषिक किंवा तांत्रिक कौशल्यांच्या मर्यादा असल्यामुळे मॉडरेशनची प्रक्रिया कमकुवत ठरते. शेवटी, ब्राउझिंग हिस्ट्री किंवा भौगोलिक ठिकाणांच्या आधारे वैयक्तिकृत अतिरेकी सामग्री तयार केली जात असल्यामुळे ‘काउंटर-रॅडिकलायझेशन’चे प्रयत्न अधिक गुंतागुंतीचे आणि संसाधन-आधारित होतात.
AI युगात दहशतवादविरोधी क्षमता मजबूत करण्यासाठी सर्वात महत्त्वाचे पाऊल म्हणजे नेक्स्ट-जनरेशन AI-चालित कंटेंट मॉडरेशन सिस्टीम्स वापरणे. या साधनांच्या मदतीने भाषिक ढाचे, संदर्भात्मक संकेत आणि आशयातील सूक्ष्म नमुने तपासून AI-निर्मित प्रचार ओळखला व थांबवला जाऊ शकतो. Tech Against Terrorism सारख्या संस्था मायक्रोसॉफ्टच्या सहकार्याने लहान प्लॅटफॉर्मना ही क्षमता आत्मसात करण्यास मदत करत आहेत.
तसेच, क्रॉस-प्लॅटफॉर्म थ्रेट इंटेलिजन्स वाढवण्यासाठी Global Internet Forum to Counter Terrorism (GIFCT) आणि Global Network on Extremism and Technology (GNET) यांसारख्या उपक्रमांचा विस्तार होत आहे. या चौकटींमधून semantic hashing व AI fingerprint-sharing चा वापर करून, कोणत्याही प्लॅटफॉर्मवर उद्भवलेले दहशतवादी आशय त्वरित शोधता येऊ शकते. याशिवाय, AI-निर्मित अतिरेकी सामग्रीचा मागोवा घेण्यासाठी केंद्रीकृत बहुभाषिक कंटेंट डेटाबेस तयार करण्याची मागणीही वाढत आहे.
त्याचवेळी, मानवी देखरेखीचा समावेश असलेल्या प्रणाली (human-in-the-loop) देखील अत्यावश्यक ठरत आहेत. Investigative Pattern Detection Framework for Counterterrorism INSPECT या प्रकल्पाद्वारे मशीन लर्निंग-आधारित वर्तन विश्लेषण आणि तज्ज्ञ मानवी निर्णयक्षमता यांचा समन्वय साधून कट्टरतेची सुरुवातीची लक्षणे ओळखली जातात. स्वयंचलित गती व मानवी निर्णयांचे सूक्ष्म संतुलन राखणारी ही पद्धत, विशेषतः भाषिक वा सांस्कृतिक गुंतागुंतीच्या आशयाचे परीक्षण करताना अत्यंत महत्त्वाची ठरते.
जिहादी संघटनांच्या भरती धोरणात AI चा समावेश होणे हे धोक्याच्या परिदृश्यातील एक गंभीर टप्पा ठरतो आहे. डिजिटल युगातील तरुणांना लक्ष्य करून, अल्गोरिदमवर आधारित प्रचार, डीपफेक्सचा वापर आणि एन्क्रिप्टेड चॅटबॉट्ससारख्या मोठ्या प्रमाणावर वापरता येणाऱ्या साधनांच्या माध्यमातून ही संघटना अशा तंत्रज्ञानाचा गैरवापर करत आहेत, ज्यांचा उद्देश प्रत्यक्षात लोकांना जोडणे आणि माहिती देणे हा होता.
जिहादी भरतीसाठी कृत्रिम बुद्धिमत्तेचा (AI) वापर हा दहशतवादाच्या धोक्याच्या स्वरूपातील एक गंभीर टप्पा ठरतो. डिजिटल युगात जन्मलेल्या तरुणांना अल्गोरिदमवर आधारित प्रचार, डीपफेक्स आणि एन्क्रिप्टेड चॅटबॉट्ससारखी साधने वापरून लक्ष्य केले जात आहे. जे तंत्रज्ञान मुळात माहिती व संवादासाठी विकसित झाले होते, त्याचाच गैरवापर दहशतवादी संघटना करत आहेत.
या आव्हानाला सामोरे जाण्यासाठी सरकारे, तंत्रज्ञान कंपन्या आणि नागरी समाज यांची तातडीने समन्वित भूमिका आवश्यक आहे. राष्ट्रे, डिजिटल प्लॅटफॉर्म्स, नियामक संस्था आणि नागरी समाज यांच्या बुद्धिमान सहकार्यानेच AI-आधारित जिहादवादाची लाट थांबवता येऊ शकते, अन्यथा जागतिक सुरक्षाव्यवस्थेवर त्याचा अपरिवर्तनीय परिणाम होऊ शकतो. शेवटी, या लढाईत केवळ नव्या तांत्रिक साधनांची नव्हे, तर डिजिटल युगातील अतिरेकीकरणाला चालना देणाऱ्या सामाजिक आणि मानसशास्त्रीय घटकांच्या सखोल आकलनाचीही आवश्यकता आहे.
सौम्या अवस्थी ह्या ऑब्झर्व्हर रिसर्च फाउंडेशनच्या सेंटर फॉर सिक्युरिटी, स्ट्रॅटेजी आणि टेक्नॉलॉजीच्या फेलो आहेत.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.
Dr Soumya Awasthi is Fellow, Centre for Security, Strategy and Technology at the Observer Research Foundation. Her work focuses on the intersection of technology and national ...
Read More +