Expert Speak Raisina Debates
Published on Jan 14, 2026 Updated 0 Hours ago

राज्य-नेतृत्वाखालील दहशतवादविरोधी प्रयत्नांना आव्हान देत, दहशतवादी गटांकडून केलेला कृत्रिम बुद्धिमत्तेचा वापर धोक्यांना अधिक तीव्र करतो.

AI चा 'टेरर' अवतार! दहशतवाद्यांच्या हातात नवं घातक हत्यार

    दहशतवादी गटांनी त्यांच्या धोरणात्मक उद्दिष्टांना पुढे नेण्यासाठी तंत्रज्ञानाचा स्वीकार करणे हे राष्ट्रांच्या समुदायासाठी नेहमीच एक मुख्य दहशतवादविरोधी आव्हान राहिले आहे. समकालीन भू-राजकीय परिस्थितीत, तंत्रज्ञानाचा विशेषतः कृत्रिम बुद्धिमत्तेचा प्रसार दहशतवादी संघटना आणि राज्य-नेतृत्वाखालील सुरक्षा यंत्रणा यांच्यातील क्षमतांचा फरक कमी करण्याची क्षमता ठेवतो. दहशतवादी गट हल्ल्यांची गुंतागुंत आणि तीव्रता वाढवण्यासाठी, अतिरेकी प्रचार प्रसारित करण्यासाठी, तसेच हिंसाचार भडकवण्यासाठी वाढत्या प्रमाणात कृत्रिम बुद्धिमत्तेचा वापर करत आहेत. या प्रयत्नांमुळे, राज्यांकडून राबवण्यात येणाऱ्या नवोन्मेषी दहशतवादविरोधी उपाययोजनांवर दहशतवादी गटांना स्पर्धात्मक आघाडी मिळते. त्यामुळे, कृत्रिम बुद्धिमत्तेचा सध्याचा तसेच संभाव्य वापर सुरक्षा-केंद्रित यंत्रणांसमोर तसेच आंतरराष्ट्रीय राष्ट्रसमुदायाच्या क्षमतेसमोर नव्या प्रकारची आव्हाने उघड करतो.

    दहशतवादी संघटनांकडून तंत्रज्ञानाचा व्यूहात्मक वापर

    दहशतवादी गटांकडून तंत्रज्ञानाचा वापर प्रामुख्याने दोन महत्त्वाच्या घटकांवर अवलंबून राहिला आहे. एक म्हणजे परिस्थितीशी संबंधित बाबी - त्यांची विचारधारा, लक्ष्ये, समर्थक आणि ज्यांच्यापर्यंत संदेश पोहोचवायचा आहे तो वर्ग आणि दुसरे म्हणजे वापरल्या जाणाऱ्या तंत्रज्ञानाचे स्वरूप व क्षमता. दहशतवाद्यांकडून तंत्रज्ञानाचे एकत्रीकरण अनेकदा इनोवेशन (Innovation)च्या माध्यमातून दिसून येते, ज्यामध्ये नवीन पद्धती सादर करणे किंवा विद्यमान क्षमतांमध्ये लक्षणीय सुधारणा करणे यांचा समावेश असतो.  इनोवेशन (Innovation), सर्वसाधारणपणे, आणि विशेषतः टेक्नीकल इनोवेशन (Innovation) एका उद्देशाने केला जातो. दहशतवादी गट तीन प्रकारच्या इनोवेशन्समधून जातात: रणनैतिक, संघटनात्मक आणि धोरणात्मक. तंत्रज्ञानाच्या स्वीकार आणि एकत्रीकरणाच्या संदर्भात, तो प्रामुख्याने आधीपासून अस्तित्वात असलेल्या उद्दिष्टांना सेवा देणाऱ्या रणनैतिक इनोवेशन (Innovation) शी संबंधित असतो. रणनैतिक इनोवेशन (Innovation) टप्प्याटप्प्याने किंवा मूलगामी स्वरूपात, संघटनात्मक तसेच धोरणात्मक नवोन्मेषांना पाठबळ देण्याची शक्यता ठेवतो. रणनैतिक इनोवेशन (Innovation) सुधारित हल्ला पद्धती आणि कार्यपद्धतींना पूरक ठरतो, तर संघटनात्मक इनोवेशन (Innovation) संघटनात्मक रचना आणि भरती प्रक्रियांमध्ये सुधारणा करतो. दरम्यान, धोरणात्मक इनोवेशन (Innovation) नवीन उद्दिष्टे ओळखण्याशी संबंधित असतो, विशेषतः ती उद्दिष्टे जी तंत्रज्ञानाशिवाय पूर्वी शक्य नव्हती.

    फेसबुक, टेलिग्राम आणि एक्स यांसारखी सामाजिक माध्यमे अतिरेकी विचारसरणी पसरवण्यासाठी, समर्थकांची भरती करण्यासाठी आणि निधी उभारण्यासाठी दहशतवादी संघटनांचे साधनं बनली आहेत.

    1990 दरम्यान, इंटरनेटचा वापर दहशतवादी घटकांनी सीमापार कारवाया समन्वयित करण्यासाठी आणि प्रेक्षकांवर प्रभाव टाकण्यासाठी डिजिटल संवाद मंचांच्या माध्यमातून केला. 9/11 हल्ल्यांनी दहशतवादी गटांकडून तंत्रज्ञानाचा व्यापक वापर अधोरेखित केला, ज्यामध्ये सिक्रेट ईमेल, ऑनलाइन सॉफ्टवेअर, प्रीपेड मोबाइल फोन आणि समन्वित हल्ल्यांचे नियोजन व अंमलबजावणी करण्यासाठी इंटरनेट-आधारित समन्वय यांचा समावेश होता. ऑनलाइन प्लॅटफॉर्मचा आणि गुप्त संदेशाचा प्रचार, प्रसार आणि कार्यात्मक नियोजनासह, दहशतवादी क्षमतांमध्ये अनेक प्रकारे वाढ झाली आहे.

    2005 लंडन बॉम्बस्फोटांचे समन्वय व्यावसायिक मोबाइल नेटवर्कद्वारे करण्यात आला आणि दहशतवादात इंटरनेट-आधारित कट्टरतावादाची वाढती भूमिका अधोरेखित झाली. 26/11 मुंबई दहशतवादी हल्ला 2008 मध्ये जागतिक स्थाननिर्धारण प्रणाली global positioning system (GPS), मोबाइल फोन आणि इंटरनेटच्या वापराचे उदाहरण ठरला, ज्यामुळे दहशतवाद्यांना प्रत्यक्ष वेळेत समन्वय साधता आला.

    फेसबुक, टेलिग्राम आणि एक्स यांसारखी सामाजिक माध्यमे अतिरेकी विचारसरणी पसरवण्यासाठी, समर्थकांची भरती करण्यासाठी आणि निधी उभारण्यासाठी दहशतवादी संघटनांचे साधन बनली आहेत. 2019 मध्ये न्यूझीलंडमधील ख्राइस्टचर्च गोळीबार दहशतवादी घटनेचे थेट प्रक्षेपण फेसबुकवर करण्यात आले, ज्याचा उद्देश जागतिक स्तरावर मोठ्या प्रेक्षकांमध्ये भीती आणि अराजकता निर्माण करणे हा होता. डिजिटल क्षेत्रात क्रिप्टोकरन्सी आणि इतर डिजिटल आर्थिक साधनांचा गैरवापर काही दहशतवादी संघटनांनी केला आहे. कारण या व्यवहारांमध्ये ओळख लपलेली राहते असा समज आहे, ते सीमारेषा ओलांडून सहज करता येतात, आणि मनी लॉन्डरिंग रोखण्यासाठी तसेच संबंधित प्रतिबंधात्मक उपायांमध्ये अजूनही अनेक त्रुटी आहेत.

    संगणकीय मशीन लर्निंग (computational machine learning) आणि डीप लर्निंग प्रक्रियांद्वारे कृत्रिम बुद्धिमत्ता (AI) निर्णयक्षमता अधिक प्रभावी करण्याच्या उद्देशाने वापरली जात आहे. जनरेटिव्ह कृत्रिम बुद्धिमत्ता (Gen-AI), ही कृत्रिम बुद्धिमत्तेची एक विशेष उपश्रेणी असून, ती केवळ अंदाज वर्तवण्याऐवजी नवीन निष्पत्ती निर्माण करू शकते. ती इनपुट सूचनांच्या प्रतिसादात प्रगत नवीन माहिती, प्रतिमा, भाषण आणि इतर प्रकारची सामग्री तयार करू शकते.

    डिजिटल क्षेत्रातील AI-प्रेरित फेरफार किंवा दिशाभूल

    माहिती क्षेत्र, ज्यामध्ये सायबरस्पेस चा समावेश होतो, स्वतःमध्येच एक धोरणात्मक क्षेत्र म्हणून ओळखले गेले आहे. जनरेटिव्ह कृत्रिम बुद्धिमत्तेचा अपायकारक वापर लक्षणीय आहे, परस्परसंवादी भरतीपासून ते प्रपोगंडा पसरवणे आणि सामाजिक माध्यमांद्वारे लोकांच्या वर्तनावर प्रभाव टाकण्यापर्यंत. अल-कायदा, इस्लामिक स्टेट आणि हिजबुल्ला यांसारख्या प्रमुख दहशतवादी गटांनी संदेशवहन, भावनिक गुंतवणूक आणि डिजिटल क्षेत्रातील लक्ष्यीकरण यांसह सुधारित प्रचारासाठी जनरेटिव्ह कृत्रिम बुद्धिमत्तेचा सक्रिय वापर केला आहे. मीम-आधारित युद्धपद्धतीचा वापर आणि प्रचार साहित्याचे विविध भाषांमध्ये भाषांतर करून व्यापक पोहोच साधणे, हे जनरेटिव्ह कृत्रिम बुद्धिमत्तेद्वारे वैचारिक अतिरेकीपणाला पाठबळ देण्यासाठी उदयास आलेले साधन आहे. सामग्री हाताळणीसाठी डीपफेक्सचा वापर दहशतवादी गटांकडून वाढत्या प्रमाणात केला जात आहे. माहितीच्या युगात, कृत्रिम बुद्धिमत्तेचा वापर करून चुकीची माहिती आणि दिशाभूल करणाऱ्या मोहिमा राबवणे तुलनेने अधिक सोपे झाले आहे. यासोबतच, सत्याचे अतिशयोक्तीकरण करून प्रेक्षकांना दिशाभूल करणारी चुकीची माहिती ही संबंधित घटना देखील गंभीर आव्हाने निर्माण करू शकते.

    दहशतवादी गट

    वर्ष आणि स्थान

    घटना

    अल-कायदा

    2023, ऑनलाइन प्रपोगंडा नेटवर्क

    बनावट आणि चिथावणीखोर

    कंटेन्ट तयार करण्यासाठी जनरेटिव्ह कृत्रिम बुद्धिमत्तेचा वापर; प्रचाराचे विविध भाषांमध्ये भाषांतर

    ISIL

    2024, सीरिया / इराक

    कृत्रिम बुद्धिमत्तेद्वारे तयार केलेले डीपफेक व्हिडिओ आणि बनावट बातमीचे प्रसारण

    हिजबुल्ला

    लेबनॉन, ऑनलाइन हल्ले

    मानसिक आणि सामाजिक माध्यमांवरील प्रभावी मोहिमांसाठी कृत्रिम बुद्धिमत्तेचा वापर

    बोको हराम

    2024, पश्चिम आफ्रिका

    सामाजिक माध्यमे हाताळण्यासाठी आणि स्वयंचलित प्रचार प्रसारासाठी मूलभूत कृत्रिम बुद्धिमत्ता (AI) साधने

     हमास

    2024, गाझा

    इस्रायली लष्कराविरोधात आणि सर्वसाधारण प्रचारासाठी सामाजिक माध्यमांवरील कृत्रिम बुद्धिमत्तेसह कथानक (नरेटिव्ह) निर्मिती

    स्रोत: लेखकांचे स्वतः गोळा केलेला डेटा , विविध स्त्रोतांमधून एकत्रित केलेले

    मानवरहित प्रणाली आणि स्वायत्त धोक्यांचा उदय

    तंत्रज्ञान स्वीकारण्याचे आणखी एक ठळक उदाहरण म्हणजे मानवरहित हवाई प्रणालींचा कमी खर्चिक अचूक शस्त्र म्हणून होणारा वापर. मानवरहित हवाई वाहनांमध्ये कृत्रिम बुद्धिमत्तेचे एकत्रीकरण झाल्यामुळे आधुनिक युद्धामध्ये स्वायत्तता आणि कार्यक्षमता यांचा एक नवा स्तर जोडला गेला आहे. ड्रोन तंत्रज्ञानातील इनोवेशन (Innovation) आणि प्रभावी प्रतिबंधक उपायांमधील त्रुटी यांच्या संयोगामुळे सशस्त्र दल आणि महत्त्वपूर्ण पायाभूत सुविधा धोरणात्मक उद्दिष्टे साध्य करण्यासाठी प्रमुख लक्ष्य ठरत आहेत. मागील दशकांतील तंत्रज्ञानापेक्षा वेगळे असे कृत्रिम बुद्धिमत्तेचे उदय आणि त्याचा दहशतवादी गटांकडून होणारा स्वीकार त्या प्राणघातक क्षमतेत गुणाकार परिणामासह वाढ करण्याचा उद्देश ठेवतो. आज ड्रोन हे केवळ मागोवा घेणे आणि लक्ष्य ठरवणे यासाठीच नव्हे, तर राज्य घटकांवर दबाव टाकण्यासाठी मानसिक भीती निर्माण करणारे साधन म्हणूनही पसंतीचे शस्त्र बनले आहेत. त्याच वेळी, अशा हल्ल्यांमुळे भौतिक नुकसान आणि व्यत्यय निर्माण होतो, तसेच राज्य घटकांसाठी मोठ्या प्रमाणावर प्रतिष्ठात्मक तोटा होतो. लहान आकाराचे ड्रोन गुप्तचर माहितीचे संकलन, देखरेख आणि इलेक्ट्रॉनिक युद्धासाठी वापरले जातात आणि जमिनीवरील प्रणालींमधून अचूकता व प्राणघातकता वाढवण्यासाठी लक्ष्य प्राप्तीत मदत करतात. 2016 मध्ये इस्लामिक स्टेटकडून पहिला यशस्वी हल्ला झाल्यापासून, दहशतवादी घटक स्वायत्त कृत्रिम बुद्धिमत्तेवर आधारित, थेट संपर्काविना लढणाऱ्या युद्धपद्धतीचा भाग म्हणून मोठ्या प्रमाणावर झुंडीतील हल्ले घडवून आणू शकतात.

    मागील दशकांतील तंत्रज्ञानापेक्षा वेगळे म्हणजे, कृत्रिम बुद्धिमत्तेचा उदय आणि त्याचा दहशतवादी गटांकडून होणारा स्वीकार त्यांच्या पोहोचण्याची क्षमता, ओळख लपवण्याची शक्यता आणि प्राणघातक ताकद यामध्ये एकाच वेळी अनेक पटींनी वाढ करण्याचा उद्देश ठेवतो. त्यामुळे कमी साधनसामग्रीतही दहशतवादी गट अधिक प्रभावी, अधिक गुप्त आणि अधिक धोकादायक कारवाया करू शकतात

    सुरक्षेवरील परिणाम आणि दहशतवादविरोधी प्रयत्न

    कृत्रिम बुद्धिमत्तेचा वापर दहशतवादी गटांसाठी टप्प्याटप्प्याने तसेच नवनवीन परिणाम घडवून आणण्याची शक्यता आहे. प्रगत तंत्रज्ञानाचा एक प्रकार म्हणून कृत्रिम बुद्धिमत्ता (AI) ही दहशतवादी संघटनांसाठी हिंसा घडवून आणण्याचे साधन तसेच प्रेरक घटक बनली आहे. विशेषतः, दहशतवाद्यांकडून जनरेटिव्ह कृत्रिम बुद्धिमत्तेचा वापर राष्ट्रांच्या समुदायाच्या दहशतवादविरोधी प्रयत्नांसाठी एक उदयोन्मुख धोका ठरतो. तथापि, संसाधनांची उपलब्धता आणि नवोन्मेषाची पातळी या दोन्ही बाबी राज्य प्राधिकरणांविरुद्ध कृत्रिम बुद्धिमत्तेचा स्वीकार आणि एकत्रीकरण यशस्वी होण्यासाठी निर्णायक ठरतात. राज्यांच्या दृष्टीने, दहशतवादविरोधी क्षमतांचे स्वरूप आणि अनुकूलनाचा वेग हे अत्यंत महत्त्वाचे राहतात. या संदर्भात, राष्ट्रांच्या समुदायासाठी दहशतवादविरोधी यंत्रणा आणि प्रक्रियांसमोर चार प्रमुख आव्हाने उभी राहतात.

    पहिले, कृत्रिम बुद्धिमत्तेद्वारे तयार केलेली माहिती आणि डीपफेक्स पारंपरिक गुप्तचर धोरणांना आव्हान देतात, कारण त्यांची ओळख पटवणे कठीण ठरते. संकटांच्या काळात बनावट ध्वनी आणि चित्रफिती निर्माण झाल्यास तथाकथित खोटारड्यांचा लाभ मिळतो, ज्यामध्ये खरे पुरावे बनावट म्हणून फेटाळले जातात, सार्वजनिक विश्वास ढासळतो आणि गुप्तचर विश्वसनीयता कमी होते. दुसरे म्हणजे, सोशल मीडियावर आणि इंटरनेटवरील शोधांमध्ये AI च्या मदतीने तयार केलेला मजकूर, चित्रे किंवा व्हिडिओंचा गैरवापर होणे हे मोठ्या प्रमाणावर होणाऱ्या कट्टरतेला आळा घालण्यासाठी एक गंभीर आव्हान बनले आहे. मजबूत कायदेशीर चौकटीच्या अभावात, वैयक्तिक गोपनीयतेच्या उल्लंघनाशी संबंधित चिंता राज्य घटकांसाठी मर्यादा निर्माण करतात. तिसरे, कृत्रिम बुद्धिमत्तेपर्यंत वाढता प्रवेश गैर-राज्य घटकांसाठी तांत्रिक एकत्रीकरण सुलभ करतो आणि कृत्रिम बुद्धिमत्ता (AI) प्रणालींवरील अवलंबित्व वाढवतो. कृत्रिम बुद्धिमत्तेचे एकत्रीकरण राष्ट्रांच्या समुदायासाठी खर्च आणि धोके दोन्ही वाढवते. भविष्यात कृत्रिम बुद्धिमत्तेवर आधारित ड्रोन लष्करी प्रणाली, वीज आणि पाणीपुरवठा जाळे, वाहतूक नेटवर्क आणि आर्थिक प्रणाली यांना लक्ष्य करण्याची शक्यता नाकारता येत नाही. चौथे, कृत्रिम बुद्धिमत्तेची गुणवत्ता, विस्तारक्षमता आणि प्रसार यातील वाढ हे एक संभाव्य आव्हान आहे. निर्यात नियंत्रणातील विद्यमान त्रुटी विशेषतः अंमलबजावणी आणि नियामक यंत्रणांमध्ये कृत्रिम बुद्धिमत्ता (AI) आणि ड्रोनसारख्या स्वायत्त प्रणालींच्या दुहेरी वापराच्या स्वरूपामुळे कायम राहतात. यामुळे पुरवठा साखळ्यांमध्येही त्रुटी आणि असुरक्षा निर्माण होतात, ज्यांचा दहशतवादी घटक क्षमतांची प्राप्ती करण्यासाठी फायदा घेऊ शकतात, आणि हे दहशतवादविरोधी प्रयत्नांसाठी सततचे आव्हान ठरते.

    कृत्रिम बुद्धिमत्तेचा वाढता वापर राज्य-नेतृत्वाखालील सुरक्षा यंत्रणा आणि प्रक्रियांसमोर दहशतवादविरोधी उद्दिष्टे साध्य करताना नव्या प्रकारची आव्हाने उघड करत आहे.

    निष्कर्ष

    कृत्रिम बुद्धिमत्तेचा वाढता वापर राज्य-नेतृत्वाखालील सुरक्षा यंत्रणा आणि प्रक्रियांसमोर दहशतवादविरोधी अंतिम उद्दिष्टे साध्य करताना नव्या प्रकारची आव्हाने उघड करत आहे. कालांतराने, धोक्याचे प्रमाण आणि गुंतागुंत या दोन्ही बाबतीत विस्तारण्याची शक्यता आहे. दहशतवादी गटांकडून धोरणात्मक उद्दिष्टे साध्य करण्यासाठी कृत्रिम बुद्धिमत्तेचा शस्त्र म्हणून वापर करणे हे राष्ट्रांच्या समुदायासाठी रक्षणकर्त्यांची कोंडी निर्माण करते. कृत्रिम बुद्धिमत्ता (AI) प्रचार, नवीन भरती, कार्यात्मक नियोजन आणि अधिक प्रगत सायबर हल्ले यांना वाढत्या प्रमाणात सक्षम करेल. राज्य घटकांनी या जोखमी शक्य तितक्या प्रमाणात नियंत्रित ठेवत जलदगतीने जुळवून घेणे आवश्यक आहे. यासाठी, नवनवीन धोका समजण्याचे स्पष्ट आकलन असणे अत्यावश्यक आहे.


    राहुल रावत हे ऑब्झर्वर रिसर्च फाउंडेशनच्या स्ट्रॅटेजिक स्टडीज प्रोग्राममध्ये रिसर्च असिस्टंट आहेत.

    नेहा कौशल ह्या ऑब्झर्वर रिसर्च फाउंडेशनच्या स्ट्रॅटेजिक स्टडीज प्रोग्राममध्ये इंटर्न होत्या.

    The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.