स्वायत्त शस्त्रास्त्र प्रणाली (AWS)
कृत्रिम बुद्धिमत्ता (AI) मधील प्रगतीमुळे अनेक क्षेत्रात क्रांती घडवून आणण्याची क्षमता आहे, पण याचबरोबर काही धोके देखील निर्माण होत आहेत. लष्करी क्षेत्रात AI चा वापर हा एक गंभीर विषय आहे, कारण त्यात स्वायत्त शस्त्रास्त्र प्रणाली (AWS) चा विकास होत आहे. AWS ही अशी शस्त्रे आहेत जी मानवी हस्तक्षेपशिवाय लक्ष्य निवडू आणि त्यावर हल्ला करू शकतात. सध्या पूर्णपणे स्वायत्त शस्त्रे अस्तित्वात नाहीत, परंतु AI मधील प्रगतीमुळे ते लवकरच वास्तव बनू शकतात. या शस्त्रांचा वापर नैतिकदृष्ट्या अतिशय वादग्रस्त आहे. मानवी हस्तक्षेपाशिवाय लोकांना मारणारी शस्त्रे आपण वापरू शकतो का? हा प्रश्न जगभरात तीव्र चर्चेचा विषय आहे. अमेरिका आणि चीनसारखे काही प्रमुख देश AWS च्या विकासात आघाडीवर आहेत. यामुळे जगभरातील अनेक तज्ञ आणि नागरिकांमध्ये चिंता निर्माण झाली आहे. या परिस्थितीकडे तात्काळ लक्ष देणे गरजेचे आहे. AWS च्या विकासावर आणि वापरावर कठोर नियंत्रणे आणण्यासाठी आंतरराष्ट्रीय स्तरावर सहकार्य आवश्यक आहे. अन्यथा, आपण एका अत्यंत धोकादायक तंत्रज्ञानाच्या दिशेने वाटचाल करत आहोत ज्यामुळे मानवतेला मोठा धोका निर्माण होऊ शकतो
स्वायत्त शस्त्रास्त्र प्रणालीचं मूळ
एडब्ल्यूएस च्या नैतिक आणि कायदेशीर परिणामांबद्दल चिंता 2000 च्या सुरुवातीपासून व्यक्त केल्या जात आहेत. 2012 मध्ये अमेरिकेच्या संरक्षण विभागानं (DoD) यावर कार्यकारी आदेश जारी करून यावर चर्चा तीव्र झाली. हा आदेश पूर्णपणे स्वायत्त शस्त्रांवर कोणत्याही देशाची पहिली धोरणात्मक घोषणा होती आणि त्यात संरक्षण विभागासाठी स्वायत्त आणि अर्ध-स्वायत्त शस्त्रास्त्र प्रणालींच्या विकास आणि वापरासाठी मार्गदर्शक तत्त्वे ठरवून दिली होती. तेव्हापासून एडब्ल्यूएसवर चर्चा मोठ्या प्रमाणात वाढली आहे. यात शैक्षणिक तज्ज्ञ, लष्करी आणि धोरण तज्ज्ञ तसेच आंतरराष्ट्रीय रेडक्रॉस समिती (ICRC), ह्युमन राईट्स वॉच आणि संयुक्त राष्ट्र संस्थांच्या निःशस्त्रीकरण संशोधन संस्था (UNIDIR) सारख्या आंतरराष्ट्रीय संस्थांचा सहभाग वाढत आहे.
एडब्ल्यूएसशी संबंधित एक प्रमुख अडचण म्हणजे त्याची व्याख्या अद्याप स्पष्ट नाही. AI च्या संदर्भात, एडब्ल्यूएसला अशा शस्त्रास्त्र प्रणाली म्हणून परिभाषित केले जाते ज्या AI चा वापर करून मानवी हस्तक्षेप किंवा ऑपरेटरची गरज न पडता लक्ष्य ओळखतात, निवडतात आणि हल्ला करतात. याव्यतिरिक्त, घातक स्वायत्त शस्त्रास्त्र प्रणाली (एलएडब्ल्यूएस) ला एडब्ल्यूएसचा उपसमूह म्हणून परिभाषित केले जाते ज्यात मानवी लक्ष्येवर बल प्रयोग करण्याची क्षमता असते.
जगभरातील प्रमुख लष्करी शक्ती AI संशोधन आणि विकास (R&D) मध्ये मोठ्या प्रमाणात गुंतवणूक करत आहेत. हे स्वतःहून धोकादायक वाटत नसले तरी, स्वायत्त शस्त्रास्त्र प्रणाली (एडब्ल्यूएस) मधील त्यांची वाढती गुंतवणूक चिंताजनक आहे. अमेरिकेचे संरक्षण विभाग (DoD) चीन आणि रशियाच्या एडब्ल्यूएस प्रयत्नांना प्रतिसाद देण्यासाठी "रेप्लिकेटर" कार्यक्रम राबवत आहे. या कार्यक्रमाचा उद्देश युद्धभूमीवर एआय-चालित लहान आणि स्वस्त शस्त्रास्त्र प्रणालींचा वापर करून मानवी सैनिकांना मदत करणे आहे. या शस्त्रास्त्र प्रणाली नष्ट झाल्यास त्वरित बदलल्या जाऊ शकतात. यात स्वयंचलित युद्धनौका, ड्रोन विमानं आणि जमिनीवर, समुद्रात, हवेत किंवा अवकाशात तैनात केलेले "पॉड" युनिट्सचा समावेश असू शकतो.
या शस्त्रास्त्र प्रणाली नष्ट झाल्यास त्वरित बदलल्या जाऊ शकतात. यात स्वयंचलित युद्धनौका, ड्रोन विमानं आणि जमिनीवर, समुद्रात, हवेत किंवा अवकाशात तैनात केलेले "पॉड" युनिट्सचा समावेश असू शकतो.
जगातील प्रमुख लष्करी ताकदींनी स्वायत्त शस्त्रास्त्र प्रणाली (एडब्ल्यूएस)च्या क्षेत्रात मोठी गुंतवणूक केली आहे. हे अतिशय चिंताजनक आहे. अमेरिकेच्या नौदलाने ऑक्टोबर 2023 मध्ये बोटीद्वारे थेट रॉकेट्स वापरून कृत्रिम शत्रू लक्ष्यावर यशस्वी हल्ला केल्याचे प्रदर्शन केले आहे. याशिवाय, पेंटॅगॉनकडे "लॉयल विंगमन" कार्यक्रम आणि व्ही-बॅट हवाई ड्रोनसारखे स्वार्म ड्रोनसह 800 पेक्षा जास्त चालू लष्करी एआय प्रकल्प असल्याचे दिसते.
चीन आपल्या पीएलए समर्थित नागरी-लष्करी एकत्रीकरणाच्या धोरणाचा भाग म्हणून एडब्ल्यूएस मध्ये गुंतवणूक करत आहे. 2022 पर्यंत, चीनमधील जंगलातून पूर्णपणे स्वायत्त 10-ड्रोन स्वार्म फिरत असल्याचे पुरावे आढळले होते. याला प्रत्युत्तर म्हणून, ऑस्ट्रेलियन नौदल कृत्रिम बुद्धिमत्तेने चालविण्यात येणारी "घोस्ट शार्क्स" नावाची स्वायत्त पाणबुडी विकसित करण्यावर काम करत आहे. रशिया देखील एडब्ल्यूएसवर काम करत आहे. शस्त्रास्त्र निर्माता कलाश्निकोव्ह यांनी त्यांच्या लॅन्सेट आणि केयूबी कामिकेझ ड्रोनसाठी प्रसिद्धी केलेल्या सामग्रीवरून ते स्वायत्त कारवाई करण्यास सक्षम असल्याचे दिसते.
एडब्ल्यूएस चा गैर-राज्यीय संस्था आणि दहशतवादी गटांवर होणारा परिणाम
एडब्ल्यूएस मधील लष्करी संशोधन दहशतवाद्यांना विनाशकारी नवीन शस्त्रास्त्रे उपलब्ध करून देऊ शकते. लष्करी तंत्रज्ञानातील प्रगती अनेकदा गैर-राज्यीय संस्थांच्या क्षमतेवर परिणाम करते, विशेषतः जेव्हा त्यांच्या वापरासाठी मर्यादा कमी असतात.
एडब्ल्यूएस दहशतवादाचा धोका कसा वाढवू शकतात:
• दहशतवाद्यांना अधिक गुप्तता प्रदान करू शकतात.
• हल्ला करण्यासाठी दहशतवाद्यांची प्रत्यक्ष उपस्थिती आवश्यक राहणार नाही.
• एडब्ल्यूएस वापरकर्त्याला ओळखणे अत्यंत कठीण होईल.
• पारंपारिक प्रतिबंधकांसाठी कदाचित आक्रमण करू शकतात.
• हल्ल्यांची शक्ती वाढवण्याची शक्यता निर्माण करते.
उदाहरणे:
• यमनमधील हुथी बंडखोरांनी लाल समुद्रात हल्ले करण्यासाठी स्वहस्ती ड्रोन वापरले.
• मूलभूत स्वायत्त ड्रोन संभाव्य मृत्यूदंडाचे कारण ठरू शकतात
जबाबदारी निश्चित करण्याची समस्या
डिसेंबर 2023 मध्ये, नायजेरियाच्या लष्कराच्या ड्रोन हल्ल्यात टुडुन बिरी गावात 85 पेक्षा जास्त नागरिक मृत्युमुख पडले. राष्ट्राध्यक्ष बोला अहमेद टिनुबू यांनी याला "बॉम्बस्फोट अपघात" म्हणून संबोधले. हा हल्ला नायजेरियन हवाई दलाने केलेल्या अनेक हल्ल्यांपैकी एक आहे. अहवालानुसार, जानेवारी 2017 ते जानेवारी 2023 दरम्यान 14 हल्ले झाले ज्यात 300 पेक्षा जास्त लोकांचा मृत्यू झाला. या हल्ल्यांमुळे चिंता वाढली आहे की काही ड्रोन आता स्वायत्त होत आहेत. याचा अर्थ असा की ते मानवी हस्तक्षेपशिवाय लक्ष्य निवडू आणि हल्ला करू शकतात. यामुळे एक धोकादायक परिस्थिती निर्माण होते जिथे ड्रोन हल्ल्यांचे गुन्हेगार "चुकीने कार्यरत असलेल्या कृत्रिम बुद्धिमत्तेवर" सहजतेने दोष लावू शकतात आणि खरा दोषी कोण आहे हे शोधून काढणे अशक्य होईल. युक्रेनमध्ये रशियाविरुद्धच्या युद्धात स्वायत्त हल्ला करणारे ड्रोन वापरल्याचे वृत्त आधीच आले आहे. कृत्रिम बुद्धिमत्ता (AI) माहितीमध्ये नमुने शोधण्यात उत्तम आहे, त्यामुळे ती नाविन्यपूर्णता नसलेली, साधनात्मक किंवा नियमित कामे करण्यासाठी उपयुक्त आहे. परंतु, ज्या कार्यांमध्ये निर्णय घेण्याची गरज असते त्यासाठी AIचा वापर योग्य नाही आणि कमीतकमी त्याच्या सध्याच्या स्वरूपात, त्यामुळे विनाशकारी परिणाम होऊ शकतात.
2023 मध्ये अमेरिकन लष्कराची एक घटना हे समजण्यासाठी एक उत्तम उदाहरण आहे. अमेरिकन वायु दलातील कर्नल हॅमिल्टन यांनी शत्रूच्या हवाई संरक्षण प्रणाली नष्ट करण्यासाठी AI-चालित ड्रोन प्रशिक्षण घेत असलेल्या एका अनुकरणाची चाचणी केली. ड्रोनला धोका संपवण्याचे प्रशिक्षण देण्यात आले होते. परंतु, मानवी ऑपरेटरने ड्रोनला लक्ष्य नष्ट न करण्याचा आदेश दिला तरी, त्याने त्याचे चालन करणाऱ्या संचार टॉवरचे नुकसान केले आणि थोडक्यात त्याने ऑपरेटरला मारले. अमेरिकन वायु दलाच्या प्रवक्त्यांनी असे कोणतेही प्रकरण घडलेच नव्हते असे सांगितले. या घटनेची संपूर्ण माहिती अस्पष्ट असली तरी, कृत्रिम बुद्धिमत्तेचा अविवेकी वापर कसा अपेक्षित नसलेल्या आणि विनाशकारी परिणामांना कारणीभूत ठरू शकतो याचे हे एक उदाहरण आहे.
सध्याच्या जागतिक चौकटीची अपूर्णता
25 जानेवारी 2023 रोजी, अमेरिकेने 2012 चे "डायरेक्टिव्ह 3000-09 ऑन ऑटोनॉमी इन वेपन्स सिस्टम्स" हे धोरण अद्यतनित केले. हे नवीन धोरण स्वायत्त शस्त्रास्त्रांची व्याख्या जवळजवळ त्यांच्या मागील धोरणाशी सुसंगत आहे, परंतु यात अनेक त्रुटी आहेत. हे फक्त DoD ला लागू होते. युद्धाबाहेरील परिस्थितींसाठी कोणतीही मार्गदर्शक तत्त्वे नाहीत. योग्य पातळीवर मानवी निर्णय घेण्याची आवश्यकता यासारख्या अस्पष्ट भाषेचा वापर केला जातो. यामध्ये अनेक लुपहोल्स आहेत, ज्यामुळे ऑपरेटरला मानवी निर्णय घेण्याची शक्ती देण्यासारख्या अस्पष्ट भाषेचा वापर केला जातो. चीन, ऑस्ट्रेलिया, युनायटेड किंगडम आणि रशियासारख्या इतर देशांच्या बाबतीतही परिस्थिती सारखीच आहे.
उदाहरणार्थ चीन कायदेशीरदृष्ट्या स्वायत्त शस्त्रास्त्र प्रणाली (एलएडब्ल्यूएस) वर बंदी घालण्यास समर्थन देतो. परंतु, ते "लाभदायक" AI वापरासाठी एलएडब्ल्यूएसचा वापर करण्याला समर्थन देतो. याचा अर्थ ते एलएडब्ल्यूएसचा वापर स्वतःला फायदेशीर असेल अशा परिस्थितीत करू शकतात. चीनची ही विसंगत भूमिका एलएडब्ल्यूएसच्या आंतरराष्ट्रीय नियंत्रणासाठी एक आव्हान आहे.
कृत्रिम बुद्धिमत्ता (AI) मध्ये अनेक फायदे आहेत, परंतु त्यासोबत नवीन जबाबदारीही येते. AI हे स्वायत्तपणे चालण्यास सक्षम असलेले पहिले तंत्रज्ञान आहे, त्यामुळे त्याकडे वेगळ्या दृष्टिकोनातून पाहणे आवश्यक आहे. आंतरराष्ट्रीय रेडक्रॉस समिति (ICRC) आणि ह्युमन राईट्स वॉचसह जगातील अनेक संस्थांनी आधीच स्वायत्त शस्त्रास्त्र प्रणाली (AWS) च्या वापरावर बंदी घालण्यासाठी नवीन जागतिक कराराची मागणी केली आहे. संयुक्त राष्ट्रसंघाने देखील सर्व घातक स्वायत्त शस्त्रास्त्र प्रणालींवर (LAWS) पूर्ण बंदी घालण्याचा प्रस्ताव ठेवला आहे. अमेरिका आणि चीनसारख्या जागतिक लष्करी नेत्यांनी याबाबतीत पुढाकार घेण्याची गरज आहे कारण मानवी जीवनाची जबाबदारी कृत्रिम बुद्धिमत्तेवर सोपविण्याची शक्यता सर्व मानवतेसाठी गंभीर नैतिक आणि मूलभूत चिंता निर्माण करते. आणि ती केवळ प्रदेशिक वाद आणि महत्त्वाकांक्षांच्या पलीकडे जाणारी समस्या आहे.
प्रतीक त्रिपाठी हे ऑब्झर्व्हर रिसर्च फाउंडेशनमध्ये संशोधन सहाय्यक आहेत.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.