Author : Animesh Jain

Published on Oct 15, 2023 Commentaries 0 Hours ago

वैशिष्ट्यपूर्ण दृष्टिकोन आणि कौशल्य विकसित केलेल्या AI तंत्रज्ञानाला विकास आणि युद्धाच्या क्षेत्रात तैनात करण्याच्या शक्यतेला चालना देता येईल का? हे पाहणे महत्त्वाचे आहे.

युद्धक्षेत्रात AI तंत्रज्ञान तैनात करणे शक्य आहे का?

आर्टिफिशियल इंटेलिजन्स (AI) चा वापर करणे हा एक जटिल आणि नैतिक प्रश्न आहे. ही गुंतागुंत AI विकासाच्या युद्ध क्षेत्रातील वापराच्या संभाव्य शक्यतेमुळे अधिकच वाढली आहे. जोपर्यंत शस्त्र-शकरीयपणे तैनात होत नाही तोपर्यंत त्यांचे परिणाम समजले जात नसले तरी त्यातील नैतिक आव्हाने सुरुवातीपासून ओळखणे आवश्यक आहे. मॅनहॅटन प्रकल्पातील सहभागींचे ऐतिहासिक उदाहरण आपल्याला पाहता येईल. सुरुवातीलाच त्यांना देखील नैतिक आणि मानवतेसाठी हे कार्य फायदेशीर असल्याचा विश्वास होता, त्यामुळेच या ठिकाणी प्रतिबिंबाचे महत्त्व अधिक अधोरेखित होते. ज्यांना त्यांच्या सहभागामुळे उद्भवलेल्या आणि हिरोशिमा नागासाकीच्या विध्वंसाचे साक्षीदार क्युबन क्षेपणास्त्र संकटाचा अनुभव घेतल्याने अस्तित्वाच्या संकटाचा सामना करण्यास भाग पाडले आहे. मिलिटरी एआय म्हणजे लष्करी अनुप्रयोगांमध्ये एआय आणि मशीन लर्निंग (एमएल) तंत्रज्ञानाची तैनाती. यामध्ये स्वायत्त शस्त्र प्रणाली, AI सहाय्याने निर्णय घेणे आणि बुद्धिमत्ता गोळा करणे समाविष्ट आहे. जसजसा रशिया-युक्रेन संघर्ष सुरू आहे, तसतसे रणांगण कृत्रिम लढवय्यांसह मोठ्या प्रमाणात वाढत आहेत. ज्यामुळे आम्हाला भविष्यातील युद्धात AI च्या भूमिकेची माहिती मिळत आहे. डॉ. जोरीट कामिंगा, रेन एथिक्सचे संचालक आणि मेजर जनरल (निवृत्त) रॉबिन फॉन्टेस म्हणतात की “युक्रेन ही एक प्रयोगशाळा आहे ज्यामध्ये युद्धाचे पुढील स्वरूप तयार केले जात आहे. “ही मार्जिनवरील प्रयोगशाळा नाही, तर एक मध्यवर्ती टप्पा आहे. तात्काळ उपयोजनासाठी AI-सक्षम किंवा AI-वर्धित प्रणाली उत्तम-ट्यून, अनुकूल आणि सुधारण्यासाठी एक अथक अभूतपूर्व प्रयत्न राहणार आहे. हा प्रयत्न भविष्यात AI युद्धाचा मार्ग मोकळा करत आहे.” शस्त्रास्त्रे, बुद्धिमत्ता या दोन्ही बाजूंनी एआय आणि एमएलचा वापर केला जातो. रशियाने एक शक्तिशाली ड्रोन वापरला जो एआय तंत्रज्ञान वापरून लक्ष्य ओळखू शकतो. युक्रेनने संघर्षादरम्यान विवादास्पद चेहरा ओळखण्याचे सॉफ्टवेअर वापरले. युनायटेड स्टेट्स (यूएस) युग्रीन मधील संघर्षाच्या संबंधातील डेटा चे विश्लेषण करण्यासाठी, यूएस सैन्याच्या चांगल्या मॉडेलला मदत करण्यासाठी, प्रगत शत्रु कसा वागेल याचा अंदाज घेण्यासाठी, विविध देशांच्या हालचालींचा मागवा घेण्यासाठी रशिया आणि चीन युक्रेनमधील एआय क्षमतेचा वापर करत आहे.

हिरोशिमा नागासाकीच्या विध्वंसाचे साक्षीदार क्युबन क्षेपणास्त्र संकटाचा अनुभव घेतल्याने अस्तित्वाच्या संकटाचा सामना करण्यास भाग पाडले आहे.

या लेखात आम्ही प्रतिबंधाच्या स्थिरतेवर उदयोन्मुख आणि व्यत्यय आणणार्‍या तंत्रज्ञानाचा प्रभाव, शस्त्र नियंत्रण आणि आत्मविश्वास वाढवण्याच्या उपायांसाठी ही तंत्रज्ञाने कोणत्या संधी देऊ शकतात याचा शोध घेणार आहोत. प्रथम, आम्ही लष्करी उद्देशांसाठी AI आणि ML क्षमतांच्या विकासाद्वारे बदलत्या युद्धभूमीच्या लँडस्केपवर चर्चा करणार आहोत. ड्रोन किंवा ड्रायव्हरलेस टँक यांसारख्या युद्ध-लढाईच्या साधनांमध्ये संगणकाचा झपाट्याने समावेश केला जाणे, या तांत्रिक प्रगतीसह येणारा संकुचित निर्णय घेण्याची वेळ यामुळे मानव जातीला अशा परिस्थितीकडे वळावे लागले आहे. ज्या ठिकाणी जगभरातील सरकारे आणि सैन्य गमावले जाऊ शकते. या तंत्रज्ञानाचा प्राणघातक आणि घातक नसलेल्या दोन्ही शास्त्रांवर नियंत्रण आहे. आम्ही पुढे आंतरराष्ट्रीय आणि देशांतर्गत कायदेशीर, नैतिक नियमांच्या गरजेवर चर्चा करतो. जे युद्ध आणि प्रतिबंध संबंधांसाठी वापरल्या जाणार्‍या AI साधनांमधील कमांड आणि कंट्रोल चेनमधून मानवांना वगळण्यात मदत करू शकतात.

लष्कराकडून AI कसे तैनात केले जात आहे, एक नैतिक विचार

हे युद्ध अंगभूतपणे अनैतिक आहे हे बाजूला ठेवून, रणांगणावरील AI च्या भूमिकेचे आणि रणांगणाच्या पलीकडे असलेल्या परिणामांचे विश्लेषण करूया. या ठिकाणी दोन प्रमुख युद्धविषयक उदाहरणे आहेत: ‘दहशतवादविरोधी’ – एक अधिक लक्ष्यित दृष्टीकोन जेथे सैन्य, मोबाइल, लोक आणि वाहने हाताळते. त्यानंतर ‘क्लासिक एरो-लँड वॉरफेअर’ आहे. टँक, विमाने आणि अधिक पारंपारिक लष्करी उपकरणांसह. AIच्या रणांगणावरील भवितव्यामुळे शस्त्र प्रणालींमध्ये अधिक स्वायत्तता आणली आहे. विशेष लक्ष्याची निवड करताना ओळख आणि बळ वापरण्याच्या किचकट आणि गंभीर कार्यामध्ये दोघांचे बरेच वेगवेगळे परिणाम बघायला मिळणार आहेत.

AI सध्या लष्करात लागू होत असलेल्या बर्‍याच गोष्टी आक्षेपार्ह नाहीत. AI सह-पायलटची रचना बेशुद्ध पायलटला सुरक्षितपणे उतरण्यास मदत करण्यासाठी करण्यात आली होती. जो AI चा निरुपद्रवी वापर म्हटलं गेला आहे. फॅन्सी व्हल्नेरेबिलिटी स्कॅनर आणि संभाव्य पॅच असुरक्षा वापरण्यासाठी सायबर सिक्युरिटी लागू करण्यासाठी ML आणि AI वापरण्याबाबत संशोधन केले जात आहे. इतर गोष्टी जसे ML-आधारित भाषा अनुवाद, दैनंदिन लॉजिस्टिक बॉम्ब निकामी करणारे रोबोट यासारख्या क्षेत्रात सक्रिय आहेत. पण त्यानंतर लक्ष्याची निवड आणि ओळख यासारख्या अधिक स्पर्धात्मक प्रयोगांमध्ये त्यांचा वापर करणे विशेषतः अवघड दिसत आहेत. संपार्श्विक नुकसान अंदाजासाठी ‘बग स्पॉट’ सारखी साधने; आणि ‘स्कायनेट’ ज्याचा उद्देश मोबाइल फोनच्या नमुन्यांमधून ‘दहशतवादी’ किंवा ‘बंडखोर’ शोधणे आहे. प्रोजेक्ट मॅवेनचे उद्दिष्ट आहे की लोकांचा आणि वाहनांचा मागोवा घेणे ज्या भागात वाइड-एरिया मोशन इमेजरी पाळत ठेवली जाते ते विश्लेषण प्रक्रियेच्या पुढील स्तरांमध्ये मानले गेले आहे.

संपार्श्विक नुकसान अंदाजासाठी ‘बग स्पॉट’ सारखी साधने; आणि ‘स्कायनेट’ ज्याचा उद्देश मोबाइल फोनच्या नमुन्यांमधून ‘दहशतवादी’ किंवा ‘बंडखोर’ शोधणे हा आहे.

सध्या AI ला समर्थन देणार्‍या राज्य पक्षांचे ऐकताना आम्हाला काही महत्त्वाच्या गोष्टी समोर येत आहेत. जसे की अचूकता आणि अचूकतेमुळे नागरिकांचे जीवन अधिक सुरक्षित करेल. नैतिक मार्गदर्शक तत्त्वे जसे की US DOD ची AI नीतिशास्त्राची 5 तत्त्वे. AI चे नियमन-मिलिटरी ऍप्लिकेशन्सवरील चीनचे पोझिशन पेपर जनतेला खात्री देण्याचा प्रयत्न करतात की त्यांनी लष्करी वापरासाठी विकसित केलेले AI नैतिकदृष्ट्या डिझाइन केले जाईल, तैनात केले जाईल. या मानकांचा अवलंब करून जगभरातील सरकारे लोकांना हे पटवून देऊ इच्छितात की युद्धभूमी मध्ये AI चा सतत वापर स्वीकार्य आहे. परंतु हे कथन पूर्णपणे सत्यावर आधारित उभे नाही आपण AI प्रणाली बद्दल संपूर्णपणे काय विचार करत आहोत ही लढाऊ आणि गैर लढाऊ यांच्यात योग्यरीत्या फरक करण्याची एक गुंतागुंतीची समस्या आहे. ML आणि AI प्रणालींपेक्षा मानवांचे महत्त्वपूर्ण फायदे आहेत. केवळ काही सांख्यिकीय नमुने लागू करण्याऐवजी संदर्भ समजून घेण्याची आणि परिस्थितीचा विचार करण्याची मानवी क्षमता याचा देखील विचार प्रामुख्याने करायला पाहिजे.

युद्धभूमीवर AI चे तांत्रिक आणि व्यावहारिक विचार

देशांतर्गत तात्पर्य:

डाउनस्ट्रीम काय आहे. एआयचे लष्करी अनुप्रयोग देशांतर्गत समस्यांशी कसे जोडले जातात? सैन्याने सीमेवर वापरलेली अनेक एआय साधने नंतर पोलीस दल आणि मोठ्या कंपन्यांद्वारे वापरली जाण्याची शक्यता नाकारता येत नाही. उदाहरणार्थ, नेटवर्कवर हल्ला करण्यासाठी अफगाणिस्तानमध्ये फुल-मोशन व्हिडिओ वापरला गेला. नंतर वेगवेगळ्या शहरांमध्ये पर्सिस्टंट सर्व्हिलन्स सिस्टम सारख्या कंपन्यांनी याचा वापर केला. त्याची दुसरी बाजू ही आहे की स्वायत्त प्राणघातक शस्त्रे अर्थातच तथाकथित कमी प्राणघातक शस्त्रांसाठी देखील वापरली जाण्याची भीती या ठिकाणी व्यक्त होत आहे. याचे उदाहरण म्हणजे ऑस्ट्रेलियातील सायबोर्ग डायनॅमिक्स नावाची कंपनी पॉडकास्टमध्ये त्यांच्या स्वायत्त ड्रोनबद्दल त्यांच्या छोट्या ग्रेनेड लाँचरसह समोर येत आहे. या कंपनीचे म्हणणे आहे की आंतरराष्ट्रीय बाजारात ग्रॅनाईट लॉन्चर अश्रू वायू मध्ये बदलून विकायचे आहे जेणेकरून पोलीस आंदोलकांवर त्याचा वापर करू शकतील. नंतर, कल्पना विकसित केली गेली आणि संघर्षादरम्यान गाझामध्ये अश्रू वायू आणि रबर-बस्टिंग ग्रेनेड शूट करण्यासाठी स्वायत्त ड्रोनचा वापर केला गेला. या प्रक्रियेचा अर्थ सांगण्यासाठी विल्यम गिब्सन म्हणतात, जेथे भविष्य आहे त्या ठिकाणी समान रीतीने वितरित केले जात नाही, देशांतर्गत पातळीवर कोणते तंत्रज्ञान येत आहे याची कल्पना करण्यासाठी हा विचार महत्त्वाचा आहे.

भूगोल, लढाऊ पक्ष, वापरलेले डावपेच आणि वापरलेली शस्त्रे, वेळोवेळी आणि ठिकाणानुसार बदलू शकतात. त्यामुळे, स्थिर राहणाऱ्या लढाऊ सैनिकाचे कोणतेही सैद्धांतिकदृष्ट्या वैध मॉडेल तयार झालेले नाही.

ऑटोमेशन बायस:

हा पूर्वाग्रह तेव्हा असतो जेव्हा मानव संगणकाद्वारे निर्देशित केल्याप्रमाणे सूचनांचे पालन करतो. उदाहरणार्थ, लक्ष्यीकरणासाठी वापरल्या जाणार्‍या संगणकाच्या व्हिजन अल्गोरिदमने स्ट्राइक चांगला आहे असे म्हटले आणि आम्ही ते उत्तर स्वीकारले तर – ही एक उच्च-जोखीम आणि अवघड गोष्ट बनू शकते. दुसरा पैलू असा आहे की युद्ध परिस्थिती अतिशय गतिमान असते. कोणताही संघर्ष समान नसतो. भूगोल, लढाऊ पक्ष, वापरलेले डावपेच आणि वापरलेली शस्त्रे, वेळोवेळी आणि ठिकाणानुसार बदलू शकतात. त्यामुळे, स्थिर राहणाऱ्या लढाऊ सैनिकाचे कोणतेही सैद्धांतिकदृष्ट्या वैध मॉडेल तयार झालेले नाही. त्यामुळे आंतरराष्ट्रीय मानवतावादी कायदा (IHL) पूर्ण करताना म्हणजेच या लढाऊ सैनिकांच्या वर्तनाचे मूल्यांकन करताना ते निश्चित करण्याचा कोणताही संगणकीयदृष्ट्या योग्य मार्ग नाही. असे करण्याचा प्रयत्न करणारी कोणतीही प्रणाली चुकीची असेल आणि अनेक समस्यांना जन्म देण्यासाठी कारणीभूत ठरेल. अशा प्रकारे या प्रणालींमधील ‘मानवी नियंत्रण’ जे या विचार-विमर्श प्रक्रियेत आधीच काही सक्रिय भूमिका घेत आहेत, या गोष्टींवर गंभीर संदर्भ-विशिष्ट निर्णय लागू करण्याच्या अद्वितीय मानवी क्षमतेला कमी करत आली आहे.

युद्ध नैतिक बनण्यासाठी या प्रणालींना नीतिशास्त्र किंवा IHL सह प्रोग्राम करू शकतो का?

AI च्या नीतिमत्तेच्या आसपासच्या धोरण प्रक्रिया आणि विशेषतः लष्करी AI अजूनही विकसित केले जात आहेत. तथापि, आपण या वस्तुस्थितीची जाणीव ठेवली पाहिजे की नैतिकता म्हणजे पूर्व-परिभाषित नियमांच्या संचाचे पालन करणे नव्हे. मानवी विवेकाची भूमिका, असहमत असण्याची कोणते नियम असावेत, यावर चर्चा करण्याच्या मानवी क्षमतेचा भाग अतिशय महत्त्वाचा आहे. सर्वात महत्त्वाच्या आंतरराष्ट्रीय करारांपैकी एक म्हणजे IHL. हा नियमांचा एक संच आहे जो सशस्त्र संघर्षाचे आचरण नियंत्रित करतो. यामध्ये नागरिक आणि इतर गैर लढणार यांच्या संरक्षणावरील तरतुदी तसेच विशिष्ट शस्त्र आणि युद्धाच्या पद्धतीने वर बंदी घालने समाविष्ट असते. विस्तृत नियमांचा हा एक अस्पष्ट संच आहे ज्यामध्ये एआय सिस्टीममध्ये नैतिकता किंवा IHL ची अंमलबजावणी करणे युद्धाला अधिक नैतिक आव्हाने बनवते. नैतिक विचार हे संदर्भ-अवलंबून असतात आणि स्पष्टीकरणासाठी खुले असतात. ज्यामुळे त्यांना सॉफ्टवेअरमध्ये प्रोग्रामिंग करणे एक जटिल कार्य बनते. सॉफ्टवेअरमधील नैतिकता आणि IHL च्या समजामध्ये पारदर्शकता आणि आवश्यक छाननीचा अभाव असू शकतो. म्हणून, AI प्रणाली हाताळताना केलेल्या निवडींचे गंभीरपणे मूल्यांकन करणे, ते नैतिक आणि कायदेशीर मानदंडांशी जुळतात का याची खात्री करणे महत्वाचे आहे.

नैतिक विचार हे संदर्भ-अवलंबून असतात आणि स्पष्टीकरणासाठी खुले असतात, ज्यामुळे त्यांना सॉफ्टवेअरमध्ये प्रोग्रामिंग करणे एक जटिल कार्य बनते.

पुढील मार्ग कोणता

मानवी लष्करी जवानांना युद्धात जाण्यापूर्वी समाजातील नैतिकता आणि कायद्याचे ज्ञान दिले जाते. हे ज्ञान त्यांच्या सैन्यातील योद्धा आणि सेवा-विशिष्ट नीतिमत्तेच्या बळकटीकरणाद्वारे अधिक विस्तारित केले जाते. जगभरातील सैन्याने युद्धक्षेत्रात एआय आणि स्वायत्तता वाढत्या प्रमाणात समाविष्ट केली आहे. ज्यावेळी बुद्धिमान मशीन जबाबदारी घेत असतील तर आपण त्यांच्याकडे वेगळ्या पद्धतीने का जावे? लष्कराच्या संदर्भामध्ये AI शी संबंधित जटिलता आणि जोखीम मान्य करून कठोर मानके आणि नैतिक मानदंड स्थापित करणे अधिक महत्त्वाचे आहे. ज्यामध्ये मानवी नियंत्रण पारदर्शकता उत्तरदायित्व आणि नागरी जीवनाच्या संरक्षणास प्राधान्य देणारे नैतिक नियम असायला पाहिजे. याबरोबरच मार्गदर्शक तत्त्वे स्थापित करण्यासाठी आंतरराष्ट्रीय सहयोग महत्त्वपूर्ण आहे. वैविध्यपूर्ण दृष्टिकोन आणि कौशल्य सम कलित करून जबाबदार विकास आणि युद्धामध्ये एआयची तैनाती वाढवणे शक्य होणार आहे.

अनिमेश जैन हे भारत सरकारच्या पॉलिसी अॅनालिटिक्स अँड इनसाइट्स युनिट चे प्रमुख वैज्ञानिक सल्लागार कार्यालयात पॉलिसी फेलो आहेत.

हे लेखकाचे वैयक्तिक विचार आहेत

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.