Author : Animesh Jain

Published on Aug 01, 2023 Updated 0 Hours ago

अलग-अलग दृष्टिकोणों और विशेषज्ञता को जोड़कर युद्ध के मैदान में AI के जवाबदेह विकास और इस्तेमाल को बढ़ावा देना संभव है.

युद्ध के मैदान में उभरती तकनीकों का नीति शास्त्र

आर्टिफिशियल इंटेलिजेंस (AI) का उपयोग एक जटिल नैतिक सवाल है और लड़ाई में जान लेने के लिए AI के विकास के इस्तेमाल की संभावना से ये और भी मुश्किल बन जाता है. वैसे तो हथियारों के असर को अक्सर उस समय तक पूरी तरह नहीं समझा जाता है जब तक कि उन्हें सक्रिय रूप से तैनात नहीं किया जाता है लेकिन शुरू से ही संभावित नैतिक चुनौतियों को पहचानना जरूरी है. मैनहट्टन प्रोजेक्ट (दूसरे विश्व युद्ध के दौरान पहला परमाणु बम बनाने के लिए अमेरिका ने जो प्रोजेक्ट चलाया था) के भागीदारों, जिन्होंने शुरुआत में माना कि उनका काम नैतिक और मानवता के लिए लाभदायक है, का ऐतिहासिक उदाहरण आलोचनात्मक गहन चिंतन है. हिरोशिमा और नागासाकी की बर्बादी का गवाह बनने और क्यूबा के मिसाइल संकट के अनुभव ने उन्हें मजबूर कर दिया कि उनके काम-काज के नतीजतन जो अस्तित्व से जुड़ा संकट आया है, उसका सामना करें. मिलिट्री AI का मतलब है मिलिट्री एप्लिकेशन में AI और मशीन लर्निंग (ML) टेक्नोलॉजी का इस्तेमाल करना. इसमें ऑटोनोमस वेपन सिस्टम, AI की मदद से फैसला लेना और खुफिया जानकारी इकट्ठा करना शामिल है. रूस-यूक्रेन के बीच बढ़ते संघर्ष के दौरान इस तरह के युद्ध के मैदान तेज़ी से आर्टिफिशियल योद्धा से बढ़ते जा रहे हैं और ये हमें भविष्य के युद्ध में AI के रोल के बारे में पूरी जानकारी देते हैं. रेन (RAIN) एथिक्स के डायरेक्टर डॉ. जॉरिट कमिंगा और मेजर जनरल (रिटायर्ड) रॉबिन फोंट्स कहते हैं कि “यूक्रेन एक लेबोरेटरी  है जिसमें भविष्य के युद्ध का निर्माण हो रहा है. ये कोई हाशिये पर खड़ी लेबोरेटरी  नहीं है बल्कि केंद्र में है जिसमें तुरंत इस्तेमाल के लिए AI सक्षम या AI से विकसित सिस्टम को फाइन-ट्यून, एडेप्ट और सुधारने की एक लगातार और अभूतपूर्व कोशिश हो रही है. ये कोशिश भविष्य में AI युद्ध के लिए रास्ता तैयार कर रहा है.” AI और ML का उपयोग हथियारों और इंटेलिजेंस- दोनों में होता है. रूस ने एक शक्तिशाली ड्रोन का इस्तेमाल किया जो AI के इस्तेमाल से अपने टारगेट की पहचान कर सकता है और यूक्रेन ने युद्ध के दौरान एक विवादित फेशियल रिकॉग्निशन सॉफ्टवेयर का उपयोग किया. इसी दौरान अमेरिका भी यूक्रेन में युद्ध से जुड़े डेटा के विश्लेषण और अलग-अलग किरदारों के आने-जाने और गतिविधियों पर नज़र रखने के लिए AI क्षमता का बेहतरीन उपयोग कर रहा है ताकि अमेरिकी सेना के मॉडल को बेहतर करने में मदद की जा सके और इस बात का पहले से अंदाज़ा लगाया जा सके कि वास्तविक दुनिया में एक विकसित विरोधी, खास तौर पर रूस और चीन, कैसे बर्ताव करेगा.

इस लेख में हम प्रतिरोध (डेटरेंस) की स्थिरता पर उभरती एवं विघटनकारी तकनीकों (एमर्जिंग एंड डिसरप्टिव टेक्नोलॉजीज) के असर और हथियारों पर नियंत्रण एवं विश्वास बहाली के उपायों के लिए इन तकनीकों के द्वारा पेश किए जाने वाले अवसरों की छानबीन करेंगे.

इस लेख में हम प्रतिरोध (डेटरेंस) की स्थिरता पर उभरती एवं विघटनकारी तकनीकों (एमर्जिंग एंड डिसरप्टिव टेक्नोलॉजीज) के असर और हथियारों पर नियंत्रण एवं विश्वास बहाली के उपायों (कॉन्फिडेंस बिल्डिंग मेज़र्स) के लिए इन तकनीकों के द्वारा पेश किए जाने वाले अवसरों की छानबीन करेंगे. सबसे पहले हम सैन्य उद्देश्यों के लिए AI और ML की क्षमताओं के विकास के ज़रिए युद्ध के मैदान के बदलते परिदृश्य की चर्चा करेंगे. युद्ध लड़ने के औज़ार के तौर पर कंप्यूटर के तेज़ी से प्रवेश जैसे कि ड्रोन या ड्राइवरलेस टैंक के साथ-साथ इस तकनीकी तरक्की की वजह से निर्णय लेने में लगने वाले कम समय ने मानव जाति को एक ऐसी परिस्थिति की तरफ धकेल दिया है जहां दुनिया भर की सरकारों और सेनाओं के सामने घातक और गैर-घातक हथियारों पर से नियंत्रण खो देने का जोखिम है. हम आगे अंतर्राष्ट्रीय और घरेलू दोनों स्तरों पर कानूनी और नैतिक नियमों की आवश्यकता के बारे में भी चर्चा करेंगे जो AI टूल्स में कमांड और कंट्रोल चेन से इंसानों को हटाने से रोकने में मदद कर सकते हैं और जिनका उपयोग युद्ध और डेटरेंस के संबंधों के लिए किया जा सकता है.

AI को सेना के द्वारा कैसे इस्तेमाल किया जा रहा है- एक नैतिक सोच

इस बात पर गौर नहीं करते हुए कि युद्ध मूलभूत तौर पर अनैतिक होते हैं, हम युद्ध के मैदान में AI की भूमिका और युद्ध के मैदान से परे इसके परिणामों का विश्लेषण करते हैं. युद्ध के दो प्रमुख पैटर्न हैं: ‘काउंटर टेररिज्म’ एक अधिक लक्ष्य बनाकर तैयार दृष्टिकोण है जहां सेना चलते-फिरते टारगेट, लोगों और गाड़ियों से निपटती है; और उसके बाद ‘क्लासिक एरो-लैंड वॉरफेयर’ है जहां टैंक, एयरक्राफ्ट और अधिक पारंपरिक सैन्य उपकरण होते हैं. AI के भविष्य की वजह से इन दोनों का युद्ध के मैदान में काफी अलग-अलग प्रभाव होगा जिससे वेपन सिस्टम में अधिक ऑटोनोमी आएगी, विशेष रूप से टारगेट सेलेक्शन, आइडेंटिफिकेशन और फोर्स के उपयोग के फैसले जैसे महत्वपूर्ण काम-काज में.

मौजूदा समय में सेना में AI को जिन चीजें पर इस्तेमाल किया जा रहा है वो आपत्तिजनक नहीं है- अचेत पायलट के सुरक्षित तरीके से लैंड करने में मदद के लिए AI को-पायलट को तैयार किया गया था जो कि पूरी तरह से बिना किसी नुकसान के AI का इस्तेमाल है. वल्नरेबिलिटी स्कैनर (एक कंप्यूटर प्रोग्राम जो कंप्यूटर, नेटवर्क या एप्लिकेशन की कमजोरियों का पता लगाने के लिए बनाया गया है) का इस्तेमाल करने और संभावित रूप से कमजोरियों को दुरुस्त करने के लिए साइबर सुरक्षा को लागू करने में ML और AI के उपयोग को लेकर रिसर्च की गई है. दूसरी चीजें जैसे कि ML आधारित लैंग्वेज ट्रांसलेशन (भाषा अनुवाद)- जेदि कॉन्ट्रैक्ट का हिस्सा– और रोज़ाना के लॉजिस्टिक और बम डिस्पोजल रोबोट काम-काज के सक्रिय क्षेत्र हैं. लेकिन फिर कई विवादित एप्लिकेशन हैं जैसे कि ‘टारगेट सेलेक्शन’ और ‘आइडेंटिफिकेशन’ जो विशेष रूप से मुश्किल हैं. कोलैटरल डैमेज एस्टिमेशन के लिए ‘बग स्पॉट’ जैसे टूल हैं और ‘स्काईनेट’ का मक़सद मोबाइल फोन पैटर्न से ‘टेररिस्ट’ या ‘इन्सर्जेंट’ का पता लगाना है. प्रोजेक्ट मैवेन का उद्देश्य उन क्षेत्रों में लोगों और गाड़ियों की निगरानी करना है जहां वाइड-एरिया मोशन इमैजरी सर्विलांस उस फीड को एनालिसिस  प्रोसेस की दूसरी परतों में ले जाता है.

वर्तमान में जब हम AI का समर्थन करने वाले सरकारी पक्षों को सुनते हैं तो कुछ अच्छी राय हासिल करते हैं और इसकी वजह ये बताई जाती है कि सटीक होने की वजह से AI आम लोगों के लिए जीवन सुरक्षित बनाएगा. नैतिक गाइडलाइन जैसे कि अमेरिकी रक्षा विभाग की तरफ से 5 प्रिंसिपल्स ऑफ AI एथिक्स और चीन का सरकारी दस्तावेज रेगुलेटिंग मिलिट्री एप्लीकेशंस  ऑफ AI इस बात की कोशिश करते हैं कि लोगों को ये भरोसा दिया जाए कि सेना के इस्तेमाल के लिए जिस AI का वो विकास कर रहे हैं, उसे नैतिक तौर पर तैयार किया जाएगा और इस्तेमाल किया जाएगा. इन मानकों को अपनाकर दुनिया भर की सरकारें लोगों को विश्वास दिलाना चाहती हैं कि युद्ध के मैदान में AI का लगातार उपयोग स्वीकार्य है. लेकिन ये एक नैरेटिव के तौर पर सामने नहीं आता क्योंकि हम इन AI सिस्टम के बारे में जो पूछ रहे हैं वो लड़ाकू और गैर-लड़ाकू के बीच सही ढंग से अंतर करने की एक जटिल समस्या है और ये ऐसी चीज़ है जिसमें ML और AI सिस्टम के मुकाबले इंसान ज़्यादा पकड़ रखता है. इंसान महज़ किसी सांख्यिकीय पैटर्न को लागू करने के बदले संदर्भ को समझने और किसी हालात के बारे में सोचने की क्षमता रखता है.

युद्ध के मैदान में AI को लेकर तकनीकी और व्यावहारिक सोच

घरेलू तात्पर्य: डाउनस्ट्रीम क्या है और AI के मिलिट्री एप्लिकेशन घरेलू मुद्दों से कैसे जुड़ते हैं? सीमा पर सेना के द्वारा उपयोग किए जाने वाले कई AI टूल्स को बाद में पुलिस फोर्स और बड़ी कंपनियां भी इस्तेमाल करेंगी. उदाहरण के लिए, अफ़ग़ानिस्तान में आतंकी नेटवर्क पर हमले के लिए फुल-मोशन वीडियो का इस्तेमाल किया गया था जिसे बाद में परसिस्टेंट सर्विलांस सिस्टम जैसी कंपनियों के द्वारा कई शहरों में उपयोग किया गया था. इसका दूसरा पक्ष ये तथ्य है कि ऑटोनोमस घातक हथियारों को स्पष्ट रूप से ऑटोनोमस कथित तौर पर कम घातक हथियारों के लिए भी इस्तेमाल किया जाएगा. इसका एक आदर्श उदाहरण है ऑस्ट्रेलिया की कंपनी साइबोर्ग डायनामिक्स जिसने एक पॉडकास्ट में अपने छोटे ग्रेनेड लॉन्चर के साथ अपने ऑटोनोमस ड्रोन के बारे में बताया था. उसने कहा कि उसका अंतर्राष्ट्रीय बाज़ार ग्रेनेड लॉन्चर की जगह आंसू गैस बेचना था ताकि पुलिस इसका इस्तेमाल प्रदर्शनकारियों पर कर सके. बाद में इस आइडिया को विकसित किया गया और ऑटोनोमस ड्रोन का उपयोग गाज़ा में संघर्ष के दौरान आंसू गैस छोड़ने और रबर-बस्टिंग ग्रेनेड के लिए किया गया. फिक्शन लेखक विलियम गिब्सन के शब्दों में कहें तो – “भविष्य यहां है, ये समान रूप से बांटा नहीं गया है” और घरेलू स्तर पर जो होने वाला है उसकी कल्पना के लिए हम सीमा की तरफ देख सकते हैं.

वर्तमान में जब हम AI का समर्थन करने वाले सरकारी पक्षों को सुनते हैं तो कुछ अच्छी राय हासिल करते हैं और इसकी वजह ये बताई जाती है कि सटीक होने की वजह से AI आम लोगों के लिए जीवन सुरक्षित बनाएगा.

ऑटोमेशन पक्षपात: ये पक्षपात तब होता है जब इंसान कंप्यूटर के द्वारा दिए गए निर्देश का बिना सवाल उठाए पालन करता है. उदाहरण के तौर पर, अगर निशाना बनाने के लिए इस्तेमाल किया जा रहा कंप्यूटर का विज़न एल्गोरिदम कहता है कि हमला सही है और हम इस जवाब को स्वीकार करते हैं तो ये काफी जोखिम वाली और पेचीदा चीज़ होती है. एक और पहलू ये है कि युद्ध की परिस्थितियां काफी गतिशील होती है, कोई भी संघर्ष एक जैसा नहीं होता. भूगोल, युद्ध में शामिल पक्ष, उपयोग में लाई जा रही रणनीतियां और हथियार समय और जगह के हिसाब से अलग-अलग होंगे. इसलिए, सैद्धांतिक रूप से किसी योद्धा का कोई वैध मॉडल नहीं होता जो स्थिर रहे. इस प्रकार अंतर्राष्ट्रीय मानवाधिकार कानून (IHL) को पूरा करते समय यानी इन योद्धाओं के बर्ताव का आकलन करते हुए उस निर्धारण को करने का कोई कंप्यूटेशनल उचित तरीका नहीं है. इसलिए कोई भी सिस्टम जो ऐसा करने की कोशिश करता है वो गलत होगा और कई समस्याओं की वजह बनेगा. इस प्रकार इन सिस्टम में ‘ह्यूमन कंट्रोल’, जो पहले से ही इस विचार-विमर्श की प्रक्रिया में सक्रिय भूमिका निभा रहा है, इन चीज़ों के बारे में महत्वपूर्ण संदर्भ-विशेष निर्णय को लागू करने की अनूठी इंसानी क्षमता को कमजोर कर रहा है.

क्या हम इन सिस्टम को नीति शास्त्र या अंतर्राष्ट्रीय मानवाधिकार कानूनों (IHL) के आधार पर तैयार करके ज्यादा नैतिक बना सकते हैं?

AI और विशेष रूप से सैन्य AI के नीति शास्त्र के इर्द-गिर्द नीतिगत प्रक्रियाएं अभी भी विकसित हो रही हैं. हालांकि हमें इस तथ्य को लेकर सचेत रहने की आवश्यकता है कि नीति शास्त्र केवल पहले से परिभाषित नियमों की सूची का पालन करना नहीं है बल्कि लोगों के अंतरात्मा की आवाज़, अलग राय रखने की इंसानी क्षमता और तैयार किए जाने वाले नियमों के बारे में चर्चा महत्वपूर्ण है. सबसे महत्वपूर्ण अंतर्राष्ट्रीय समझौतों में से एक है IHL. ये नियमों की एक सूची है जो सशस्त्र संघर्ष को नियंत्रित करती है. इसमें आम लोगों और अन्य गैर-सैनिकों की रक्षा के साथ-साथ कुछ विशेष हथियारों और युद्ध की पद्धति पर रोक के प्रावधान शामिल हैं. हालांकि ये व्यापक तौर पर अस्पष्ट नियमों का समूह है. युद्ध को ज़्यादा नैतिक बनाने के लिए AI सिस्टम में नीति शास्त्र या IHL को लागू करना चुनौती पेश करती है. नैतिक सोच-विचार संदर्भ पर निर्भर है और इसकी अलग-अलग व्याख्या की जा सकती है. इसके कारण इन्हें सॉफ्टवेयर में प्रोग्राम करना एक मुश्किल काम है. सॉफ्टवेयर के भीतर नीति शास्त्र और IHL की समझ में पारदर्शिता और आवश्यक जांच-परख की कमी हो सकती है. इसलिए AI सिस्टम को संभालते समय विकल्प का आलोचनात्मक मूल्यांकन करना महत्वपूर्ण है और सुनिश्चित किया जाए कि वो नैतिक और कानूनी नियमों के साथ जुड़े हों.

एक और पहलू ये है कि युद्ध की परिस्थितियां काफी गतिशील होती है, कोई भी संघर्ष एक जैसा नहीं होता. भूगोल, युद्ध में शामिल पक्ष, उपयोग में लाई जा रही रणनीतियां और हथियार समय और जगह के हिसाब से अलग-अलग होंगे. 

आगे का रास्ता

मानव सैन्य कर्मी युद्ध के क्षेत्र में जाने से पहले नीति शास्त्र, नैतिकता और समाज के कानून की जानकारी हासिल करते हैं. इस जानकारी का उनकी सेना के योद्धा और सेवा विशेष स्वभाव की मज़बूती से और विस्तार होता है. चूंकि दुनिया भर में सेनाएं तेज़ी से AI और ऑटोनोमी को युद्ध के क्षेत्र में शामिल कर रही हैं और बुद्धिमान मशीनें ज़िम्मेदारी लेती हैं, ऐसे में हमारा दृष्टिकोण अलग-अलग क्यों होना चाहिए? मिलिट्री AI की मूलभूत जटिलता और इनके साथ जुड़े जोखिमों को स्वीकार करते हुए ये महत्वपूर्ण है कि सख्त स्टैंडर्ड और नैतिक नियम तैयार किया जाए. इंसानी नियंत्रण, पारदर्शिता, जवाबदेही और आम लोगों की सुरक्षा को प्राथमिकता देने वाले नैतिक नियमों और गाइडलाइन को बनाने में अंतर्राष्ट्रीय सहयोग अहम है. अलग-अलग दृष्टिकोणों और विशेषज्ञता को जोड़कर युद्ध में AI के जवाबदेह विकास और इस्तेमाल को बढ़ावा देना संभव है.


अनिमेष जैन भारत सरकार की पॉलिसी एनालिटिक्स  एंड इनसाइट्स यूनिट के तहत ऑफिस ऑफ प्रिंसिपल साइंटिफिक एडवाइजर में पॉलिसी फेलो हैं.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.