Published on Apr 28, 2023 Updated 0 Hours ago

वैश्विक स्तर पर हथियारों की दौड़ और भू राजनीतिक दबाव आर्टिफ़िशियल इंटेलिजेंस के सैन्य प्रयोग को आकार दे रहे है. 

फ़ौज में उत्तरदायी आर्टिफ़िशियल इंटेलिजेंस (AI): नामुमकिन लक्ष्य या कोरी कल्पना?

आर्टिफ़िशियल इंटेलिजेंस में अंधाधुंध रफ़्तार से प्रगति हो रही है. ऐसे परिवर्तनों से हमारी ज़िंदगी, सियासतों, समुदायों और कार्यों में AI द्वारा कायापलट कर दिए जाने की कल्पना स्पष्ट रूप से वास्तविकता में बदलने लगी है. AI के प्रभाव अब दूर की कौड़ी न होकर एक स्पष्ट और तेज़ी से बदलते रुझान में तब्दील हो गए है. लिहाज़ा इस दिशा में हमें पूरी संजीगदी से ध्यान देने की ज़रूरत है.

कुछ निश्चित नैतिक और वैधानिक मूल्यों के साथ समन्वय बिठाते हुए AI प्रणालियों के विकास, परीक्षण और तैनाती का रुख़ रखना. इस तरह आर्टिफ़िशियल इंटेलिजेंस को बेहतरी लाने वाली ताक़त के तौर पर ढाला जा सकेगा.

सबसे पहले, हमें साफ़ तौर पर इस बात की समझ विकसित करनी होगी कि ज़िम्मेदार आर्टिफ़िशियल इंटेलिजेंस से हमारा मतलब क्या है. वैसे तो इस मसले पर अलग-अलग परिभाषाएं मौजूद है, लेकिन मोटे तौर पर ज़िम्मेदार आर्टिफ़िशियल इंटेलिजेंस (RAI) का अर्थ है- कुछ निश्चित नैतिक और वैधानिक मूल्यों के साथ समन्वय बिठाते हुए AI प्रणालियों के विकास, परीक्षण और तैनाती का रुख़ रखना. इस तरह आर्टिफ़िशियल इंटेलिजेंस को बेहतरी लाने वाली ताक़त के तौर पर ढाला जा सकेगा.

आर्टिफ़िशियल इंटेलिजेंस का महत्व

फ़ौज में AI का इस्तेमाल कोई नई बात नहीं है, लेकिन AI क्षमताओं के तेज़ी से बढ़ते संसार ने अभूतपूर्व अवसरों के द्वार खोल दिए हैं. इससे आधुनिक युद्ध कला के परिदृश्य को नया आकार मिल रहा है. लिहाज़ा इनके प्रभावों को लेकर हमारी समझ के नए सिरे से आकलन की बाध्यता खड़ी हो गई है. दुनिया के देश अपने ख़ुफ़िया तंत्र, निगरानी व्यवस्था और टोही कार्रवाइयों (ISR) में आर्टिफ़िशियल इंटेलिजेंस, रोबोटिक्स और अन्य उभरती प्रौद्योगिकियों को एकीकृत करने के लिए रणनीतियां तैयार करने की होड़ में लगे है. इसके साथ ही निर्णय लेने की क़वायदों, जंगी दांव-पेचों, रसद आपूर्ति, कार्मिक प्रबंधन और हथियार भंडारों में भी इनके प्रयोग के अवसर तलाश जा रहे है.

टेबल 1: चुनिंदा AI प्रतिरक्षा रणनीतियां, श्वेत पत्र और रिपोर्ट्स   

देश रणनीति/रिपोर्ट साल
अमेरिका रक्षा AI रणनीति विभाग 2018
भारत रक्षा मंत्रालय AI कार्यबल रिपोर्ट 2018/2019 में स्वीकृत 
चीन रक्षा श्वेत पत्र 2019
फ़्रांस रक्षा सहायता में आर्टिफ़िशियल इंटेलिजेंस 2019
यूनाइटेड किंगडम (यूके) रक्षा AI रणनीति 2022
इज़राइल सशस्त्र बलों के लिए आर्टिफ़िशियल इंटेलिजेंस रणनीति 2022

भारत में साल 2018 में रक्षा मंत्रालय के आर्टिफ़िशियल इंटेलिजेंस कार्यबल की स्थापना की गई थी. कार्यबल ने उसी साल अपनी रिपोर्ट भी पेश कर दी, हालांकि ये दस्तावेज़ सार्वजनिक रूप से उपलब्ध नहीं है. 2019 में मंत्रालय ने रक्षा AI परिषद (DAIC) के साथ-साथ रक्षा AI परियोजना संस्था (DAIPA) के गठन का ऐलान कर दिया. इसने डिफ़ेंस इंडिया स्टार्टअप चैलेंजेज़ का आग़ाज़ किया, जो समाधानों का प्रतिरूप तैयार करने और उनके वाणिज्यीकरण में स्टार्टअप और सूक्ष्म लघु और मध्यम उद्यमों (MSMEs) की सहायता करते हैं. साथ ही रक्षा क्षेत्र में सक्रिय सार्वजनिक क्षेत्र के उपक्रमों (PSU) के लिए रोडमैप भी मुहैया कराते हैं. 2019-2022 के बीच रोडमैप फ़ॉर डिफ़ेंस PSUs के तहत चिन्हित 70 परियोजनाओं में से आर्टिफ़िशियल इंटेलिजेंस की 40 परियोजनाओं को पूरा कर लिया गया.

अन्य क्षेत्रों की तुलना में सैन्य दायरों में AI के प्रयोगों पर सख़्त निगरानी रखे जाने की दरकार है. इसके पीछे कई बाध्यकारी वजह है. हथियार प्रणालियों में AI के कुछ प्रयोगों से मशीनों को जीवन और मौत से जुड़े फ़ैसले लेने के अधिकार हासिल हो सकते है. इसी प्रकार फ़ौज में AI का इस्तेमाल निश्चित रूप से अंतरराष्ट्रीय मानवतावादी क़ानूनों (IHL) के मुताबिक होना चाहिए. इनमें अनुरूपता, भेदभाव और उत्तरदायित्व से जुड़े सिद्धांत शामिल हैं. यक़ीनन सैन्य कार्रवाइयों में ताक़त के इस्तेमाल में अनुरूपता से जुड़े फ़ैसले लेने के लिए मानवीय विवेक की आवश्यकता होती है. इस सिलसिले में अकेले AI प्रणालियों पर निर्भर नहीं रहा जा सकता. 

मौजूदा दौर में भू राजनीतिक दरार चौड़ी होती जा रही है. ऐसे में सैन्य दायरों में ज़िम्मेदार तरीक़े से AI को अपनाए जाने के रास्ते में एक और चुनौती है- इसके उपयोग की गुंजाइश और संभावित प्रभावों को लेकर वैश्विक आम सहमति का अभाव.

सैन्य क्षेत्र में आर्टिफ़िशियल इंटेलिजेंस के प्रयोग के ज़बरदस्त भू राजनीतिक प्रभाव होते हैं. पहले से ही इसे हथियारों की एक नई दौड़ क़रार दिया जाने लगा है. सामरिक स्थायित्व पर इसके चिंताजनक प्रभाव बताए जा रहे हैं. मौजूदा दौर में भू राजनीतिक दरार चौड़ी होती जा रही है. ऐसे में सैन्य दायरों में ज़िम्मेदार तरीक़े से AI को अपनाए जाने के रास्ते में एक और चुनौती है- इसके उपयोग की गुंजाइश और संभावित प्रभावों को लेकर वैश्विक आम सहमति का अभाव.

सेना में AI के प्रयोग को लेकर तमाम देशों का नज़रिया अलग-अलग है. इस सिलसिले में सार्वभौम रूप से स्वीकार्य मानदंड या नियमन नहीं है. इतना ही नहीं भविष्य के सैन्य प्रयोगों में AI के इस्तेमाल से जुड़े सैन्य दृष्टिकोण को अमेरिका और चीन आकार दे रहे हैं. इन देशों द्वारा सैन्य AI में निवेश के ऊंचे स्तरों के चलते कुछ हद तक ऐसा देखने को मिल रहा है. इन देशों की सियासी, सांस्कृतिक और दूसरी अनिवार्यताएं भी सैन्य AI के इर्द-गिर्द विमर्श का संचालन कर रही है.

न्यूनतम स्तर से परे नैतिक और आचार व्यवस्था से जुड़ी क़वायदें बाद की सोच-विचार का नतीजा है. ख़ास तौर से तब जब किसी देश की रक्षा रणनीति में AI से जुड़ाव का मक़सद ग़ैर-प्रौद्योगिकीय समाधानों के अभाव में फ़ासलों को संदर्भित और चिन्हित करने की बजाय दूसरों की बराबरी करना या उन्हें प्रतिस्पर्धा में पछाड़ना हो जाए. भले ही ड्रोन सैन्य ताक़त में कई गुणा इज़ाफ़ा कर देते है लेकिन क्या वो सीमा से जुड़े टकरावों में चुनौतियों का ख़ात्मा कर देते हैं या अनजाने में तनाव बढ़ाने की संभावनाएं पैदा कर देते है? कुछ देश प्राथमिक रूप से अपने आंतरिक टकरावों के चलते सैन्य संसाधनों को मज़बूत बनाते है, क्या मानवरहित प्रणालियों की मौजूदगी शांति स्थापना के टिकाऊ प्रयासों को बल देगी या उन्हें कमज़ोर करेगी? किसी देश का सैन्य नेतृत्व ज़मीन पर सैन्य कर्मियों की तैनाती से जुड़े हालात सुधारने के लिए किस प्रकार AI का प्रयोग कर सकता है?

घातक स्वायत्त हथियार प्रणालियों (LAWS) पर संयुक्त राष्ट्र सरकारी विशेषज्ञों के समूह में सैन्य AI की भू राजनीति बिल्कुल स्पष्ट है. 2019 में 11 दिशा निर्देशक सिद्धांतों को स्वीकारे जाने के बाद से इस दिशा में काफ़ी कम प्रगति देखी गई है. जैसा कि कई अन्य लोगों ने उल्लेख किया है, सर्वसम्मति-आधारित प्रक्रिया के नतीजतन अल्पसंख्यक समूह की मनमानी देखने को मिलती है. दरअसल इस तरीक़े से रूस और अमेरिका जैसी महाशक्ति किसी भी प्रकार की प्रगति को बाधित कर देती है क्योंकि ऐसे मुल्क बाध्यकारी उपकरण के ख़िलाफ़ होते है. दूसरे देशों के बीच भी स्पष्ट लक्ष्यों का अभाव है. कुछ देश तो घातक स्वायत्त हथियार प्रणालियों के विकास और तैनाती के पूरी तरह ख़िलाफ़ हैं जबकि कुछ अन्य मुल्क (मसलन चीन) सिर्फ़ इनके इस्तेमाल का विरोध कर रहे है. असलियत ये है कि कुछ देशों ने तो ये सवाल तक खड़े कर दिए हैं कि क्या इन परिचर्चाओं के लिए कुछ पारंपरिक हथियारों पर सम्मलेन (CCW) उपयुक्त मंच है.

राज्यसत्ताओं के बीच साझा सियासी हितों की मौजूदगी की सूरत में ही अंतरराष्ट्रीय हथियारों के नियमन से जुड़ी क़वायद व्यावहारिक साबित हो सकती है.” संयुक्त राष्ट्र सरकारी विशेषज्ञों के समूह के अलावा पिछले कुछ वर्षों में अन्य प्रासंगिक घटनाक्रम देखने को मिले है. इस सिलसिले में देशों के छोटे-छोटे समूह अपनी कार्रवाई से जुड़ी अपील जारी करने के लिए एकजुट हुए है. इस कड़ी में AI और स्वायत्तता के ज़िम्मेदाराना सैन्य प्रयोग के लिए अमेरिकी अगुवाई में राजनीतिक घोषणापत्र और फ़ौज में ज़िम्मेदार AI की कार्रवाई (REAIM) के कार्य आह्वान की मिसाल दी जा सकती है. सैन्य इकाइयों के भीतर ज़्यादा से ज़्यादा AI साक्षरता, प्रणालियों को लेखापरीक्षा के योग्य बनाने और नाकामी से संबंधित कारकों के साथ-साथ सुरक्षा तंत्रों से जुड़ी अपील से इतर नए नियमों के तौर पर कुछ ख़ास मूल्य वर्धन नहीं हुआ है. बहरहाल, अगर तमाम पक्ष महज़ संकेतों से परे जाना चाहें तो ये सारी कवायद शुरुआती बिंदु की भूमिका निभा सकते है.

निष्कर्ष

नई-नवेली प्रौद्योगिकियों को शासित करने वाले नियमों और मानक तैयार करने की यात्रा काफ़ी लंबी खिंचती चली गई है. प्रौद्योगिकीय नवाचार की दिशा में तेज़ रफ़्तार प्रगति के साथ क़दम से क़दम मिलाने में इसे भारी जद्दोजहद करनी पड़ी है. सैन्य मोर्चे पर आर्टिफ़िशियल इंटेलिजेंस से जुड़े विमर्श को आकार देने वाले हथियारों की दौड़ और भू राजनीति दबावों ने इस रुझान को और बदतर बना दिया है. इस सिलसिले में यूनाइटेड किंगडम का ज़िम्मेदार AI दृष्टिकोण पत्र ख़ासतौर से ध्यान खींचता है. ये प्रतिबंधित वातावरण की बजाए समर्थकारी वातावरण पर ज़ोर देता है. इसके तहत ज़िम्मेदार और नैतिक इस्तेमाल के निरपेक्ष सिद्धांतों की बजाए सैन्य AI के लिए सार्वजनिक रज़ामंदी के संदर्भ में अपने तर्क गढ़े गए है. भारत में भी नीतिगत दस्तावेज़ों में अक्सर सैन्य AI से जुड़ी क़वायद को चीन के साथ “बराबरी करने” के तर्क के आधार पर गढ़ा जाता है. वैसे तो व्यापक सामरिक संदर्भ आवश्यक है लेकिन सेना में ग़ैर-प्रौद्योगिकी मोर्चे पर ऐसे असल मसले होते हैं जिन पर प्रौद्योगिकी समाधान थोपे जाने की बजाए उनका निपटारा किए जाने की आवश्यकता होती है.

राष्ट्रीय सैन्य AI रणनीतियों और सिद्धांतों को स्थानीय संदर्भों और अनेक किरदारों के आदानों के ज़रिए आकार दिया जाना चाहिए. इसकी वजह ये है कि प्रयोग से जुड़े मसले, सुरक्षा वातावरण और नागरिकों में विश्वास का स्तर- ये सभी तमाम देशों के बीच परिवर्तनशील होते है. “सैन्य शाखाएं अक्सर अपने उपलब्ध विकल्पों को संकीर्ण बना देती है. दरअसल हथियार प्रणालियों से हासिल किए जा सकने वाले लक्ष्यों और उम्मीदों की बजाए वो उन प्रणालियों को तैयार करने के तौर-तरीक़ों पर ज़्यादा ध्यान देने लगते हैं.” इससे टुकड़ों में ख़रीद का नतीजा देखने को मिलता है. नतीजतन व्यापक रणनीति और लक्ष्यों में इनको किस प्रकार एकीकृत किया जाएगा, इसकी पूरी समझ विकसित नहीं हो पाती है. ऐसे में दुनिया भर की सैन्य इकाइयों के लिए बुद्धिमानी भरा सबब यही है कि वो सिर्फ़ प्रौद्योगिकी के ज़रिए समाधान तलाशने की क़वायद से परहेज़ करें क्योंकि संसार में किसी समस्या का आसान हल मौजूद नहीं होता.


Trisha Ray सेंटर फ़ॉर सिक्योरिटी, स्ट्रैटेजी एंड टेक्नोलॉजी, ऑब्ज़र्वर रिसर्च फ़ाउंडेशन में डिप्टी डायरेक्टर हैं.    

 

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.