आर्टिफ़िशियल इंटेलिजेंस में अंधाधुंध रफ़्तार से प्रगति हो रही है. ऐसे परिवर्तनों से हमारी ज़िंदगी, सियासतों, समुदायों और कार्यों में AI द्वारा कायापलट कर दिए जाने की कल्पना स्पष्ट रूप से वास्तविकता में बदलने लगी है. AI के प्रभाव अब दूर की कौड़ी न होकर एक स्पष्ट और तेज़ी से बदलते रुझान में तब्दील हो गए है. लिहाज़ा इस दिशा में हमें पूरी संजीगदी से ध्यान देने की ज़रूरत है.
कुछ निश्चित नैतिक और वैधानिक मूल्यों के साथ समन्वय बिठाते हुए AI प्रणालियों के विकास, परीक्षण और तैनाती का रुख़ रखना. इस तरह आर्टिफ़िशियल इंटेलिजेंस को बेहतरी लाने वाली ताक़त के तौर पर ढाला जा सकेगा.
सबसे पहले, हमें साफ़ तौर पर इस बात की समझ विकसित करनी होगी कि ज़िम्मेदार आर्टिफ़िशियल इंटेलिजेंस से हमारा मतलब क्या है. वैसे तो इस मसले पर अलग-अलग परिभाषाएं मौजूद है, लेकिन मोटे तौर पर ज़िम्मेदार आर्टिफ़िशियल इंटेलिजेंस (RAI) का अर्थ है- कुछ निश्चित नैतिक और वैधानिक मूल्यों के साथ समन्वय बिठाते हुए AI प्रणालियों के विकास, परीक्षण और तैनाती का रुख़ रखना. इस तरह आर्टिफ़िशियल इंटेलिजेंस को बेहतरी लाने वाली ताक़त के तौर पर ढाला जा सकेगा.
आर्टिफ़िशियल इंटेलिजेंस का महत्व
फ़ौज में AI का इस्तेमाल कोई नई बात नहीं है, लेकिन AI क्षमताओं के तेज़ी से बढ़ते संसार ने अभूतपूर्व अवसरों के द्वार खोल दिए हैं. इससे आधुनिक युद्ध कला के परिदृश्य को नया आकार मिल रहा है. लिहाज़ा इनके प्रभावों को लेकर हमारी समझ के नए सिरे से आकलन की बाध्यता खड़ी हो गई है. दुनिया के देश अपने ख़ुफ़िया तंत्र, निगरानी व्यवस्था और टोही कार्रवाइयों (ISR) में आर्टिफ़िशियल इंटेलिजेंस, रोबोटिक्स और अन्य उभरती प्रौद्योगिकियों को एकीकृत करने के लिए रणनीतियां तैयार करने की होड़ में लगे है. इसके साथ ही निर्णय लेने की क़वायदों, जंगी दांव-पेचों, रसद आपूर्ति, कार्मिक प्रबंधन और हथियार भंडारों में भी इनके प्रयोग के अवसर तलाश जा रहे है.
टेबल 1: चुनिंदा AI प्रतिरक्षा रणनीतियां, श्वेत पत्र और रिपोर्ट्स
भारत में साल 2018 में रक्षा मंत्रालय के आर्टिफ़िशियल इंटेलिजेंस कार्यबल की स्थापना की गई थी. कार्यबल ने उसी साल अपनी रिपोर्ट भी पेश कर दी, हालांकि ये दस्तावेज़ सार्वजनिक रूप से उपलब्ध नहीं है. 2019 में मंत्रालय ने रक्षा AI परिषद (DAIC) के साथ-साथ रक्षा AI परियोजना संस्था (DAIPA) के गठन का ऐलान कर दिया. इसने डिफ़ेंस इंडिया स्टार्टअप चैलेंजेज़ का आग़ाज़ किया, जो समाधानों का प्रतिरूप तैयार करने और उनके वाणिज्यीकरण में स्टार्टअप और सूक्ष्म लघु और मध्यम उद्यमों (MSMEs) की सहायता करते हैं. साथ ही रक्षा क्षेत्र में सक्रिय सार्वजनिक क्षेत्र के उपक्रमों (PSU) के लिए रोडमैप भी मुहैया कराते हैं. 2019-2022 के बीच रोडमैप फ़ॉर डिफ़ेंस PSUs के तहत चिन्हित 70 परियोजनाओं में से आर्टिफ़िशियल इंटेलिजेंस की 40 परियोजनाओं को पूरा कर लिया गया.
अन्य क्षेत्रों की तुलना में सैन्य दायरों में AI के प्रयोगों पर सख़्त निगरानी रखे जाने की दरकार है. इसके पीछे कई बाध्यकारी वजह है. हथियार प्रणालियों में AI के कुछ प्रयोगों से मशीनों को जीवन और मौत से जुड़े फ़ैसले लेने के अधिकार हासिल हो सकते है. इसी प्रकार फ़ौज में AI का इस्तेमाल निश्चित रूप से अंतरराष्ट्रीय मानवतावादी क़ानूनों (IHL) के मुताबिक होना चाहिए. इनमें अनुरूपता, भेदभाव और उत्तरदायित्व से जुड़े सिद्धांत शामिल हैं. यक़ीनन सैन्य कार्रवाइयों में ताक़त के इस्तेमाल में अनुरूपता से जुड़े फ़ैसले लेने के लिए मानवीय विवेक की आवश्यकता होती है. इस सिलसिले में अकेले AI प्रणालियों पर निर्भर नहीं रहा जा सकता.
मौजूदा दौर में भू राजनीतिक दरार चौड़ी होती जा रही है. ऐसे में सैन्य दायरों में ज़िम्मेदार तरीक़े से AI को अपनाए जाने के रास्ते में एक और चुनौती है- इसके उपयोग की गुंजाइश और संभावित प्रभावों को लेकर वैश्विक आम सहमति का अभाव.
सैन्य क्षेत्र में आर्टिफ़िशियल इंटेलिजेंस के प्रयोग के ज़बरदस्त भू राजनीतिक प्रभाव होते हैं. पहले से ही इसे हथियारों की एक नई दौड़ क़रार दिया जाने लगा है. सामरिक स्थायित्व पर इसके चिंताजनक प्रभाव बताए जा रहे हैं. मौजूदा दौर में भू राजनीतिक दरार चौड़ी होती जा रही है. ऐसे में सैन्य दायरों में ज़िम्मेदार तरीक़े से AI को अपनाए जाने के रास्ते में एक और चुनौती है- इसके उपयोग की गुंजाइश और संभावित प्रभावों को लेकर वैश्विक आम सहमति का अभाव.
सेना में AI के प्रयोग को लेकर तमाम देशों का नज़रिया अलग-अलग है. इस सिलसिले में सार्वभौम रूप से स्वीकार्य मानदंड या नियमन नहीं है. इतना ही नहीं भविष्य के सैन्य प्रयोगों में AI के इस्तेमाल से जुड़े सैन्य दृष्टिकोण को अमेरिका और चीन आकार दे रहे हैं. इन देशों द्वारा सैन्य AI में निवेश के ऊंचे स्तरों के चलते कुछ हद तक ऐसा देखने को मिल रहा है. इन देशों की सियासी, सांस्कृतिक और दूसरी अनिवार्यताएं भी सैन्य AI के इर्द-गिर्द विमर्श का संचालन कर रही है.
न्यूनतम स्तर से परे नैतिक और आचार व्यवस्था से जुड़ी क़वायदें बाद की सोच-विचार का नतीजा है. ख़ास तौर से तब जब किसी देश की रक्षा रणनीति में AI से जुड़ाव का मक़सद ग़ैर-प्रौद्योगिकीय समाधानों के अभाव में फ़ासलों को संदर्भित और चिन्हित करने की बजाय दूसरों की बराबरी करना या उन्हें प्रतिस्पर्धा में पछाड़ना हो जाए. भले ही ड्रोन सैन्य ताक़त में कई गुणा इज़ाफ़ा कर देते है लेकिन क्या वो सीमा से जुड़े टकरावों में चुनौतियों का ख़ात्मा कर देते हैं या अनजाने में तनाव बढ़ाने की संभावनाएं पैदा कर देते है? कुछ देश प्राथमिक रूप से अपने आंतरिक टकरावों के चलते सैन्य संसाधनों को मज़बूत बनाते है, क्या मानवरहित प्रणालियों की मौजूदगी शांति स्थापना के टिकाऊ प्रयासों को बल देगी या उन्हें कमज़ोर करेगी? किसी देश का सैन्य नेतृत्व ज़मीन पर सैन्य कर्मियों की तैनाती से जुड़े हालात सुधारने के लिए किस प्रकार AI का प्रयोग कर सकता है?
घातक स्वायत्त हथियार प्रणालियों (LAWS) पर संयुक्त राष्ट्र सरकारी विशेषज्ञों के समूह में सैन्य AI की भू राजनीति बिल्कुल स्पष्ट है. 2019 में 11 दिशा निर्देशक सिद्धांतों को स्वीकारे जाने के बाद से इस दिशा में काफ़ी कम प्रगति देखी गई है. जैसा कि कई अन्य लोगों ने उल्लेख किया है, सर्वसम्मति-आधारित प्रक्रिया के नतीजतन अल्पसंख्यक समूह की मनमानी देखने को मिलती है. दरअसल इस तरीक़े से रूस और अमेरिका जैसी महाशक्ति किसी भी प्रकार की प्रगति को बाधित कर देती है क्योंकि ऐसे मुल्क बाध्यकारी उपकरण के ख़िलाफ़ होते है. दूसरे देशों के बीच भी स्पष्ट लक्ष्यों का अभाव है. कुछ देश तो घातक स्वायत्त हथियार प्रणालियों के विकास और तैनाती के पूरी तरह ख़िलाफ़ हैं जबकि कुछ अन्य मुल्क (मसलन चीन) सिर्फ़ इनके इस्तेमाल का विरोध कर रहे है. असलियत ये है कि कुछ देशों ने तो ये सवाल तक खड़े कर दिए हैं कि क्या इन परिचर्चाओं के लिए कुछ पारंपरिक हथियारों पर सम्मलेन (CCW) उपयुक्त मंच है.
“राज्यसत्ताओं के बीच साझा सियासी हितों की मौजूदगी की सूरत में ही अंतरराष्ट्रीय हथियारों के नियमन से जुड़ी क़वायद व्यावहारिक साबित हो सकती है.” संयुक्त राष्ट्र सरकारी विशेषज्ञों के समूह के अलावा पिछले कुछ वर्षों में अन्य प्रासंगिक घटनाक्रम देखने को मिले है. इस सिलसिले में देशों के छोटे-छोटे समूह अपनी कार्रवाई से जुड़ी अपील जारी करने के लिए एकजुट हुए है. इस कड़ी में AI और स्वायत्तता के ज़िम्मेदाराना सैन्य प्रयोग के लिए अमेरिकी अगुवाई में राजनीतिक घोषणापत्र और फ़ौज में ज़िम्मेदार AI की कार्रवाई (REAIM) के कार्य आह्वान की मिसाल दी जा सकती है. सैन्य इकाइयों के भीतर ज़्यादा से ज़्यादा AI साक्षरता, प्रणालियों को लेखापरीक्षा के योग्य बनाने और नाकामी से संबंधित कारकों के साथ-साथ सुरक्षा तंत्रों से जुड़ी अपील से इतर नए नियमों के तौर पर कुछ ख़ास मूल्य वर्धन नहीं हुआ है. बहरहाल, अगर तमाम पक्ष महज़ संकेतों से परे जाना चाहें तो ये सारी कवायद शुरुआती बिंदु की भूमिका निभा सकते है.
निष्कर्ष
नई-नवेली प्रौद्योगिकियों को शासित करने वाले नियमों और मानक तैयार करने की यात्रा काफ़ी लंबी खिंचती चली गई है. प्रौद्योगिकीय नवाचार की दिशा में तेज़ रफ़्तार प्रगति के साथ क़दम से क़दम मिलाने में इसे भारी जद्दोजहद करनी पड़ी है. सैन्य मोर्चे पर आर्टिफ़िशियल इंटेलिजेंस से जुड़े विमर्श को आकार देने वाले हथियारों की दौड़ और भू राजनीति दबावों ने इस रुझान को और बदतर बना दिया है. इस सिलसिले में यूनाइटेड किंगडम का ज़िम्मेदार AI दृष्टिकोण पत्र ख़ासतौर से ध्यान खींचता है. ये प्रतिबंधित वातावरण की बजाए समर्थकारी वातावरण पर ज़ोर देता है. इसके तहत ज़िम्मेदार और नैतिक इस्तेमाल के निरपेक्ष सिद्धांतों की बजाए सैन्य AI के लिए सार्वजनिक रज़ामंदी के संदर्भ में अपने तर्क गढ़े गए है. भारत में भी नीतिगत दस्तावेज़ों में अक्सर सैन्य AI से जुड़ी क़वायद को चीन के साथ “बराबरी करने” के तर्क के आधार पर गढ़ा जाता है. वैसे तो व्यापक सामरिक संदर्भ आवश्यक है लेकिन सेना में ग़ैर-प्रौद्योगिकी मोर्चे पर ऐसे असल मसले होते हैं जिन पर प्रौद्योगिकी समाधान थोपे जाने की बजाए उनका निपटारा किए जाने की आवश्यकता होती है.
राष्ट्रीय सैन्य AI रणनीतियों और सिद्धांतों को स्थानीय संदर्भों और अनेक किरदारों के आदानों के ज़रिए आकार दिया जाना चाहिए. इसकी वजह ये है कि प्रयोग से जुड़े मसले, सुरक्षा वातावरण और नागरिकों में विश्वास का स्तर- ये सभी तमाम देशों के बीच परिवर्तनशील होते है. “सैन्य शाखाएं अक्सर अपने उपलब्ध विकल्पों को संकीर्ण बना देती है. दरअसल हथियार प्रणालियों से हासिल किए जा सकने वाले लक्ष्यों और उम्मीदों की बजाए वो उन प्रणालियों को तैयार करने के तौर-तरीक़ों पर ज़्यादा ध्यान देने लगते हैं.” इससे टुकड़ों में ख़रीद का नतीजा देखने को मिलता है. नतीजतन व्यापक रणनीति और लक्ष्यों में इनको किस प्रकार एकीकृत किया जाएगा, इसकी पूरी समझ विकसित नहीं हो पाती है. ऐसे में दुनिया भर की सैन्य इकाइयों के लिए बुद्धिमानी भरा सबब यही है कि वो सिर्फ़ प्रौद्योगिकी के ज़रिए समाधान तलाशने की क़वायद से परहेज़ करें क्योंकि संसार में किसी समस्या का आसान हल मौजूद नहीं होता.
Trisha Ray सेंटर फ़ॉर सिक्योरिटी, स्ट्रैटेजी एंड टेक्नोलॉजी, ऑब्ज़र्वर रिसर्च फ़ाउंडेशन में डिप्टी डायरेक्टर हैं.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.