Authors : Ariel Conn | Ingvild Bode

Expert Speak Raisina Debates
Published on Feb 07, 2024 Updated 0 Hours ago

आर्टिफिशियल इंटेलिजेंस (AI) पर कोई भी नियम-कानून बनाते समय AI के सबसे ख़तरनाक इस्तेमाल पर विचार करने की आवश्यकता है.

हथियारों के सिस्टम में AI की सुरक्षा कैसे तय की जाये?

ये लेख AI F4: फैक्ट्स, फिक्शन, फीयर्स एंड फैंटेसीज़ सीरीज़ का हिस्सा है. 


भले ही आर्टिफिशियल इंटेलिजेंस (AI) के लिए नैतिक गाइडलाइंस और नये नियम-कानूनों की बात की जा रही है लेकिन नीति निर्माताओं और इस उद्योग से जुड़े लोगों ने हथियारों की प्रणाली में AI के नैतिक और कानूनी प्रभाव को शामिल करने से परहेज़ किया है. AI गवर्नेंस के लिए कुछ सिफारिशों में स्पष्ट रूप से AI के सैन्य इस्तेमाल को शामिल नहीं किया गया है जैसे कि यूरोपियन यूनियन (EU) के ड्राफ्ट AI एक्ट में. वहीं कुछ और सिफारिशों में इसके इस्तेमाल का ज़िक्र नहीं करके परोक्ष रूप से AI का सैन्य इस्तेमाल नहीं करने के बारे में बताया गया है. 

हथियारों के सिस्टम में AI को एक ऐसे विषय के तौर पर मानने की प्रवृत्ति है जो पूरी तरह से सैन्य क्षेत्र में है और इसलिए सैन्य या अंतर्राष्ट्रीय कूटनीतिक हलकों के बाहर इस पर चर्चा नहीं की जा सकती है. 

हालांकि, अगर लोग AI के साथ जुड़ी चुनौतियों के पूरे दायरे की तरफ नहीं देखते हैं तो हम अलग-अलग AI गवर्नेंस से जुड़ी पहल के सफल होने की उम्मीद नहीं कर सकते हैं. हम AI के सबसे ख़तरनाक इस्तेमाल यानी हथियारों के सिस्टम में AI पर विचार किए बिना AI के मुद्दों का समाधान नहीं कर सकते हैं. 

कौन कर रहा है AI सक्षम हथियारों का इस्तेमाल?

हथियारों के सिस्टम में AI को एक ऐसे विषय के तौर पर मानने की प्रवृत्ति है जो पूरी तरह से सैन्य क्षेत्र में है और इसलिए सैन्य या अंतर्राष्ट्रीय कूटनीतिक हलकों के बाहर इस पर चर्चा नहीं की जा सकती है. कई सैन्य चर्चाओं में ये सोच है कि हथियारों के सिस्टम में AI का इस्तेमाल केवल सेनाओं के द्वारा किया जा सकता है. फिर भी सेना और सरकारी अधिकारी पिछले कई वर्षों से इस तरह के हमलों का निशाना बनते आ रहे हैं. 2018 में सीरिया में रूस के सैन्य अड्डों पर हमला और 2021 में इराक के प्रधानमंत्री मुस्तफा अल-कदीमी की हत्या की कोशिश इसके उदाहरण हैं. 

इसके अलावा अंतर्राष्ट्रीय चर्चाओं में ये मानने की प्रवृत्ति है कि जो हथियार AI की मदद से विकसित या उन्नत होते हैं, उन्हें केवल किसी देश की सेना या सेना के ठेकेदार ही बना सकते हैं. हालांकि अनमैन्ड एरियल व्हीकल (UAV) का मामला पहले से ही इस बात का उदाहरण है कि कैसे नागरिक क्षेत्रों में इन तकनीकों की व्यापक उपलब्धता इसके प्रसार को बढ़ाते हैं और इसने गैर-सरकारी किरदारों के द्वारा पहले से तैयार UAV को हथियारों के सिस्टम में फिर से इस्तेमाल में सक्षम बनाया है

इस बीच ऑटोनॉमस वेपन सिस्टम और छोटे सिस्टम जैसे कि ड्रोन को हथियार में बदलने वाले AI सॉफ्टवेयर के प्रसार को लेकर बढ़ती चिंता से सवाल उठ रहे हैं कि संभावित आपराधिक इस्तेमाल और लोगों की सुरक्षा पर असर के मामले में इसका क्या अर्थ है.  

AI की क्षमताएं

इस बात पर विचार करना उपयोगी हो सकता है कि आम लोगों के इस्तेमाल के लिए AI बनाम सैन्य इस्तेमाल के लिए AI जैसी कोई चीज़ नहीं है बल्कि केवल एक AI है. AI और ऑटोनॉमी को ऐसी क्षमताओं के रूप में सोचा जा सकता है जो अलग या ख़ास तकनीकों के बजाय मौजूदा प्रोग्राम और सिस्टम में जोड़ी जाती हैं.  

AI’ शब्द अलग-अलग प्रकार की तकनीक़ी क्षमताओं का प्रतिनिधित्व करता है जिसका इस्तेमाल अनगिनत प्लैटफॉर्म और सॉफ्टवेयर में किया जा सकता है, भले ही मूल रूप से इन्हें AI या रक्षा उपयोग को दिमाग में रखकर तैयार नहीं किया गया हो. AI का दूरगामी और अक्सर अप्रत्याशित प्रभाव हो सकता है और ये युद्ध से लेकर भू-राजनीति- जैसे कि चीन की AI रणनीति के विकास पर अल्फागो का असर था- और नौकरी के बाज़ार से लेकर मानसिक स्वास्थ्य- जैसे कि एल्गोरिदम के द्वारा किसी डिप्रेस्ड टीनएजर को खुदकुशी के लिए प्रेरित करने वाला कंटेंट मुहैया कराना- तक हर चीज़ पर असर डालता है. 

AI के सैन्य उपयोग (यानी गैर-हथियारयुक्त इस्तेमाल) के मामले में उनमें से कई नागरिक उपयोग से मिलते-जुलते हैं. दुनिया भर की सेनाएं प्रिडिक्टिव एनालिसिस के ज़रिए साजो-सामान और योजना बनाने को सुधारने की कोशिश करती हैं, इमेज रिकॉग्निशन टेक्नोलॉजी का उपयोग करके युद्ध का त्वरित विश्लेषण करती हैं, बार-बार दोहराए जाने वाले प्रशासनिक काम को ऑटोमेटिक बनाती हैं, ऑटोनॉमस ड्राइविंग की क्षमताओं को विकसित करती हैं, नेविगेशन को सुधारती हैं, इत्यादि. बड़े, खर्चीले, नौकरशाही वाले सैन्य काम-काज को ज़्यादा असरदार ढंग से करने में मददगार AI क्षमताओं पर सोच के नज़रिए से AI के सैन्य उपयोग पर विचार करना समझ में आता है. 

हालांकि ये AI सक्षम हथियार ही हैं जिनका सेना और नागरिक इस्तेमाल पर सबसे ज़्यादा प्रभाव होगा. अभी जिस तरह से तकनीक़ विकसित हो रही है, उसे देखते हुए ये सबसे नाटकीय ढंग से नागरिकों और गैर-सरकारी किरदारों के द्वारा ड्रोन तकनीक़ को अपनाने और इसके प्रसार में दिखता है जैसा कि ऊपर बताया गया है. 

क्वॉडकॉप्टर ड्रोन: AI क्षमता के दूसरे इस्तेमाल का एक उदाहरण और गवर्नेंस के लिए विकल्प

कमर्शियल क्वॉडकॉप्टर ड्रोन का हथियार के तौर पर इस्तेमाल समस्या के पूरे दायरे पर विचार करने के लिए एक उदाहरण मुहैया करा सकता है. पुलिस, सुरक्षा बल, सेना और आतंकवाद विरोधी संगठन पिछले कई वर्षों से इस बढ़ती समस्या से निपट रहे हैं. ये AI के हथियार के रूप में इस्तेमाल को एक जटिल समस्या के तौर पर मानने के महत्व को उजागर करता है. ये सेना से आगे तक जाता है ताकि हथियारों के उन उत्पादकों को शामिल किया जा सके जिनका उपयोग कभी भी ऑटोनॉमस रूप में करने के बारे में नहीं सोचा गया था, जिन लोगों को ऐसे हथियारों से नुकसान पहुंचाया जा सकता है या जिनकी हत्या की जा सकती है और कानून लागू करने वाले अधिकारी जो इन हथियारों से किए जाने वाले अपराधों को हल करते हैं और इसके साथ-साथ ऐसे हथियारों के उपयोग से ख़ुद ज़्यादा जोख़िम का सामना करते हैं. इस पर अधिक विस्तार से ऐसे देखा जा सकता है: 

सबसे पहले, हमने कमर्शियल ड्रोन से जुड़े हैंडगन और फ्लेमथ्रोअर्स (गोला फेंकने की तोप) जैसे हथियारों के उदाहरण देखे हैं. अमेरिका में ड्रोन के हथियार के रूप में इस्तेमाल पर फेडरल एविएशन एडमिनिस्ट्रेशन ने पाबंदी लगा रखी है लेकिन ये ऐसे उपयोग को रोकने के लिए शायद पर्याप्त नहीं है. इसके अतिरिक्त गन उत्पादकों को अब इसे एक ऐसे समस्या के रूप में समझना चाहिए जिसका हल करने में उन्हें भी शामिल होने की आवश्यकता है. उदाहरण के लिए, वो अपनी तकनीक़ में बदलाव कर सकते हैं ताकि ड्रोन में कुछ लगाना मुश्किल हो जाए. नियम-कानून के पहलू से इसका मतलब ट्रिगर दबाने के लिए फिंगरप्रिंट ID या दूसरे प्रकार के अनूठे और सुराग लगाने लायक आइडेंटिफायर (पहचानकर्ता) की आवश्यकता हो सकती है. 

अमेरिका में ड्रोन के हथियार के रूप में इस्तेमाल पर फेडरल एविएशन एडमिनिस्ट्रेशन ने पाबंदी लगा रखी है लेकिन ये ऐसे उपयोग को रोकने के लिए शायद पर्याप्त नहीं है. इसके अतिरिक्त गन उत्पादकों को अब इसे एक ऐसे समस्या के रूप में समझना चाहिए जिसका हल करने में उन्हें भी शामिल होने की आवश्यकता है.

दूसरा, ड्रोन उत्पादकों को ये विचार करने की आवश्यता है कि लोग अपने उत्पादों का हथियारों के रूप में इस्तेमाल करने की कोशिश कर सकते हैं. ड्रोन उत्पादक केवल ये नहीं कह सकते कि ये उनकी समस्या नहीं है या फिर ये सुझाव नहीं दे सकते कि इसे हल करना बहुत कठिन है. उन्हें ड्रोन के लिए नया सेंसर या दूसरे उपकरण बनाने की ज़रूरत पड़ सकती है जैसे कि कोई ऐसी चीज़ जो ड्रोन में बिना मंज़ूरी वाले उपकरण लगाने पर उन्हें उड़ने से रोकती हैं. 

तीसरा, उन कानूनों को आगे बढ़ाने की ज़रूरत है जो उन रोबोट और ड्रोन के हथियारों के रूप में इस्तेमाल को रोकते हैं जिन्हें आम लोगों और कमर्शियल इस्तेमाल के लिए तैयार किया गया है. 

ये उदाहरण AI की चुनौतियों के बारे में एक अलग तकनीक़ के रूप में सोचने के बदले समग्र रूप से देखने के महत्व को रेखांकित करता है. इसमें इसके पूरे जीवनचक्र (लाइफसाइकल), इसकी अंतर्निहित जटिलताएं और जिस तरह से ये दूसरी चुनौतियों के साथ-साथ लोगों और समाज के साथ ज़्यादा व्यापक रूप से बातचीत करेगा, उस पर विचार करना शामिल है. वैश्विक नियम-कानून के नज़रिए से इस मुद्दे की बहुआयामी प्रकृति को समझना और पूरे चरण के दौरान शामिल अलग-अलग भागीदारों को पहचानना महत्वपूर्ण है. 

साइबर टेक्नोलॉजी से सबक 

साइबर तकनीक़ के इर्द-गिर्द मुद्दे एक और उपयोगी तुलना प्रदान करते हैं. सॉफ्टवेयर डेवलपमेंट और इंटरनेट के शुरुआती वर्षों के दौरान इंजीनियर्स ने इस बात पर विचार नहीं किया कि कैसे अलग-अलग सरकारें और सेना दूसरे देशों के ख़िलाफ़ कमज़ोरियों को लेकर जोड़-तोड़ कर सकती हैं. इस निष्क्रियता के कारण साइबर सुरक्षा अब समाधान के मामले में एक बहुत बड़ी समस्या बन गई है. हम AI के साथ भी इसी तरह की गलती करने की राह पर हैं. लाइफसाइकल के शुरुआती चरण में शामिल डेवलपर्स और दूसरे किरदार ज़िम्मेदारी से भागने की कोशिश करते हैं. लेकिन जब वो समस्याग्रस्त तकनीकें तैयार करते हैं तो ये सबकी परेशानी बन जाती है.   

हाल के दिनों में साइबर तकनीक़ और साइबर मुद्दे एक और ऐसे क्षेत्र की नुमाइंदगी करते हैं जहां सैन्य और नागरिक इस्तेमाल- लाभदायक और ख़राब दोनों- एक-दूसरे से सबसे ज़्यादा मिलते हैं. 

निष्कर्ष 

अगर AI नियम-कानून के इर्द-गिर्द चर्चाएं सैन्य इस्तेमाल को दूसरे इस्तेमाल से अलग करने के मौजूदा रुझान का पालन करते रहते हैं तो AWS के प्रसार का जोख़िम महत्वपूर्ण रूप से बढ़ जाता है. लेकिन अगर हम AI की दूसरे चिंताओं की तरह ही AI में सैन्य इस्तेमाल पर विचार करते हैं तो हम ज़्यादा प्रभावी ढंग से इन मुद्दों का समाधान कर सकते हैं. AI का हथियार के तौर पर इस्तेमाल AI के उपयोग को लेकर कुछ बहुत बड़े जोख़िम पेश करता है. हालांकि इसकी वजह से सेनाओं को कुछ सबसे सख्त़ राष्ट्रीय और अंतर्राष्ट्रीय कानूनों का पालन करना होगा और सैन्य कमांडर AI प्रोग्राम के साथ हथियारों के सिस्टम की मांग करेंगे जिन पर अंतर्राष्ट्रीय कानूनों को मानने और अपने सैनिकों के लिए जोख़िम कम करने के उद्देश्य से भरोसा किया जाएगा, ख़ास तौर पर AI हथियारों के प्रसार के जोख़िम को कम करके जिसका इस्तेमाल उनके सैनिकों के ख़िलाफ़ किया जा सकता है. 

वैसे तो ये अलग लग सकता है लेकिन AI को लेकर वैश्विक नियम-कानून में AI के सैन्य इस्तेमाल को शामिल करने से ज़िम्मेदारी से सभी तरह के AI के इस्तेमाल और विकास को बढ़ावा मिलेगा. 


एरियल कॉन ग्लोबल शील्ड की को-फाउंडर हैं और डिफेंस सिस्टम के लिए ऑटोनॉमी एंड AI के मुद्दों पर IEEE-SA रिसर्च ग्रुप का नेतृत्व करती हैं. 

इंगविल्ड बोड यूनिवर्सिटी ऑफ सदर्न डेनमार्क के सेंटर फॉर वॉर स्टडीज़ में एसोसिएट प्रोफेसर हैं.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.