Author : Charles Ovink

Expert Speak Digital Frontiers
Published on Feb 08, 2024 Updated 0 Hours ago

AI अंतरराष्ट्रीय शांति और सुरक्षा के लिए पहले से ही बड़े जोख़िम पेश कर रहा है. हमें इसके दुरुपयोग के ख़तरों का निपटारा करना चाहिए.

आर्टिफिशियल इंटेलिजेंस: अंतरराष्ट्रीय शांति और सुरक्षा के लिए ख़तरे की घंटी!

ये लेख हमारी श्रृंखला AI F4: फैक्ट्स, फिक्शन, फीयर्स एंड फैंटेसीज़ का हिस्सा है.


आर्टिफ़िशियल इंटेलिजेंस (AI) को लेकर मुख्यधारा की प्रेस में फ़िलहाल जारी चर्चा में ज़्यादातर अपने आप काम कर रहे “शैतानी AI” की “टर्मिनेटर” जैसी कपटपूर्ण सामान्य बुद्धिमत्ता के बारे में चिंता जताते हुए इसे अस्पष्ट रूप सेअस्तित्व से जुड़े जोख़िम” के तौर पर परिभाषित किया गया है. हालांकि, AI पहले से ही अंतरराष्ट्रीय शांति और सुरक्षा के लिए बड़े ख़तरे पेश कर रहा है. इसके दुरुपयोग के जोख़िमों से निपटना पहले से ही अत्यावश्यक है, और ऐसा करना पहले से ही हमारी ताक़त के दायरे में है. इन जोख़िमों से निपटने, इन्हें कम करने और इनका ख़ात्मा करने की ज़िम्मेदारी व्यापक है, और हम ऐसा करने के लिए आज ही मिलकर काम कर सकते हैं. 

समान रूप से, AI के विकास की ज़्यादातर क़वायद के निजी क्षेत्र-केंद्रित स्वभाव को देखते हुए, जिस तरह से उद्योग जगत और अन्य स्टेकहोल्डर्स AI के बारे में बात करते हैं और जिन विशिष्ट परिभाषाओं का उपयोग करते हैं, वो जोख़िम के इर्द-गिर्द किसी भी चर्चा को असंगत रूप से आकार देते हैं.

आर्टिफिशियल इंटेलिजेंस (AI) हर जगह है, लेकिन क्या हम इसके द्वारा पेश ख़तरों, ख़ासतौर से अंतरराष्ट्रीय शांति और सुरक्षा के लिए जोख़िमों की ओर पर्याप्त ध्यान दे रहे हैं? भले ही घातक स्वायत्त हथियार प्रणाली (LAWS) जैसे विषय ध्यान खींचते हैं, लेकिन “नागरिक” क्षेत्र में तकनीकी विकास को अलग और विशिष्ट रूप में देखने की आदत के मायने ये हैं कि “नागरिक” तकनीक के रास्ता भटकने या दुरुपयोग से पैदा होने वाले ख़तरों पर आवश्यकता से कम चर्चा की जाती है. समान रूप से, AI के विकास की ज़्यादातर क़वायद के निजी क्षेत्र-केंद्रित स्वभाव को देखते हुए, जिस तरह से उद्योग जगत और अन्य स्टेकहोल्डर्स AI के बारे में बात करते हैं और जिन विशिष्ट परिभाषाओं का उपयोग करते हैं, वो जोख़िम के इर्द-गिर्द किसी भी चर्चा को असंगत रूप से आकार देते हैं. इस क़वायद का निरस्त्रीकरण और हथियार नियंत्रण समुदायों द्वारा AI के बारे में बात करने के तरीक़े पर भी असर होता है. क्या हम उन्हीं जोख़िमों के बारे में बात कर रहे हैं, और अगर नहीं, तो हम AI के अभ्यासकर्ताओं को शांति और सुरक्षा के जोख़िमों से निपटने की प्रक्रिया के साथ कैसे जोड़ सकते हैं?

 

ये स्पष्ट रूप से अहम है कि नागरिक या असैनिक AI समुदाय को ग़ैर-ज़िम्मेदार किरदारों द्वारा नागरिक AI तकनीक के उद्देश्य परिवर्तन और दुरुपयोग से जुड़े शांति और सुरक्षा जोख़िमों को समझने और कम करने की क़वायद में जोड़ा जाए. ये व्यापक समर्थन के बिना संभव नहीं होगा. इसी मक़सद से निरस्त्रीकरण मामलों के लिए संयुक्त राष्ट्र कार्यालय (ODA) और स्टॉकहोम अंतरराष्ट्रीय शांति शोध संस्थान (SIPRI) ने एक नई परियोजना के लिए साझेदारी की है. यूरोपीय संघ की परिषद के निर्णय द्वारा फंड किए गए, शांति और सुरक्षा के लिए ज़िम्मेदार नवाचार पर तीन साल के इस कार्यक्रम को 2023 की शुरुआत में लॉन्च किया गया. ये परियोजना नागरिक AI समुदाय (ख़ासतौर से AI अभ्यासकर्ताओं की अगली पीढ़ी) को ज़िम्मेदार नवाचार के लिए ज़रूरी ज्ञान और साधनों से लैस करने को लेकर जागरूकता बढ़ाने और क्षमता-निर्माण से जुड़ी गतिविधियों को साथ जोड़ती है और ये सुनिश्चित करने में मदद करती है कि नागरिक AI तकनीक शांतिपूर्वक क्रियान्वित हो.  

अब कौन से जोख़िम ध्यान खींच रहे हैं? 

AI के क्षेत्र में विकास के घटनाक्रम कभी भी हाई प्रोफाइल नहीं रहे हैं. जो बाइडेन और शी जिनपिंग जैसे नेताओं ने जलवायु परिवर्तन और रोग प्रतिक्रिया में समाधान मुहैया कराने और “नुक़सान से मुक्त” आधुनिक औद्योगिक प्रणाली तैयार करने में AI की क्षमता पर ज़ोर दिया है. वैश्विक स्तर पर, इस बात पर कुछ रज़ामंदी दिखाई देती है कि AI में विकास और एक स्वच्छ, सुनहरे भविष्य के लिए वास्तविक लाभ उपलब्ध कराने की क्षमता है. 

साथ ही, हरेक स्तर पर स्टेकहोल्डर्स इस चर्चा की अहमियत पर ज़ोर देते जा रहे हैं कि हमें AI द्वारा पेश महत्वपूर्ण जोख़िमों का निपटारा कैसे करना चाहिए. पहली नज़र में, इस दिशा में भी आश्चर्यजनक रूप से आम सहमति हो सकती है, ख़ासतौर से अत्याधुनिक टेक्नोलॉजी में ऐसा देखने को मिल सकता है. यहां तक कि आधुनिक AI के विकास में सबसे आगे रहने वाले उद्योग जगत के नेताओं के बीच भी कुछ क़वायदों के प्रति भारी प्रतिबद्धता रही है. इनमें फ्यूचर ऑफ लाइफ इंस्टीट्यूट का मार्च 2023 का खुला पत्र शामिल है जिसमें सुरक्षा के नाम पर "विशाल AI प्रयोगों" पर विराम लगाने का आह्वान किया गया था, या सेंटर फॉर AI सेफ्टी की मेज़बानी में मई 2023 के "AI जोख़िम पर बयान" की भी मिसाल ले सकते हैं जिसमें पूर्ण रूप से कहा गया है कि "महामारी और परमाणु युद्ध जैसे अन्य सामाजिक स्तर के जोख़िमों के साथ-साथ AI से अस्तित्व ख़त्म होने के जोख़िम की रोकथाम वैश्विक प्राथमिकता होनी चाहिए". OpenAI के CEO सैम ऑल्टमैन ने अमेरिकी सीनेट में अपनी गवाही में AI की सुरक्षा के विनियमन और प्रोत्साहन का आह्वान किया, जिसकी काफ़ी चर्चा हुई.  हालांकि, किन जोख़िमों पर विचार किया जा रहा है और किन विनियमनों का आह्वान किया जा रहा है इसपर जब हम और क़रीब से निग़ाह डालते हैं, तो चीज़ें कम स्पष्ट हो जाती हैं. 

मिसाल के तौर पर फ्यूचर ऑफ लाइफ इंस्टीट्यूट का खुला पत्र "मानवीय-प्रतिस्पर्धी बुद्धिमत्ता के साथ AI प्रणाली" पर ध्यान केंद्रित करता है, और इस पर एक विराम का आह्वान करता है क्योंकि "समसामयिक AI प्रणालियां अब सामान्य कार्यों के लिए मानव-प्रतिस्पर्धी बन रही हैं" (जो अपने-आप में एक विवादित सुझाव है). "AI जोख़िम पर बयान" संक्षिप्त है, लेकिन ये साफ़ है कि ये मानवीय अस्तित्व की समाप्ति के जोख़िम पर ध्यान देता है. OpenAI इस बात पर स्पष्ट है कि उसका कार्य उसके चार्टर से संचालित होता है, जो आर्टिफिशियल जनरल इंटेलिजेंस (AGI) पर ध्यान देता है. इनके साथ साझा सूत्र और AI जोख़िम के निपटारे के कई अन्य हाई-प्रोफाइल क़वायद ये हैं कि उनका ख़ास ध्यान काल्पनिक जोख़िमों पर है, जिनमें मुख्य रूप से AGI से प्रतिस्पर्धा शामिल है. AI के इर्द-गिर्द इतनी सारी परिकल्पनाओं की तरह, आर्टिफिशियल जनरल इंटेलिजेंस की सार्वभौम रूप से स्वीकृत कोई परिभाषा नहीं है. सैम ऑल्टमैन ने AGI को "आमतौर से इंसानों से ज़्यादा चतुर" बताया है. ये परिकल्पना ख़ुद ही मार्विन मिंस्की के "एक औसत मानव की सामान्य बुद्धिमत्ता के साथ एक मशीन" के विचार के साथ जुड़ती है (उस वक़्त इसके 1978 तक साकार होने की भविष्यवाणी की गई थी). मुख्य विचार सामान्यीकरण करने के लिए मानव-जैसी क्षमता का है, यानी एक एकल प्रणाली जो मिंस्की के शब्दों में "शेक्सपियर को पढ़ता है, कार में तेल डाल सकता है, दफ़्तरों में राजनीतिक खेल खेल सकता है, चुटकुले सुना सकता है, और झगड़े कर सकता है". ये कहना पर्याप्त है कि हम अब तक वहां नहीं पहुंच पाए हैं. 

दोहरे उपयोग वाली टेक्नोलॉजी एक समस्या है जिससे निपटने का अंतरराष्ट्रीय समुदाय को अच्छा-ख़ासा अनुभव है, और कई क्षेत्रों में दोहरे उपयोग वाली तकनीकों के इर्द-गिर्द शासन संबंधी समाधान AI के लिए उपयोगी बेहतरीन अभ्यास मुहैया करा सकते हैं.

मौजूदा दृष्टिकोण

बहरहाल, AI विकास के संदर्भ में अब हम जहां हैं, वहां काफ़ी जोख़िम हैं जिनसे हमें पहले से ही निपटने की दरकार थी, और जब अंतरराष्ट्रीय शांति और सुरक्षा की बात आती है तो इनमें से कई तात्कालिक हो जाते हैं. ज़िम्मेदार AI का दायरा बाक़ी क्षेत्र के साथ अनुरूपता से बढ़ा है और इसमें स्टेकहोल्डर्स की पूरी श्रृंखला की झलक दिखलाता है, जिनमें सिविल सोसाइटी संगठन, सरकारें, क्षेत्रीय संगठन, और पेशेवर और मानक संगठन शामिल हैं. इनमें ग्लोबल पार्टनरशिप ऑन आर्टिफिशियल इंटेलिजेंस (जो AI पर OECD सिफ़ारिशों के प्रति साझा प्रतिबद्धता पर निर्मित है), मॉन्ट्रियल AI इथिक्स इंस्टीट्यूट, डिस्ट्रिब्यूटेड AI रिसर्च इंस्टीट्यूट, और IEEE का ग्लोबल इनिशिएटिव ऑन इथिक्स ऑफ ऑटोनॉमस एंड इंटेलिजेंट सिस्टम्स प्रमुख हैं. हालांकि, आम तौर पर ये दृष्टिकोण "नागरिक" दायरे में AI के जोख़िमों और प्रभावों पर बहुत अधिक ध्यान केंद्रित करते हैं, जिनमें रोज़गार, न्याय और स्वास्थ्य पर एल्गोरिदम के पूर्वाग्रह शामिल हैं. वैसे तो ये प्रमुख जोख़िम हैं जिनके समाधान की आवश्यकता है, AI एक सक्षमकारी टेक्नोलॉजी है और उसमें आम-इस्तेमाल की अपार संभावना है. असैनिक अनुप्रयोगों के लिए विकसित AI में शोध और नवाचार को नुक़सानदेह और विध्वंसकारी उपयोगों (अपेक्षाकृत आसानी से) के लिए हासिल करके उनका उद्देश्य बदला जा सकता है, जिसका अंतरराष्ट्रीय शांति और सुरक्षा के लिए भारी प्रभाव हो सकता है. ये ऐसा भ्रम पैदा कर सकता है कि नागरिक क्षेत्र से उभरने वाले AI जोख़िम अंतरराष्ट्रीय शांति और सुरक्षा जोख़िमों से अलग हैं. हक़ीक़त में मौजूदा असैनिक AI विकास और प्रयोग से जोख़िम के कई रास्ते निकलते हैं. ये कोई नया रुझान नहीं है और नागरिक टेक्नोलॉजी का उद्देश्य परिवर्तन और दुरुपयोग AI के लिए अद्वितीय नहीं है. दोहरे उपयोग वाली टेक्नोलॉजी एक समस्या है जिससे निपटने का अंतरराष्ट्रीय समुदाय को अच्छा-ख़ासा अनुभव है, और कई क्षेत्रों में दोहरे उपयोग वाली तकनीकों के इर्द-गिर्द शासन संबंधी समाधान AI के लिए उपयोगी बेहतरीन अभ्यास मुहैया करा सकते हैं.

2022 में शोधकर्ताओं के एक समूह ने ख़ुलासा किया कि उन्होंने एक ऐसा AI उपकरण विकसित किया है जो संभावित नए रासायनिक हथियार विकसित कर सकता है. नई दवाओं के तत्वों के ज़हरीलेपन का पूर्वानुमान (ताकि उनसे बचा जा सके) लगाने के लिए मूल रूप से उपयोग किए जाने वाले मशीन-लर्निंग मॉडल को अपनाकर शोधकर्ताओं ने आख़िरकार ऐसा उपकरण तैयार किया जो नए विषैले अणुओं की संरचना तैयार कर सकता है. हक़ीक़त ये है कि ये अविश्वसनीय तेज़ी से ऐसा कर सकता है: संकेत हैं कि महज़ छह घंटों में 40,000 ज़हरीले अणु तैयार किए जा सकते हैं. जीवन से जुड़े विज्ञान में शांतिपूर्ण अनुसंधान के दुरुपयोग से पैदा होने वाला जोख़िम एक अच्छी तरह से मान्यता प्राप्त समस्या है, जिसका श्रेय कुछ हद तक वैज्ञानिकों और हथियार नियंत्रण विशेषज्ञों के बीच जुड़ावों के लंबे इतिहास को जाता है. इस मामले में, शोधकर्ताओं ने अपने काम को प्रचारित किया ताकि ये प्रदर्शित किया जा सके कि किस तरह शैतानी किरदारों द्वारा एक शांतिपूर्ण ऐप्लिकेशन का दुरुपयोग किया जा सकता है. बदक़िस्मती से, अभ्यासकर्ताओं और हथियार नियंत्रण समुदाय के बीच इसी स्तर का जुड़ाव, और असैनिक तकनीक द्वारा पेश किए जा सकने वाले ख़तरों के बारे में जागरूकता, AI के लिए अब तक मौजूद नहीं है.

शांति और सुरक्षा जोख़िमों के निपटारे की बारी 

वैसे तो नागरिक तकनीक़ का उद्देश्य परिवर्तन या दुरुपयोग कोई नई बात नहीं है, लेकिन जब AI की बात आती है तो कई कारकों के चलते ये समस्या पेचीदा हो जाती है: (i) AI एल्गोरिदम और डेटा की अमूर्त और तेज़ी से बदलती प्रकृति के चलते हस्तांतरण और प्रसार को क़ाबू में करना मुश्किल है; (ii) अनुसंधान, विकास और नवाचार इकोसिस्टम में अपनी अग्रणी भूमिका को देखते हुए स्वामित्व वाले एल्गोरिदम, डेटा और कोड की सुरक्षा में निजी क्षेत्र की दिलचस्पी, और (iii) इन तकनीकों का दोबारा उपयोग करने में सक्षम सामग्री संसाधनों और मानवीय विशेषज्ञता की वैश्विक उपलब्धता. समान रूप से, नागरिक क्षेत्र में AI में काम करने वाले लोग भी अक्सर अंतरराष्ट्रीय शांति और सुरक्षा के लिए अपने काम के उद्देश्य परिवर्तन और दुरुपयोग के संभावित प्रभावों को लेकर अनजान रहते हैं या हथियारों के नियंत्रण और अप्रसार दायरों में AI जोख़िमों पर चर्चा में हिस्सा लेने से हिचकते हैं. 

तकनीक़ी विकास की रफ़्तार, और युवा लेकिन विकासशील AI शासन वातावरण को देखते हुए क्षमता और जुड़ाव के इस अंतर का निपटारा करना बेहद ज़रूरी हो गया है. शांति और सुरक्षा जोख़िमों पर नागरिक AI समुदाय को प्रभावी ढंग से जोड़ने के लिए कम से कम तीन क्षेत्रों में क्षमता निर्माण की दरकार होती है: 

  • AI उद्योग के साथ, जिसमें पेशेवर संघों और मानक निकायों के साथ काम करना शामिल है, विश्व भर की मल्टी-स्टेकहोल्डर विशेषज्ञता से जुड़ना ताकि ये स्थापित किया जा सके कि मौजूदा जोख़िम प्रबंधन और रोकथाम अभ्यासों में शांति और सुरक्षा के जोख़िमों को कैसे शामिल किया जा सकता है, और जहां ज़रूरी हो, कौन से नए अभ्यासों की ज़रूरत हो सकती है.

  • शिक्षकों के साथ, ज़िम्मेदार अभ्यासों पर औपचारिक प्रशिक्षण के हिस्से के तौर पर शांति और सुरक्षा जोख़िमों को मुख्य धारा में लाने की क़वायद का समर्थन करना

  • ख़ुद AI अभ्यासकर्ताओं की भावी पीढ़ियों के साथ, AI विकास और जोख़िम प्रबंधन के एक प्राकृतिक तत्व के रूप में शांति और सुरक्षा जोख़िमों के ज़िम्मेदार दृष्टिकोणों को समाहित करना.

AI पहले से ही भारी जोख़िम पेश कर रहा है, और हमें उनसे निपटने की क़वायद शुरू करने के लिए और इंतज़ार करने की ज़रूरत नहीं है. हमें पता है कि जोख़िमों से निपटने में किसे शामिल करने की आवश्यकता है, और हम जानते हैं कि एकजुट होकर काम किए बिना ये बेहतर नहीं होंगे.

ऐसे किसी भी जुड़ाव को प्रभावपूर्ण और टिकाऊ बनाने में एक अहम तत्व ये सुनिश्चित  करना होगा कि ये परिप्रेक्ष्यों के व्यापक दायरे के साथ मल्टी-स्टेकहोल्डर हो, और दूसरा, ये भौगोलिक रूप से चंद राज्यसत्ताओं तक सीमित ना हो. AI पहले से ही भारी जोख़िम पेश कर रहा है, और हमें उनसे निपटने की क़वायद शुरू करने के लिए और इंतज़ार करने की ज़रूरत नहीं है. हमें पता है कि जोख़िमों से निपटने में किसे शामिल करने की आवश्यकता है, और हम जानते हैं कि एकजुट होकर काम किए बिना ये बेहतर नहीं होंगे. अब भी इस तकनीक का लाभ उठा सकने वाला एक सुरक्षित भविष्य हमारी पहुंच में है, लेकिन वहां पहुंचने के लिए हमें तत्काल क़दम उठाने होंगे. 


चार्ल्स ओविंक निरस्त्रीकरण मामलों के लिए संयुक्त राष्ट्र कार्यालय में राजनीतिक मामलों के अधिकारी हैं. 

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.