ये लेख हमारी श्रृंखला AI F4: फैक्ट्स, फिक्शन, फीयर्स एंड फैंटेसीज़ का हिस्सा है.
आर्टिफ़िशियल इंटेलिजेंस (AI) को लेकर मुख्यधारा की प्रेस में फ़िलहाल जारी चर्चा में ज़्यादातर अपने आप काम कर रहे “शैतानी AI” की “टर्मिनेटर” जैसी कपटपूर्ण सामान्य बुद्धिमत्ता के बारे में चिंता जताते हुए इसे अस्पष्ट रूप से “अस्तित्व से जुड़े जोख़िम” के तौर पर परिभाषित किया गया है. हालांकि, AI पहले से ही अंतरराष्ट्रीय शांति और सुरक्षा के लिए बड़े ख़तरे पेश कर रहा है. इसके दुरुपयोग के जोख़िमों से निपटना पहले से ही अत्यावश्यक है, और ऐसा करना पहले से ही हमारी ताक़त के दायरे में है. इन जोख़िमों से निपटने, इन्हें कम करने और इनका ख़ात्मा करने की ज़िम्मेदारी व्यापक है, और हम ऐसा करने के लिए आज ही मिलकर काम कर सकते हैं.
समान रूप से, AI के विकास की ज़्यादातर क़वायद के निजी क्षेत्र-केंद्रित स्वभाव को देखते हुए, जिस तरह से उद्योग जगत और अन्य स्टेकहोल्डर्स AI के बारे में बात करते हैं और जिन विशिष्ट परिभाषाओं का उपयोग करते हैं, वो जोख़िम के इर्द-गिर्द किसी भी चर्चा को असंगत रूप से आकार देते हैं.
आर्टिफिशियल इंटेलिजेंस (AI) हर जगह है, लेकिन क्या हम इसके द्वारा पेश ख़तरों, ख़ासतौर से अंतरराष्ट्रीय शांति और सुरक्षा के लिए जोख़िमों की ओर पर्याप्त ध्यान दे रहे हैं? भले ही घातक स्वायत्त हथियार प्रणाली (LAWS) जैसे विषय ध्यान खींचते हैं, लेकिन “नागरिक” क्षेत्र में तकनीकी विकास को अलग और विशिष्ट रूप में देखने की आदत के मायने ये हैं कि “नागरिक” तकनीक के रास्ता भटकने या दुरुपयोग से पैदा होने वाले ख़तरों पर आवश्यकता से कम चर्चा की जाती है. समान रूप से, AI के विकास की ज़्यादातर क़वायद के निजी क्षेत्र-केंद्रित स्वभाव को देखते हुए, जिस तरह से उद्योग जगत और अन्य स्टेकहोल्डर्स AI के बारे में बात करते हैं और जिन विशिष्ट परिभाषाओं का उपयोग करते हैं, वो जोख़िम के इर्द-गिर्द किसी भी चर्चा को असंगत रूप से आकार देते हैं. इस क़वायद का निरस्त्रीकरण और हथियार नियंत्रण समुदायों द्वारा AI के बारे में बात करने के तरीक़े पर भी असर होता है. क्या हम उन्हीं जोख़िमों के बारे में बात कर रहे हैं, और अगर नहीं, तो हम AI के अभ्यासकर्ताओं को शांति और सुरक्षा के जोख़िमों से निपटने की प्रक्रिया के साथ कैसे जोड़ सकते हैं?
ये स्पष्ट रूप से अहम है कि नागरिक या असैनिक AI समुदाय को ग़ैर-ज़िम्मेदार किरदारों द्वारा नागरिक AI तकनीक के उद्देश्य परिवर्तन और दुरुपयोग से जुड़े शांति और सुरक्षा जोख़िमों को समझने और कम करने की क़वायद में जोड़ा जाए. ये व्यापक समर्थन के बिना संभव नहीं होगा. इसी मक़सद से निरस्त्रीकरण मामलों के लिए संयुक्त राष्ट्र कार्यालय (ODA) और स्टॉकहोम अंतरराष्ट्रीय शांति शोध संस्थान (SIPRI) ने एक नई परियोजना के लिए साझेदारी की है. यूरोपीय संघ की परिषद के निर्णय द्वारा फंड किए गए, शांति और सुरक्षा के लिए ज़िम्मेदार नवाचार पर तीन साल के इस कार्यक्रम को 2023 की शुरुआत में लॉन्च किया गया. ये परियोजना नागरिक AI समुदाय (ख़ासतौर से AI अभ्यासकर्ताओं की अगली पीढ़ी) को ज़िम्मेदार नवाचार के लिए ज़रूरी ज्ञान और साधनों से लैस करने को लेकर जागरूकता बढ़ाने और क्षमता-निर्माण से जुड़ी गतिविधियों को साथ जोड़ती है और ये सुनिश्चित करने में मदद करती है कि नागरिक AI तकनीक शांतिपूर्वक क्रियान्वित हो.
अब कौन से जोख़िम ध्यान खींच रहे हैं?
AI के क्षेत्र में विकास के घटनाक्रम कभी भी हाई प्रोफाइल नहीं रहे हैं. जो बाइडेन और शी जिनपिंग जैसे नेताओं ने जलवायु परिवर्तन और रोग प्रतिक्रिया में समाधान मुहैया कराने और “नुक़सान से मुक्त” आधुनिक औद्योगिक प्रणाली तैयार करने में AI की क्षमता पर ज़ोर दिया है. वैश्विक स्तर पर, इस बात पर कुछ रज़ामंदी दिखाई देती है कि AI में विकास और एक स्वच्छ, सुनहरे भविष्य के लिए वास्तविक लाभ उपलब्ध कराने की क्षमता है.
साथ ही, हरेक स्तर पर स्टेकहोल्डर्स इस चर्चा की अहमियत पर ज़ोर देते जा रहे हैं कि हमें AI द्वारा पेश महत्वपूर्ण जोख़िमों का निपटारा कैसे करना चाहिए. पहली नज़र में, इस दिशा में भी आश्चर्यजनक रूप से आम सहमति हो सकती है, ख़ासतौर से अत्याधुनिक टेक्नोलॉजी में ऐसा देखने को मिल सकता है. यहां तक कि आधुनिक AI के विकास में सबसे आगे रहने वाले उद्योग जगत के नेताओं के बीच भी कुछ क़वायदों के प्रति भारी प्रतिबद्धता रही है. इनमें फ्यूचर ऑफ लाइफ इंस्टीट्यूट का मार्च 2023 का खुला पत्र शामिल है जिसमें सुरक्षा के नाम पर "विशाल AI प्रयोगों" पर विराम लगाने का आह्वान किया गया था, या सेंटर फॉर AI सेफ्टी की मेज़बानी में मई 2023 के "AI जोख़िम पर बयान" की भी मिसाल ले सकते हैं जिसमें पूर्ण रूप से कहा गया है कि "महामारी और परमाणु युद्ध जैसे अन्य सामाजिक स्तर के जोख़िमों के साथ-साथ AI से अस्तित्व ख़त्म होने के जोख़िम की रोकथाम वैश्विक प्राथमिकता होनी चाहिए". OpenAI के CEO सैम ऑल्टमैन ने अमेरिकी सीनेट में अपनी गवाही में AI की सुरक्षा के विनियमन और प्रोत्साहन का आह्वान किया, जिसकी काफ़ी चर्चा हुई. हालांकि, किन जोख़िमों पर विचार किया जा रहा है और किन विनियमनों का आह्वान किया जा रहा है इसपर जब हम और क़रीब से निग़ाह डालते हैं, तो चीज़ें कम स्पष्ट हो जाती हैं.
मिसाल के तौर पर फ्यूचर ऑफ लाइफ इंस्टीट्यूट का खुला पत्र "मानवीय-प्रतिस्पर्धी बुद्धिमत्ता के साथ AI प्रणाली" पर ध्यान केंद्रित करता है, और इस पर एक विराम का आह्वान करता है क्योंकि "समसामयिक AI प्रणालियां अब सामान्य कार्यों के लिए मानव-प्रतिस्पर्धी बन रही हैं" (जो अपने-आप में एक विवादित सुझाव है). "AI जोख़िम पर बयान" संक्षिप्त है, लेकिन ये साफ़ है कि ये मानवीय अस्तित्व की समाप्ति के जोख़िम पर ध्यान देता है. OpenAI इस बात पर स्पष्ट है कि उसका कार्य उसके चार्टर से संचालित होता है, जो आर्टिफिशियल जनरल इंटेलिजेंस (AGI) पर ध्यान देता है. इनके साथ साझा सूत्र और AI जोख़िम के निपटारे के कई अन्य हाई-प्रोफाइल क़वायद ये हैं कि उनका ख़ास ध्यान काल्पनिक जोख़िमों पर है, जिनमें मुख्य रूप से AGI से प्रतिस्पर्धा शामिल है. AI के इर्द-गिर्द इतनी सारी परिकल्पनाओं की तरह, आर्टिफिशियल जनरल इंटेलिजेंस की सार्वभौम रूप से स्वीकृत कोई परिभाषा नहीं है. सैम ऑल्टमैन ने AGI को "आमतौर से इंसानों से ज़्यादा चतुर" बताया है. ये परिकल्पना ख़ुद ही मार्विन मिंस्की के "एक औसत मानव की सामान्य बुद्धिमत्ता के साथ एक मशीन" के विचार के साथ जुड़ती है (उस वक़्त इसके 1978 तक साकार होने की भविष्यवाणी की गई थी). मुख्य विचार सामान्यीकरण करने के लिए मानव-जैसी क्षमता का है, यानी एक एकल प्रणाली जो मिंस्की के शब्दों में "शेक्सपियर को पढ़ता है, कार में तेल डाल सकता है, दफ़्तरों में राजनीतिक खेल खेल सकता है, चुटकुले सुना सकता है, और झगड़े कर सकता है". ये कहना पर्याप्त है कि हम अब तक वहां नहीं पहुंच पाए हैं.
दोहरे उपयोग वाली टेक्नोलॉजी एक समस्या है जिससे निपटने का अंतरराष्ट्रीय समुदाय को अच्छा-ख़ासा अनुभव है, और कई क्षेत्रों में दोहरे उपयोग वाली तकनीकों के इर्द-गिर्द शासन संबंधी समाधान AI के लिए उपयोगी बेहतरीन अभ्यास मुहैया करा सकते हैं.
मौजूदा दृष्टिकोण
बहरहाल, AI विकास के संदर्भ में अब हम जहां हैं, वहां काफ़ी जोख़िम हैं जिनसे हमें पहले से ही निपटने की दरकार थी, और जब अंतरराष्ट्रीय शांति और सुरक्षा की बात आती है तो इनमें से कई तात्कालिक हो जाते हैं. ज़िम्मेदार AI का दायरा बाक़ी क्षेत्र के साथ अनुरूपता से बढ़ा है और इसमें स्टेकहोल्डर्स की पूरी श्रृंखला की झलक दिखलाता है, जिनमें सिविल सोसाइटी संगठन, सरकारें, क्षेत्रीय संगठन, और पेशेवर और मानक संगठन शामिल हैं. इनमें ग्लोबल पार्टनरशिप ऑन आर्टिफिशियल इंटेलिजेंस (जो AI पर OECD सिफ़ारिशों के प्रति साझा प्रतिबद्धता पर निर्मित है), मॉन्ट्रियल AI इथिक्स इंस्टीट्यूट, डिस्ट्रिब्यूटेड AI रिसर्च इंस्टीट्यूट, और IEEE का ग्लोबल इनिशिएटिव ऑन इथिक्स ऑफ ऑटोनॉमस एंड इंटेलिजेंट सिस्टम्स प्रमुख हैं. हालांकि, आम तौर पर ये दृष्टिकोण "नागरिक" दायरे में AI के जोख़िमों और प्रभावों पर बहुत अधिक ध्यान केंद्रित करते हैं, जिनमें रोज़गार, न्याय और स्वास्थ्य पर एल्गोरिदम के पूर्वाग्रह शामिल हैं. वैसे तो ये प्रमुख जोख़िम हैं जिनके समाधान की आवश्यकता है, AI एक सक्षमकारी टेक्नोलॉजी है और उसमें आम-इस्तेमाल की अपार संभावना है. असैनिक अनुप्रयोगों के लिए विकसित AI में शोध और नवाचार को नुक़सानदेह और विध्वंसकारी उपयोगों (अपेक्षाकृत आसानी से) के लिए हासिल करके उनका उद्देश्य बदला जा सकता है, जिसका अंतरराष्ट्रीय शांति और सुरक्षा के लिए भारी प्रभाव हो सकता है. ये ऐसा भ्रम पैदा कर सकता है कि नागरिक क्षेत्र से उभरने वाले AI जोख़िम अंतरराष्ट्रीय शांति और सुरक्षा जोख़िमों से अलग हैं. हक़ीक़त में मौजूदा असैनिक AI विकास और प्रयोग से जोख़िम के कई रास्ते निकलते हैं. ये कोई नया रुझान नहीं है और नागरिक टेक्नोलॉजी का उद्देश्य परिवर्तन और दुरुपयोग AI के लिए अद्वितीय नहीं है. दोहरे उपयोग वाली टेक्नोलॉजी एक समस्या है जिससे निपटने का अंतरराष्ट्रीय समुदाय को अच्छा-ख़ासा अनुभव है, और कई क्षेत्रों में दोहरे उपयोग वाली तकनीकों के इर्द-गिर्द शासन संबंधी समाधान AI के लिए उपयोगी बेहतरीन अभ्यास मुहैया करा सकते हैं.
2022 में शोधकर्ताओं के एक समूह ने ख़ुलासा किया कि उन्होंने एक ऐसा AI उपकरण विकसित किया है जो संभावित नए रासायनिक हथियार विकसित कर सकता है. नई दवाओं के तत्वों के ज़हरीलेपन का पूर्वानुमान (ताकि उनसे बचा जा सके) लगाने के लिए मूल रूप से उपयोग किए जाने वाले मशीन-लर्निंग मॉडल को अपनाकर शोधकर्ताओं ने आख़िरकार ऐसा उपकरण तैयार किया जो नए विषैले अणुओं की संरचना तैयार कर सकता है. हक़ीक़त ये है कि ये अविश्वसनीय तेज़ी से ऐसा कर सकता है: संकेत हैं कि महज़ छह घंटों में 40,000 ज़हरीले अणु तैयार किए जा सकते हैं. जीवन से जुड़े विज्ञान में शांतिपूर्ण अनुसंधान के दुरुपयोग से पैदा होने वाला जोख़िम एक अच्छी तरह से मान्यता प्राप्त समस्या है, जिसका श्रेय कुछ हद तक वैज्ञानिकों और हथियार नियंत्रण विशेषज्ञों के बीच जुड़ावों के लंबे इतिहास को जाता है. इस मामले में, शोधकर्ताओं ने अपने काम को प्रचारित किया ताकि ये प्रदर्शित किया जा सके कि किस तरह शैतानी किरदारों द्वारा एक शांतिपूर्ण ऐप्लिकेशन का दुरुपयोग किया जा सकता है. बदक़िस्मती से, अभ्यासकर्ताओं और हथियार नियंत्रण समुदाय के बीच इसी स्तर का जुड़ाव, और असैनिक तकनीक द्वारा पेश किए जा सकने वाले ख़तरों के बारे में जागरूकता, AI के लिए अब तक मौजूद नहीं है.
शांति और सुरक्षा जोख़िमों के निपटारे की बारी
वैसे तो नागरिक तकनीक़ का उद्देश्य परिवर्तन या दुरुपयोग कोई नई बात नहीं है, लेकिन जब AI की बात आती है तो कई कारकों के चलते ये समस्या पेचीदा हो जाती है: (i) AI एल्गोरिदम और डेटा की अमूर्त और तेज़ी से बदलती प्रकृति के चलते हस्तांतरण और प्रसार को क़ाबू में करना मुश्किल है; (ii) अनुसंधान, विकास और नवाचार इकोसिस्टम में अपनी अग्रणी भूमिका को देखते हुए स्वामित्व वाले एल्गोरिदम, डेटा और कोड की सुरक्षा में निजी क्षेत्र की दिलचस्पी, और (iii) इन तकनीकों का दोबारा उपयोग करने में सक्षम सामग्री संसाधनों और मानवीय विशेषज्ञता की वैश्विक उपलब्धता. समान रूप से, नागरिक क्षेत्र में AI में काम करने वाले लोग भी अक्सर अंतरराष्ट्रीय शांति और सुरक्षा के लिए अपने काम के उद्देश्य परिवर्तन और दुरुपयोग के संभावित प्रभावों को लेकर अनजान रहते हैं या हथियारों के नियंत्रण और अप्रसार दायरों में AI जोख़िमों पर चर्चा में हिस्सा लेने से हिचकते हैं.
तकनीक़ी विकास की रफ़्तार, और युवा लेकिन विकासशील AI शासन वातावरण को देखते हुए क्षमता और जुड़ाव के इस अंतर का निपटारा करना बेहद ज़रूरी हो गया है. शांति और सुरक्षा जोख़िमों पर नागरिक AI समुदाय को प्रभावी ढंग से जोड़ने के लिए कम से कम तीन क्षेत्रों में क्षमता निर्माण की दरकार होती है:
-
AI उद्योग के साथ, जिसमें पेशेवर संघों और मानक निकायों के साथ काम करना शामिल है, विश्व भर की मल्टी-स्टेकहोल्डर विशेषज्ञता से जुड़ना ताकि ये स्थापित किया जा सके कि मौजूदा जोख़िम प्रबंधन और रोकथाम अभ्यासों में शांति और सुरक्षा के जोख़िमों को कैसे शामिल किया जा सकता है, और जहां ज़रूरी हो, कौन से नए अभ्यासों की ज़रूरत हो सकती है.
-
शिक्षकों के साथ, ज़िम्मेदार अभ्यासों पर औपचारिक प्रशिक्षण के हिस्से के तौर पर शांति और सुरक्षा जोख़िमों को मुख्य धारा में लाने की क़वायद का समर्थन करना
-
ख़ुद AI अभ्यासकर्ताओं की भावी पीढ़ियों के साथ, AI विकास और जोख़िम प्रबंधन के एक प्राकृतिक तत्व के रूप में शांति और सुरक्षा जोख़िमों के ज़िम्मेदार दृष्टिकोणों को समाहित करना.
AI पहले से ही भारी जोख़िम पेश कर रहा है, और हमें उनसे निपटने की क़वायद शुरू करने के लिए और इंतज़ार करने की ज़रूरत नहीं है. हमें पता है कि जोख़िमों से निपटने में किसे शामिल करने की आवश्यकता है, और हम जानते हैं कि एकजुट होकर काम किए बिना ये बेहतर नहीं होंगे.
ऐसे किसी भी जुड़ाव को प्रभावपूर्ण और टिकाऊ बनाने में एक अहम तत्व ये सुनिश्चित करना होगा कि ये परिप्रेक्ष्यों के व्यापक दायरे के साथ मल्टी-स्टेकहोल्डर हो, और दूसरा, ये भौगोलिक रूप से चंद राज्यसत्ताओं तक सीमित ना हो. AI पहले से ही भारी जोख़िम पेश कर रहा है, और हमें उनसे निपटने की क़वायद शुरू करने के लिए और इंतज़ार करने की ज़रूरत नहीं है. हमें पता है कि जोख़िमों से निपटने में किसे शामिल करने की आवश्यकता है, और हम जानते हैं कि एकजुट होकर काम किए बिना ये बेहतर नहीं होंगे. अब भी इस तकनीक का लाभ उठा सकने वाला एक सुरक्षित भविष्य हमारी पहुंच में है, लेकिन वहां पहुंचने के लिए हमें तत्काल क़दम उठाने होंगे.
चार्ल्स ओविंक निरस्त्रीकरण मामलों के लिए संयुक्त राष्ट्र कार्यालय में राजनीतिक मामलों के अधिकारी हैं.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.