Author : Anulekha Nandi

Expert Speak Digital Frontiers
Published on May 28, 2024 Updated 0 Hours ago

यूरोपीय परिषद ने आर्टिफिशियल इंटेलिजेंस (AI) के उपयोग को लेकर पहली क़ानूनी रूप से बाध्यकारी अंतर्राष्ट्रीय संधि को अपनाया है. हालांकि, इस संधि में नियामक दृष्टिकोण एवं मापदंडों को लेकर कुछ भी स्पष्ट नहीं है, जिससे ज़िम्मेदारियों और उत्तरदायित्वों को लेकर तमाम सवाल खड़े होते हैं, लेकिन यह संधि इनका जवाब देने में अक्षम है.

पहली अंतर्राष्ट्रीय AI संधि: सही दिशा में प्रगति, लेकिन साथ में कई सवाल भी!

स्ट्रासबर्ग में 17 मई, 2024 को आयोजित हुई यूरोपीय परिषद (CoE) की मंत्रिस्तरीय कमेटी की वार्षिक बैठक में आर्टिफिशियल इंटेलिजेंस यानी कृत्रिम बुद्धिमत्ता (AI) के उपयोग को नियंत्रित करने वाली पहली क़ानूनी रूप से बाध्यकारी अंतर्राष्ट्रीय संधि को मंजूरी दी गई. यह फ्रेमवर्क कन्वेंशन यानी वैश्विक संधि एआई, मानवाधिकार, लोकतंत्र एवं कानून के शासन पर आधारित है. इस संधि में पूरे एआई लाइफ-साइकिल यानी एआई के डिजाइन एवं विकास से लेकर एआई प्रणाली के इस्तेमाल एवं उस पर रोक लगाने तक हर पहलू को शामिल करने का दावा किया गया है. ईयू AI एक्ट की तरह ही इसमें जोख़िम आधारित नज़रिए को अपनाया गया है, लेकिन यह संधि यूरोपियन यूनियन से बाहर के देशों के लिए भी खुली है. यह फ्रेमवर्क कन्वेंशन एक अंतरसरकारी निकाय के दो साल के प्रयासों का नतीज़ा है, जिसमें यूरोपीय परिषद के 46 सदस्य देशों और 11 गैर-सदस्य देशों ने हिस्सा लिया, साथ ही निजी सेक्टर, सिविल सोसाइटी और शिक्षा जगत के प्रतिनिधियों को भी इसमें शामिल किया गया, जिन्होंने इसमें पर्यवेक्षक की भूमिका निभाई.

 

यह अंतर्राष्ट्रीय संधि AI तकनीक़ का ज़िम्मेदारी के साथ इस्तेमाल किए जाने को प्रोत्साहित करती है. यानी यह संधि समानता, गैर-भेदभाव, निजता और लोकतांत्रिक मूल्यों के सैद्धांतिक उद्देश्यों के मुताबिक़ एआई के उपयोग को बढ़ावा देती है. इसमें सरकारी नियंत्रण वाले सेक्टर (या सरकार की ओर से कार्य करने वाली कंपनियों) और निजी क्षेत्र में एआई के उपयोग को शामिल किया गया है. इस संधि में एआई के ज़िम्मेदार उपयोग के दो तरीक़े बताए गए हैं. ख़ास तौर पर अगर निजी सेक्टर के बात की जाए तो पार्टियां दो विकल्पों में से किसी एक को चुन सकती है, यानी या तो वे अंतर्राष्ट्रीय संधि के प्रावधानों के मुताबिक़ आगे बढ़ सकती है, या फिर वे अंतर्राष्ट्रीय मानवाधिकार की प्रतिबद्धताओं को चुन सकती हैं. एआई के उपयोग को लेकर अपनाई गई इस वैश्विक संधि का मकसद अलग-अलग तकनीक़ी, क्षेत्रीय और सामाजिक-आर्थिक परिस्थितियों के लिहाज़ से इसके प्रावधानों को लचीला रुख अख़्तियार करते हुए लागू करना है. ज़ाहिर है कि ऐसा करने के लिए सिर्फ एआई से होने वाले ख़तरों का सटीक आकलन करने की ज़रूरत होती है, बल्कि इन्हें कम करने के लिए इस पर प्रतिबंध या दूसरे क़दम उठाने की भी आवश्यकता होती है. ऐसा करने के लिए जहां एक स्वायत्त निगरानी तंत्र स्थापित करने की ज़रूरत है, वहीं विभिन्न परेशानियों का समाधान करने एवं उपायों को अमल में लाने की भी आवश्यकता है.

 यह संधि समानता, गैर-भेदभाव, निजता और लोकतांत्रिक मूल्यों के सैद्धांतिक उद्देश्यों के मुताबिक़ एआई के उपयोग को बढ़ावा देती है. इसमें सरकारी नियंत्रण वाले सेक्टर और निजी क्षेत्र में एआई के उपयोग को शामिल किया गया है.

एआई पर हुई संधि का मकसद जोख़िम-आधारित दृष्टिकोण अपनाना है, यानी जितना बड़ा ख़तरा है, उसके मुताबिक़ उतने ही गंभीर क़दम उठाकर इसका सैद्धांतिक रूप से अनुपालन सुनिश्चित करना है. यह संधि देखा जाए तो एआई के उपयोग को लेकर वैश्विक स्तर पर एक क़ानूनी मानक स्थापित करना चाहती है. लेकिन वास्तविकता यह है कि मानक सिद्धांतों के क्रियान्वयन की बात तो दूर है, अभी इस संधि में एआई को लेकर ज़िम्मेदारियों एवं उत्तरदायित्वों के बारे में ही कोई स्पष्टता नहीं है. यह इस संधि के क़ानूनी प्रावधानों की प्रासंगिकता एवं उन्हें लागू करने की राह में एक बड़ी बाधा है. वास्तविकता में इस संधि के मानकों को ज़मीनी स्तर पर लागू करना करना बेहद जटिल है. जिस प्रकार से एआई तकनीक़ का विकास और फैलाव वैश्विक स्तर पर परस्परिक रूप से जुड़ा हुआ है, साथ ही आंकड़ों एवं उनकी गणना जैसे एआई के अहम संसाधनों में जिस तरह से तमाम विषमताएं हैं, ऐसे में इस संधि के मानकों को लागू करना बहुत मुश्किल है. इसके अलावा, जिस प्रकार से विभिन्न हितधारकों के इकोसिस्टम एवं उनके अलग-अलग हितों और जोख़िम पर आधारित नियम-क़ानूनों से जुड़ी पेचीदगियां हैं, उसमें भी इसे लागू करना बहुत जटिल है. जिस तरह से एआई से जुड़े ख़तरे लगातार बढ़ रहे हैं, उनके मद्देनज़र इन ख़तरों की निगरानी, आकलन एवं इनके प्रभाव को कम करने के लिए क्षमताएं विकसित करना आवश्यक है और इसके लिए संस्थागत निवेश ज़रूरी है. कुल मिलाकर, एआई से जुड़े संसाधनों एवं किरदारों का जो मौज़ूदा इकोसिस्टम है, उससे भविष्य में भी एआई प्रणालीगत ख़तरों के इसी तरह बने रहने की संभावना है.

 

जोख़िम-आधारित नियम एवं मापदंडों को लेकर अस्पष्टता

बाज़ार से जुड़ी गतिविधियों और भौतिक इन्फ्रास्ट्रक्चर यानी देश की अर्थव्यवस्था को संचालित करने वाली संरचनाओं को विनियमित करना आसान है, लेकिन इसके विपरीत एआई को नियम-क़ानून के दायरे में बांधना बेहद मुश्किल है. इसकी एक बड़ी वजह यह है कि एआई का विस्तार बहुत व्यापक है, यानी एआई किसी ख़ास क्षेत्र या प्रौद्योगिकी तक सीमित नहीं है, बल्कि इसका विस्तार मशीन लर्निंग, कंप्यूटर विज़न और न्यूरल नेटवर्क्स यानी एआई की एक विधि जो कंप्यूटर को मानव मस्तिष्क से प्रेरित होकर आंकड़ों का विश्लेषण करना सिखाती है, जैसी अत्याधुनिक और लगातार विकसित हो रही प्रौद्योगिकियों तक फैला हुआ है. अगर एआई तकनीक़ से होने वाले संभावित ख़तरों पर काबू पाना है, तो इसके लिए इसकी स्वतंत्र तरीक़े से कार्य करने की एवं खुद से सीखकर आगे बढ़ने की प्रवृत्ति और असंवेदनशीलता से संबंधित मुद्दों को संबोधित करना ज़रूरी है. ऐसे इसलिए, क्योंकि आज हर क्षेत्र में एआई का दायरा और दख़ल लगातार बढ़ता जा रहा है. एआई के जोख़िम-आधारित विनियमन के पीछे का मकसद लचर और नाकाफ़ी क़ानूनी उपायों एवं प्रशासनिक ताक़त को प्रभावशाली बनाना है. इसमें एआई की वजह से होने वाले संभावित नुक़सान को रोकने के लिए क़ानूनी उपायों का इस्तेमाल भी शामिल है. इसमें एआई से होने वाले उन ख़तरों के बारे में जानकारी जुटाना भी शामिल है, जिनका प्रवर्तन एजेंसियां क़ानूनी उपायों के ज़रिए समाधान करना चाहती हैं. ज़ाहिर है कि एआई तकनीक़ से जुड़े अलग-अलग क्षेत्रों में ख़तरे भी अलग-अलग प्रकार के होते हैं, साथ ही उनका प्रभाव भी अलग होता है. ऐसे में नियामकों को जोख़िमों का आकलन एवं मूल्यांकन करना होता है, साथ ही जोख़िम एवं अवसरों के बीच संतुलन बैठाना होता है और यह भी सुनिश्चित करना होता है कि किस स्तर तक ख़तरों को सहन किया जा सकता है और फिर उसी के मुताबिक़ क़ानूनी उपायों को अमल में लाना होता है.

एआई के जोख़िम-आधारित विनियमन के पीछे का मकसद लचर और नाकाफ़ी क़ानूनी उपायों एवं प्रशासनिक ताक़त को प्रभावशाली बनाना है. इसमें एआई की वजह से होने वाले संभावित नुक़सान को रोकने के लिए क़ानूनी उपायों का इस्तेमाल भी शामिल है.

 

एआई से संबंधित जो भी जोख़िम-आधारित नियम-क़ानून हैं, उनमें देखा जाए तो कोई स्पष्टता नहीं है. यानी इनमें मानकों और मूल्यों को लेकर सैद्धांतिक प्रतिबद्धताओं की कमी है. इससे पता चलता है कि एआई से संबंधित ख़तरों को पहचानने और एकजुट करने की ज़रूरत है. मानकों को लेकर इस दुविधा से एआई से पैदा होने वाले ख़तरों का मुक़ाबला करने को लेकर कोई एक मुकम्मल रणनीति नहीं बन पाती है. यह परिस्थिति कहीं कहीं ख़तरों का आकलन करने के लिए अलग-अलग तरीक़े अपनाए जाने से पैदा होती है. इसके अलावा मूलभूत अधिकारों एवं सामाजिक मूल्यों को लेकर कोई स्पष्टता नहीं होने के कारण भी एआई की वजह से पैदा होने वाले ख़तरों का पता लगाना और उसके मुताबिक़ क़दम उठाना सीमित हो जाता है, या कहा जाए कि मुश्किल हो जाता है. एआई से पैदा होने वाले ख़तरों का आकलन करने वाले जो भी तौर-तरीक़े हैं, वे इसके लागू किए जाने के बाद ह्यूमन-टेक्नोलॉजी इंटरफेस यानी मनुष्य और कंप्यूटर की बीच संचार के दौरान पैदा होने वाले ख़तरों का पूरी तरह से पता नहीं लगा सकते हैं. कहने का मतलब यह है कि आख़िरकार जोख़िम आधारित विनियमन नियामकों की पसंद पर निर्भर करता है और जो उनकी ख़तरों को झेलने की क्षमता पर आधारित होती है. यह एआई प्रणालियों की कमज़ोरियों के बारे में बुनियादी धारणाओं को सामने लाता है

 

एआई से जुड़ी जो संधि है उसमें तो मानकों को लेकर कोई स्पष्टता है और ही प्रतिबद्धताओं और ज़िम्मेदारियों को लेकर ही कोई साफ-साफ उल्लेख किया गया है, ऐसे में क़ानूनी लिहाज़ से यह बिल्कुल कारगर नहीं हैं. इसके अलावा, इस अंतर्राष्ट्रीय संधि का मसौदा तैयार करने और विचार-विमर्श के दौरान सिर्फ़ यूरोपीय परिषद के सदस्य देश और कुछ अन्य देशों ने ही भाग लिया है, बाक़ी दुनिया के राष्ट्रों की इसमें कोई भागीदारी नहीं है. ज़ाहिर है कि इससे इस संधि की वैधानिकता पर सवाल खड़े होते हैं और यह कहीं कहीं इसे ज़मीनी स्तर पर लागू करने में रुकावटें पैदा कर सकता है. इस एआई समझौते में शामिल देशों को इसका खुलासा करने की ज़रूरत है कि जब 5 सितंबर, 2024 को इसे अगली बैठक में हस्ताक्षर के लिए सामने रखा जाएगा, तब वे अपनी सैद्धांतिक प्रतिबद्धताओं को किस प्रकार पूरा करेंगे. यानी देशों के पास अपने राष्ट्रीय एआई नियम-क़ानूनों को बनाने के लिए एक व्यापक मसौदा प्रस्ताव तैयार करने हेतु अब ज़्यादा समय नहीं बचा है

 

अनसुलझे मुद्दे और चिंताएं

यूरोपीय परिषद की कृत्रिम बुद्धिमत्ता के उपयोग से संबंधित पहली क़ानूनी रूप से बाध्यकारी अंतर्राष्ट्रीय संधि एआई गवर्नेंस में उच्च-स्तरीय सिद्धांतों से आगे बढ़ने में एक अहम क़दम ज़रूर है, लेकिन यह ज़िम्मेदारी और उत्तरदायित्वों से जुड़े कुछ महत्वपूर्ण सवालों का उत्तर नहीं देती है. बहु हितधारक व्यवस्था में सहमति बनाने के लिए व्यापक मानक प्रणालियों से आगे जाने की ज़रूरत है. इसके लिए विस्तार से इसका उल्लेख करना होगा कि कैसे ये मानक सिद्धांत आपूर्तिकर्ताओं, उपभोक्ताओं या मध्यस्थों के रूप में एआई पारिस्थितिकी तंत्र में उनकी भूमिकाओं के आधार पर दिए गए किरदारों के लिए तय की गई ज़िम्मेदारियों पर निर्भर हैं. वैश्विक एआई पारिस्थितिकी तंत्र के अंदर यह और भी पेचीदा हो जाता है, क्योंकि बड़ी टेक्नोलॉजी कंपनियां ज़्यादातर संसाधनों को नियंत्रित करती हैं, इसके फलस्वरूप अलग-अलग व्यवस्थाएं स्थापित हो जाती हैं, जिनमें कुछ ताक़तवर होती हैं, तो कुछ दूसरे पर निर्भर होती हैं. एआई पारिस्थितिकी तंत्र के भीतर विभिन्न हितधारकों की भूमिकाओं के बारे में जानने से ज़िम्मेदारियों के स्वरूप और उन्हें लागू करने के तरीक़ों का पता लगाने में मदद मिलती है. हालांकि, मौज़ूदा फ्रेमवर्क कन्वेंशन में इन मुद्दों और चिंताओं के बारे में साफ तौर पर कुछ भी नहीं कहा गया है. एआई संधि में शामिल राष्ट्रों पर यह निर्भर करता है कि वे इसके प्रावधानों और इस विशेष फ्रेमवर्क की प्रासंगिकता एवं कार्य-क्षेत्र पर सवाल उठाते हैं या नहीं.

 

यही सारी बातें न सिर्फ़ एआई-संचालित प्रणालियों के सामाजिक, आर्थिक और क़ानूनी पहलुओं को समझने पर ज़ोर देती हैं, बल्कि इसके लिए व्यापक और विचारशील नज़रिया अपनाने एवं अंतर्राष्ट्रीय संधियों की ज़रूरत को भी सामने लाती हैं.

एआई-संचालित प्रणालियों और इकोसिस्टम की प्रकृति केवल बेहद जटिल है, बल्कि लगातार बदलती रहती है, ऐसे में भविष्य के समझौतों, संधियों एवं क़ानूनी ढांचों को इस वास्तविकता के लिहाज़ से अपनी भूमिका और ज़िम्मेदारियों को समझने की ज़रूरत है. ज़ाहिर है कि एआई से संबंधित विभिन्न परिस्थितियां, किरदार और संसाधन आपस में जुड़े हुए हैं, नतीज़तन तमाम जटिल गतिविधियां सामने आती हैं. ऐसे में यह ज़रूरी है कि एआई पारिस्थितिकी तंत्र लगातार सामने आने वाले इन उतार-चढ़ावों के मुताबिक़ खुद को ढाले, साथ ही अपने परिवेश में होने वाले बदलावों के साथ तालमेल बनाए. इसे व्यवस्थित करने के लिए कड़े क़ानूनी सवालों का सामना करने और उनका जवाब देने की ज़रूरत है और इसके लिए जवाबदेही तय करने की आवश्यकता है. यूरोपीय विशेषज्ञ समूह ने वर्ष 2019 में अपनी सिफ़ारिशों में प्रोडक्ट लायबिलिटी व्यवस्था यानी उत्पाद उत्तरदायित्व व्यवस्था का इस्तेमाल करने का सुझाव दिया था. इस व्यवस्था के अंतर्गत एआई की वजह से होने वाले नुक़सानों को संबोधित करने के लिए क़ानूनी तौर पर सिंगल प्वाइंट के रूप में एआई-संबंधित ख़तरों को नियंत्रित करने और उनका प्रबंधन करने में सबसे सक्षम इकाई को ज़िम्मेदारी सौंपी जाती है. हालांकि, यह संधि वर्तमान में विभिन्न उत्तरदायित्व व्यवस्थाओं को अपनाने के लिए साफ-साफ कोई दिशा निर्देश नहीं देती है, लेकिन क्या उत्तरदायित्व होने चाहिए, यह निर्धारित करने का काम पक्षों पर छोड़ देती है. यही सारी बातें सिर्फ़ एआई-संचालित प्रणालियों के सामाजिक, आर्थिक और क़ानूनी पहलुओं को समझने पर ज़ोर देती हैं, बल्कि इसके लिए व्यापक और विचारशील नज़रिया अपनाने एवं अंतर्राष्ट्रीय संधियों की ज़रूरत को भी सामने लाती हैं. ज़ाहिर है कि ऐसा करने पर ही प्रभावशाली नीतिगत और क़ानूनी पहलों की रूपरेखा बनाई जा सकेगी और उन्हें बेहतर तरीक़े से लागू किया जा सकेगा.


अनुलेखा नंदी ऑब्ज़र्वर रिसर्च फाउंडेशन में फेलो हैं.

 

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.