भूमिका
2016 में, जब माइक्रोसॉफ्ट ने टे (Tay) नाम के एक एआई चैटबॉट को जारी किया था, जिसे नस्लवादी और यहूदी विरोधी ट्वीट करने के बाद एक दिन के भीतर ही बंद करना पड़ा था[i], तब से आर्टिफ़िशियल इंटेलिजेंस प्रणाली (एआई सिस्टम) ने अब तक एक लंबा सफ़र तय किया है. 2022 में, ओपनएआई ने चैटजीपीटी पेश किया, जिससे जेनरेटिव AI के एक नए युग की शुरुआत हुई जिसमें एल्गोरिदम बड़े पैमाने पर अलग-अलग विषयों को मथ सकते हैं; इसकी वकालत करने वालों का कहना है कि यह विश्व अर्थव्यवस्था में खरबों डॉलर का योगदान दे सकता है.[ii] यह लेख लिखे जाने के समय, चैटजीपीटी का नवीनतम संस्करण इबारत या टेक्स्ट, तस्वीरों और वीडियो जैसे विभिन्न तरीकों में जानकारी को संसाधित और तैयार कर सकता है.[iii]
हालांकि, अगर Tay के अनुभव ने दुनिया को कुछ सिखाया है, तो वह यह है कि एआई एल्गोरिदम के लिए सुरक्षा रेलिंग होनी चाहिए जो हानिकारक उपयोगकर्ता व्यवहार से गतिशीलता के साथ और अंतःक्रियात्मक रूप से सीखते हैं या जो नकारात्मक सामाजिक, आर्थिक और राजनीतिक परिणामों के साथ व्यापक रूप से प्रचलित मानव आचरण से तरीके और निष्कर्ष निकालते हैं. हालांकि Tay वाले अनुभव के बाद से हानिकारक आउटपुट उत्पन्न करने की AI की क्षमता कम होने की संभावना है लेकिन विभिन्न एल्गोरिदम और मॉडल में मौजूद अंतर्निहित पूर्वाग्रहों के साथ सामान्य डाटासेट के व्यापक उपयोग और पुन: उपयोग की वजह से इसके प्रभाव कम नज़र आ रहे हैं.[iv] इस तरह के असरकारक लेकिन कम दिखाई देने वाले नुकसान इसलिए और भी व्यापक हो गए हैं क्योंकि कंपनियां अपने उत्पादों, सेवाओं, प्रक्रियाओं और निर्णय लेने की प्रक्रिया में एआई क्षमताओं को विकसित और शामिल करना जारी रखे हुए हैं.[v]
उदाहरण के लिए, एआई एल्गोरिदम में सर्वव्यापी लिंग और नस्लीय पूर्वाग्रह और भेदभाव के बारे में चिंताएं बढ़ गई हैं.[vi] संयुक्त राज्य अमेरिका (यूएस) में एआई-सक्षम चेहरे से पहचान करने वाली कुछ प्रणालियों ने गहरे रंग की त्वचा के साथ प्रस्तुत किए जाने पर ख़राब प्रदर्शन किया[vii] और ऐतिहासिक रूप से हाशिए पर रह रहे समूहों को अपराधी क़रार दे दिया.[viii] इसी तरह, अमेरिका में किए गए अध्ययनों ने इस बात को लेकर भी अंतर्दृष्टि प्रदान की, कि कैसे स्वाभाविक भाषा मॉडल पहचान को लेकर रूढ़िवादिता को कायम रख रहे हैं, विशेष रूप से लिंग, जातीयता और नस्ल की पहचान को लेकर अस्पष्ट लोगों के मामले में:[ix] भर्ती के लिये इस्तेमाल किये जाने वाले एल्गोरिदम धर्म, नस्ल, लिंग और विकलांगता को लेकर संरक्षित लोगों के ख़िलाफ़ भेदभाव कर रहे हैं,[x] और साख (क्रेडिट) का मूल्यांकन करने वाले एल्गोरिदम महिलाओं को हाशिए पर डाल रहे हैं.[xi] इन उभरते हुए जोख़िमों को एक डेवलपर पूल ने बढ़ाया था जिसमें इतनी विविधता नहीं थी कि वह AI प्रणाली के अंदर असर कारक निर्णय लेने की प्रक्रिया में ऐसे समूहों के अनुभवों पर विचार कर सके जिनका प्रतिनिधित्व कम है.[xii] इस तथ्य से यह मामला और जटिल हो जाता है कि एआई में राष्ट्रीय दक्षताओं को विकसित करने की कोशिश कर रहे देशों को अमेरिका में स्थित बड़ी अंतरराष्ट्रीय तकनीकी कंपनियों के भीतर डाटा एकीकरण या (कन्सॉलिडेशन) और कंप्यूटिंग के बुनियादी ढांचे के संकेंद्रण या (कन्संट्रेशन) के व्यवस्थागत मामलों से जूझना पड़ता है.[xiii]
इसके साथ ही, जैसे-जैसे AI प्रणालियों का स्वायत्त क्षमताएं हासिल करना बढ़ता जाएगा, इससे बौद्धिक संपदा (आईपी) के स्वामित्व और लेखन के बारे में भी सवाल उठेंगे. इसकी शुरुआत 2018 में तब हुई जब अमेरिकी कंप्यूटर वैज्ञानिक स्टीफ़न थेलर ने अपनी एआई प्रणाली डाबुस (DABUS- डिवाइस फॉर द ऑटोनॉमस बूटस्ट्रैपिंग ऑफ यूनिफाइड सेंटिएंस) का नाम एक आविष्कारक के रूप में दर्ज करने के लिए अलग-अलग अधिकार क्षेत्रों में आईपी आवेदन किए. कई बार ये आवेदन एक ही अधिकार क्षेत्र में एक से ज़्यादा बार किए गए थे लेकिन ऑस्ट्रेलिया, यूनाइटेड किंगडम, अमेरिका, न्यूज़ीलैंड के साथ ही यूरोपीय संघ पेटेंट कार्यालय ने इन्हें ख़ारिज कर दिया था और सभी ने तर्क दिया था कि किसी आविष्कार के लेखन-कार्य को किसी कानूनी व्यक्ति के नाम पर ही दर्ज किया जा सकता. एकमात्र दक्षिण अफ्रीका ने अपने क्षेत्राधिकार में थेलर का पक्ष लिया और जुलाई 2021 में, इसके पेटेंट कार्यालय ने डाबुस को "आविष्कारक" मान लिया.[xiv]
भारत में, भारतीय कॉपीराइट कार्यालय ने 2020 में एक AI प्रणाली राघव (RAGHAV) के एक आवेदन को एक कलात्मक कार्य के सह-लेखक के रूप में मान्यता देने से इनकार कर दिया था.[xv] इसके बाद, एक अन्य आवेदन जिसमें राघव को इसके मानव निर्माता के साथ सह-लेखक के रूप में सूचीबद्ध किया गया था, को स्वीकार कर लिया गया.[xvi] हालांकि, बाद में कार्यालय ने इसे वापस लेने के लिए एक नोटिस (विदड्रॉल नोटिस) जारी किया जिसमें मानव सह-लेखक को इस एआई उपकरण की कानूनी स्थिति के बारे में कार्यालय को सूचित करने के लिए कहा गया.[xvii]
आईपी स्वामित्व को लेकर इस तरह की समस्याएं AI द्वारा तैयार उत्पाद या आउटपुट की ज़िम्मेदारी और जवाबदेही के सवाल पर ध्यान वापस खींचती हैं, ख़ासतौर पर ऐसे मामलों को लेकर जिनके परिणाम प्रतिकूल आए हों. एआई प्रणाली की प्रकृति – जो अपारदर्शी, रहस्यमयी और स्वायत्त है - जवाबदेही के नियमों को निर्धारित करने में भारी चुनौतियां पेश करती है. जब निर्माण करने वाला एल्गोरिदम की खुद-सीखने-वाली प्रकृति के कारण उनका पूर्वानुमान लगाने में असमर्थ होता है, तो कोई कार्य-कारण-संबंध का पता कैसे लगा सकता है और दोष कैसे निर्धारित कर सकता है?[xviii] इन एल्गोरिदम की अस्थिरता "उत्पाद में ख़राबी" की पारंपरिक परिभाषाओं को चुनौती देती है, जिसकी वजह से किसी विशेष आपूर्ति श्रृंखला के भीतर जवाबदेही का निर्धारण और जटिल हो जाता है. इसे लेकर अलग दृष्टिकोण भी हैं, उदाहरण के लिए, एक प्रिंसिपल-एजेंट संबंध (मालिक-अभिकर्ता संबंध या प्रिंसिपल-एजेंट संबंध एक ऐसी व्यवस्था होती है जिसमें एक इकाई कानूनी रूप से अपनी ओर से कार्य करने के लिए किसी अन्य को नियुक्त करती है. प्रिंसिपल-एजेंट संबंध में, एजेंट प्रिंसिपल की ओर से कार्य करता है. कार्य को पूरा करने में हितों का टकराव नहीं होना चाहिए।) को परिभाषित करना, जो नियुक्ति कर्ता को जवाबदेह बनाएगा और इसलिए इसका उपयोग सीमित होगा.[xix] इस बीच, AI को कानूनी व्यक्तित्व प्रदान करने की अतिवादी सोच को अन्य प्रासंगिक सावलों का सामना करना पड़ेगा, जिसमें यह भी शामिल है कि क्या एआई संपत्ति की मालिक हो सकती है या अपने नाम पर अनुबंध कर सकती है.[xx]
ये उदाहरण उत्तरों से ज़्यादा सवाल उठाते हैं: AI से होने वाले नुकसानों के लिए जवाबदेहियां कैसे तय की जाएंगी जो व्यवस्थागत पूर्वाग्रह के बने रहने से उत्पन्न होती हैं और दोषारोपण और जवाबदेहियों के विभाजन से ग्रस्त हैं? क्या यह काम उत्पाद जवाबदेही व्यवस्था, प्रिंसिपल-एजेंट संबंध या एआई-समाज इंटरफ़ेस के नए कानूनी ढांचों के ज़रिए किया जाना चाहिए? हमें कम प्रतिनिधित्व वाले डाटासेट के व्यवस्थागत मुद्दों से कैसे निपटना चाहिए जो शिक्षा और रोज़गार में पुरुषों के ऐतिहासिक अति-प्रतिनिधित्व,[xxi] दवाओं के परीक्षण में महिलाओं के अल्प प्रतिनिधित्व, या ऑटोमोबाइल सुरक्षा परीक्षणों में महिलाओं के शरीर के आयामों को ध्यान में न रखने को लेकर होने वाली विफलता की वजह से होते हैं?[xxii] हम एल्गोरिद्मिक मतिभ्रम, भेदभावपूर्ण व्यवहार को सक्रियता के साथ सीखने, जो इसके डाटा और असंख्य उपयोगकर्ताओं से पारस्परिक क्रिया वाले व्यवस्थागत मुद्दों के एक संयोजन के चलते हो सकता है, के उभरते जोख़िमों से कैसे निपटेंगे? डाटा-समृद्ध बड़ी तकनीकी फर्मों द्वारा वेब 2.0 के शुरुआती प्रवर्तक होने के परिवर्तनकारी (कैस्केडिंग) लाभों का आनंद लेने वाले बाज़ार संकेंद्रण को लेकर हम क्या कर सकते हैं?
वास्तव में, AI का प्रबंधन और विनियमन कई सिर वाले सांप की तरह है, जो नीति निर्माताओं और नियामकों के सामने लगातार और संभवतः असाध्य चुनौतियां पेश करता रहता है. एआई के विकास में हितधारकों और स्थितियों का एक पूरा पारिस्थितिकी तंत्र शामिल होता है जिसमें संसाधनों का अलग-अलग नियंत्रण और वितरण होता है.[xxiii] एआई अपने अपारदर्शी स्वभाव, सामान्य-उद्देश्य अनुप्रयोग (एप्लीकेशन) और विभिन्न कार्यक्षेत्रों (डोमेन्स) में परस्पर प्रभाव के चलते संभावित नुकसान के प्रत्यक्ष मूल्यांकन और कार्य-कारण संबंधों की स्पष्ट रूपरेखा को भी नहीं बनने देता. इसकी वजह से नियामक यह निर्धारित करने के लिए जूझते रहते हैं कि व्यक्तिगत अधिकार कहां समाप्त होते हैं, मालिकाना अधिकार कहां से शुरू होते हैं और AI के अधिकार हावी हो जाते हैं.
इस तरह विनियमन अनुकूलन-न्यूनीकरण का मामला नहीं रह जाता, क्योंकि एआई के सामाजिक-आर्थिक और कानूनी निहितार्थ परिवर्तनकारी होते हैं. AI के कुछ पहलुओं को विनियमित करने का प्रयास सफल हो सकता है, लेकिन बदलते लक्ष्यों के अनुरूप जवाब देने के लिए समाधानों को एआई के विकास के साथ तालमेल बैठाना होगा.
यह रिपोर्ट एआई विनियमन के लिए एक मुमकिन मार्गदर्शिका के रूप में 'मूविंग होराइज़न्स' रूपरेखा प्रस्तुत करती है. प्रतिक्रियात्मक और जोख़िम-आधारित विनियमन के तत्वों पर आधारित, 'मूविंग होराइज़न्स' का उद्देश्य विकसित और उभरते नियामक रुझानों को पकड़ना और मौजूदा विनियमन के तत्वों को शामिल करना है जो अपने आप में पुराने पड़ सकते हैं.
यह रिपोर्ट एआई विनियमन के लिए एक मुमकिन मार्गदर्शिका के रूप में 'मूविंग होराइज़न्स' रूपरेखा प्रस्तुत करती है. प्रतिक्रियात्मक और जोख़िम-आधारित विनियमन के तत्वों पर आधारित, 'मूविंग होराइज़न्स' का उद्देश्य विकसित और उभरते नियामक रुझानों को पकड़ना और मौजूदा विनियमन के तत्वों को शामिल करना है जो अपने आप में पुराने पड़ सकते हैं. यह दृष्टिकोण परिदृश्य में अंतर्निहित स्थितियों और बदलावों को पहचानता है और उन्हें एक तरफ, नवाचार के अवसरों और दूसरी तरफ, प्रतिकूल परिणामों के जोख़िमों को संतुलित करने के लिए उपयोग करता है. इसमें एक गतिशील संचालन दृष्टिकोण, संस्थागत क्षमताओं का निर्माण, अनुकूल नियामक दृष्टिकोण के माध्यम से प्रक्रियाओं को सुव्यवस्थित करना और नियामक और तकनीकी दक्षताओं का विकास करना शामिल है, जो नियामकों को बदलती पर्यावरण और पारिस्थितिकी तंत्र की जरूरतों पर प्रतिक्रिया करने के लिए तैयार करता है.[xxiv]
अंतर्निहित स्थितियां और बदलाव
AI को लेकर संचालन संबंधी प्राथमिकताओं को निर्धारित करने वाली सबसे महत्वपूर्ण अंतर्निहित स्थितियों और महत्वपूर्ण बदलावों को रेखांकित करना महत्वपूर्ण है. इन्हें निम्नलिखित तीन व्यापक श्रेणियों में रखकर व्यवस्थित और विचार किया जा सकता है.
डाटा और डिजिटल कॉमन्स की त्रासदी
डाटा पारंपरिक कॉमन्स (सार्वजनिक रूप से उपलब्ध) की तरह नहीं है: यह एक सीमित संसाधन नहीं है, न ही यह प्राकृतिक रूप से संपन्न है, और गैर-प्रतिद्वंद्वी है.[xxv] हालांकि, सार्वजनिक रूप से उपलब्ध डाटा के लिए वेब को स्क्रैप और हार्वेस्ट करने (वेब स्क्रैपिंग, या वेब हार्वेस्टिंग से अर्थ कोड या सॉफ़्टवेयर प्रोग्राम का इस्तेमाल कर वेबसाइटों से स्वचालित रूप से जानकारी एकत्र करने से है) के लिए उपयोग किए जाने वाले मालिकाना एल्गोरिदम और कंप्यूटिंग इंफ्रास्ट्रक्चर व्यक्तिगत डाटा स्वामित्व की प्रकृति को नष्ट कर देते हैं.[xxvi] बड़ी टेक (टेक्नोलॉजी कंपनियां) जिस दर और पैमाने पर काम करती हैं, उससे व्यक्तिगत डाटा के गैर-वैयक्तिकरण के माध्यम से मौजूदा आईपी व्यवस्थाएं कमज़ोर होती हैं.[xxvii]
उपयोगकर्ता द्वारा निर्मित सामग्री के मौजूदा भंडारों के माध्यम से यह और बढ़ने वाला है. समग्र डाटासेट में एकत्रित और संकलित डाटा के एल्गोरिद्मिक विश्लेषण किए जाने के बाद मूल डाटा एक विश्लेषणात्मक आउटपुट में बदल जाता है, जिस पर व्यक्तिगत डाटा स्वामी का कोई अधिकार नहीं रह जाता है. इसने उपयोगकर्ताओं के लिए मूल स्वामित्व और लाभों के संचय को कमज़ोर कर दिया है और नकारात्मक बाहरी प्रभावों और प्रतिकूल परिणामों के लिए निकाले गए आर्थिक मूल्य के पुनर्वितरण का या कोई सुधारात्मक उपाय नहीं किया है.[xxviii]
उत्पादक दुविधाएं और वैश्विक AI अर्थव्यवस्था
एआई का विकास बड़ी मात्रा में डाटा और कम्प्यूटेशनल क्षमता पर निर्भर करता है. माइक्रोसॉफ्ट, फ़ेसबुक, अमेज़ॉन और गूगल जैसी बड़ी टेक कंपनियों के पास मौजूद डाटा के भंडार ने उन्हें सकारात्मक फीडबैक लूप के साथ बड़े AI मॉडल को प्रशिक्षित करने में सक्षम बनाया है.[xxix] इसकी वजह से कई प्रतिस्पर्धा-विरोधी चिंताओं उभरी हैं जो अदालतों तक पहुंच गई हैं, मुख्य रूप से यूरोपीय संघ (ईयू) में.[xxx] ये व्यवस्थागत मुद्दे नई समस्याओं को जन्म देते हैं जिनका प्रबंधन करने की ज़रूरत पड़ती – जैसे कि, प्रतिस्पर्धा या सहयोग की दुविधा, और AI विकास और लागू किए जाने के भीतर मौजूदा बाज़ार संरचना जो इसे सक्षम या बाधित करती है.
मौजूदा समय में, उपभोक्ता के सामने आने वाले मूल्यांकन मापदंडों को शामिल करने को लेकर पारदर्शिता और जवाबदेही पर काफ़ी कम काम हो रहा है जिससे इस्तेमाल किए जाने के दौरान एआई प्रणाली के पक्षपात और भेदभाव के जोख़िमों को लेकर उपभोक्ताओं को सूचित किया जा सके.[xxxi] यह देखते हुए कि मूल्यांकन एल्गोरिदम को शामिल करने से कम्प्यूटेशनल और विकास लागत बढ़ जाती है, कंपनियों के पास दो विकल्प रह जाते हैं कि या तो भरोसेमंद AI बनाने के लिए अपनी प्रणाली को सुरक्षित बनाएं या बिना किसी सुरक्षा के नवाचार की गति को अधिकतम करें. कानून बनाने के लिए राष्ट्रीय और बहुपक्षीय क्षमताओं का कमज़ोर होना और व्यापक रूप से तकनीकी शासन और विशेष रूप से एआई पर बहु-हितधारक दृष्टिकोण की मांग ने बड़े पैमाने पर अनियमित और अनियंत्रित अंतराल बनाए हैं जो नियमों के द्वारा ऐसे संकेत नहीं देते कि कॉर्पोरेशन्स को अच्छा बर्ताव करना चाहिए. हालांकि बिग टेक फर्मों के नेतृत्व ने, कम से कम सैद्धांतिक रूप में, AI को विनियमित करने के विचार का समर्थन किया है लेकिन इस बात पर बहुत कम सहमति है कि ये विनियमन कैसा होना चाहिए.[xxxii] इसलिए, इसे लागू करने की रफ़्तार, नियामक या रेगुलेटरी इंटरफ़ेस (या इसकी कमी) और इस तरह तेज़ी से लागू करने की लागत और परिणामों पर अधिक ध्यान दिए जाने की आवश्यकता है.[xxxiii]
AI के खेल का हिस्सा बनना
वैश्विक स्तर पर, अमेरिका और चीन AI नवाचार के वर्तमान केंद्र हैं; इस बीच, 2024 में अपने ऐतिहासिक एआई अधिनियम को अपनाकर यूरोपीय संघ AI विनियमन के मामले में सबसे आगे हो गया है. नवाचार और विनियमन के केंद्रों के बीच यह दूरी उस अतिरिक्त-क्षेत्रीय संभावना का पूर्वाभास देती है जिसके साथ यूरोपीय संघ के एआई विनियमन संचालित होते हैं.[xxxiv] विशेष रूप से, विकासशील दुनिया को मुख्य तौर पर नवाचार के अधिक उन्नत केंद्रों, जहां अधिकांश राजस्व और आर्थिक लाभ मिलते हैं, के लिए महज़ डाटा प्रदाता बनाने तक पदावनत कर दिया जाता है.[xxxv] इससे ऐसी स्थितियां पैदा होती हैं जहां विकासशील दुनिया या तो AI नवाचार के लिए महत्वपूर्ण संसाधन प्रदान करने वाली बनकर रह जाती है या एआई विनियमन की विषय-वस्तु बन जाती है जिससे वैश्विक AI अर्थव्यवस्था में नवाचार करने और भाग लेने की इसकी प्रतिस्पर्धी क्षमता बाधित होती है.
इस प्रकार एआई का विकास दोहन करने वाला और विषमतापूर्ण दोनों ही बना हुआ है, और जो लोग अपने व्यक्तिगत डाटा के साथ AI समाधानों के विकास और उन्नति में योगदान करते हैं, उन्हें या तो कोई फ़ायदा नहीं मिलता या बहुत मामूली मिलता है. नतीजतन, प्रभाव की इन संधियों के चलते ही, कॉर्पोरेशन और ऐसे ही मंच विनियमन पर दुनिया में ब्रसेल्स जैसी विकसित दुनिया की प्रमुख राजधानियों में इकट्ठे होते हैं जबकि बाकी को अनदेखा कर देते हैं, जिससे योग्यताओं और क्षमताओं में अंतर और गहरा हो जाता है.
बाज़ार की विकृतियां
वर्तमान में AI को लेकर विनियामक चिंताएं बाज़ार में व्याप्त विकृतियों की वजह से और मज़बूत हो रही हैं. इस खंड में दो केस स्टडीज़ - रक्षा क्षेत्र और सेक्स रोबोट उद्योग - का संक्षिप्त वर्णन किया गया है, जिससे एआई प्रणाली द्वारा उत्पन्न नकारात्मक बाहरी प्रभावों और अब तक उनके द्वारा बनाई गई गहरी और व्यापक पैठ को दर्शाया जा सके.
रक्षा क्षेत्र
दोहरे उपयोग वाली उभरती तकनीक-संचालित सैन्य क्षमताओं की वैश्विक मांग में उछाल देखा जा रहा है और रक्षा-औद्योगिक आधार के बाहर की फर्मों द्वारा इसे लगातार पूरा किया जा रहा है.[xxxvi] उदाहरण के लिए, अमेरिका में पिछले दो दशकों में तीन चरणों में रक्षा तकनीक स्टार्ट-अप का प्रसार हुआ है, जिसमें 2018-2023 की सबसे हालिया लहर में AI/मशीन लर्निंग जैसी उभरती तकनीकों का प्रभुत्व है.[xxxvii] प्रमुख शक्तियां एआई के सैन्य अनुप्रयोगों को विकसित करने में निवेश कर रही हैं.
उदाहरण के लिए, अमेरिकी रक्षा विभाग ने 2024 में AI के लिए 1.8 बिलियन अमेरिकी डॉलर के बजट की मांग की है, जबकि चीन एआई पर इससे थो़ड़ा सा ही कम सालाना 1.6 बिलियन अमेरिकी डॉलर खर्च कर रहा है.[xxxviii] रक्षा खिलाड़ियों द्वारा AI स्टार्ट-अप में बढ़ते निवेश के कारण बाज़ार 2023 में 9.23 बिलियन अमेरिकी डॉलर के मूल्य तक पहुंच गया है.[xxxix] बाज़ार के 2.1 बिलियन अमेरिकी डॉलर तक पहुंचने की उम्मीद के साथ ही स्वायत्त काउंटर-ड्रोन प्रणाली 2024 में परिचालन (ऑपरेशन) के लिए तैयार हैं.[xl] स्वायत्त और एआई-संचालित स्मार्ट युद्ध सामग्री, प्रणाली और हथियार तैयार करना डिज़ाइन और सिद्धांत दोनों को आकार देगा, जिस पर AI को विनियमित किया जा सकता है या जवाबदेह बनाया जा सकता है.
सहायक और सेक्स रोबोट क्षेत्र
अब तक रोबोटों का सबसे अधिक उपभोक्ता-सामना या कंज़्यूमर-फ़ेसिंग अनुप्रयोग वॉयस असिस्टेंट और सेक्स साथी के रूप में रहा है.[xli] यद्यपि अमेज़न के एलेक्सा को सुस्पष्ट रूप से यौन या परेशान करने वाली प्रकृति के सवालों से बचने के लिए प्रोग्राम किया गया है, डेवलपर्स ने बताया है कि इस वॉयस असिस्टेंट के साथ उपयोगकर्ताओं का कम से कम 5 प्रतिशत इंटरैक्शन साफ़ तौर पर खुलकर यौन संबंधी होता है.[xlii] वॉयस असिस्टेंट को महिला के रूप में परिभाषित करना, सहायक की भूमिकाएं सौंपे जाना और मौखिक दुर्व्यवहारों पर विनम्र प्रतिक्रिया देने के लिए प्रोग्राम किया जाना, वास्तविक जीवन के गहरे पूर्वाग्रहों को उजागर करता है जो आभासी दुनिया में भी फैल जाते हैं.[xliii]
2022 में, सेक्स रोबोट उद्योग का मूल्य 200 मिलियन अमेरिकी डॉलर आंका गया था, जिसमें प्रति वर्ष अनुमानित 56,000 सेक्स रोबोट बेचे जा रहे थे, जिनमें से प्रत्येक की कीमत 5,000 से 15,000 अमेरिकी डॉलर के बीच थी.[xliv] मनोलैंगिक विकारों के डॉक्टरों का कहना है कि सेक्स रोबोट उन लोगों के लिए फ़ायदेमंद हो सकते हैं जिन्हें अंतरंग संबंध बनाना मुश्किल लगता है या वे आघात से उबर रहे हैं.[xlv] इसके साथ ही, शोधकर्ता चेतावनी देते हैं कि ये रोबोट महिलाओं और बच्चों के वस्तुकरण (ऑब्जेक्टिफ़िकेशन या वस्तु समझने की प्रवृत्ति) को बढ़ाते हैं और सहमति की धारणाओं को बदलते हैं जिन्हें अन्यथा अवैध माना जाएगा, कुछ मॉडल बलात्कार परिदृश्यों का स्वांग तैयार करते हैं.[xlvi]
यद्यपि अमेज़न के एलेक्सा को सुस्पष्ट रूप से यौन या परेशान करने वाली प्रकृति के सवालों से बचने के लिए प्रोग्राम किया गया है, डेवलपर्स ने बताया है कि इस वॉयस असिस्टेंट के साथ उपयोगकर्ताओं का कम से कम 5 प्रतिशत इंटरैक्शन साफ़ तौर पर खुलकर यौन संबंधी होता है
इससे दोहरे उपयोग वाली प्रौद्योगिकियों के लिए नागरिक और सैन्य उपयोगों के अलग-अलग विनियमन और नागरिक और आपराधिक कानून के निहितार्थों के बारे में उचित प्रश्न उठते हैं. इन चिंताओं को दो अन्य प्रबल कारक कमज़ोर बना देते हैं, जैसा कि अगले खंड में चर्चा की गई है.
एकीकरण और जवाबदेहियां
एआई में नवाचार का एकीकरण (कन्सॉलिडेशन) और केंद्रीकरण उन परिवर्तनों के ठीक बाद हुआ है, जिन्होंने वेब 2.0 के आगमन और विकास को दर्ज किया. इस दौरान, सोशल मीडिया कंपनियां बड़ी मात्रा में उपयोगकर्ता-जनित सामग्री का भंडार बन गईं, जिन्हें ऐसे प्लेटफ़ॉर्म के निरंतर उपयोग के माध्यम से सुदृढ़ किया जाता है. डाटा के ये खजाने ऐसी नींव का आधार बन गए, जिनके ऊपर ऐसे प्लेटफ़ॉर्म अपनी क्लाउड कंप्यूटिंग इंफ्रास्ट्रक्चर सेवाओं की मांग को बढ़ाने और चलाने में सक्षम हो पाए.[xlvii]
तर्कसंगत रूप से AI इंटरनेट के विकेंद्रीकृत नवाचार के अंत का प्रतीक है. इससे पहले, संयुक्त राज्य अमेरिका की रक्षा उन्नत अनुसंधान परियोजना एजेंसी (डारपा) के मामले में रक्षा अनुसंधान को कई अलग-अलग कंपनियों को आउटसोर्स किया गया था. इंटरनेट ने अपने डिज़ाइन के परिणामस्वरूप विकेंद्रीकृत कम्प्यूटेशनल उन्नति के साथ बहु-नोडल नवाचार की सुविधा प्रदान की जिससे डिजिटल समाजों के आगमन को शक्ति मिली
तर्कसंगत रूप से AI इंटरनेट के विकेंद्रीकृत नवाचार के अंत का प्रतीक है. इससे पहले, संयुक्त राज्य अमेरिका की रक्षा उन्नत अनुसंधान परियोजना एजेंसी (डारपा) के मामले में रक्षा अनुसंधान को कई अलग-अलग कंपनियों को आउटसोर्स किया गया था. इंटरनेट ने अपने डिज़ाइन के परिणामस्वरूप विकेंद्रीकृत कम्प्यूटेशनल उन्नति के साथ बहु-नोडल नवाचार की सुविधा प्रदान की जिससे डिजिटल समाजों के आगमन को शक्ति मिली.[xlviii] हालांकि, एआई मॉडल के विकास के लिए आवश्यक बड़े डाटा पूल और कंप्यूटिंग क्षमताओं की ज़रूरत को देखते हुए एआई नवाचार की पहचान केंद्रीकरण के माध्यम से की जाती है. ये दोनों ही चीज़ें सिर्फ़ कुछ लोगों के पास हैं, मुख्य रूप से बिग टेक फ़र्म्स के पास जो डिजिटलीकरण के पिछले दौर में हावी थीं. इसने उन्हें उपयोगकर्ता-जनित सामग्री के विशाल डाटा के खजाने को हासिल करने और उसका लाभ उठाने में सक्षम बनाया. इस प्रकार, उनके पास डाटा के विशाल भंडार का खनन करते हुए भी जबरदस्त कंप्यूटिंग क्षमताओं में निवेश करने और निर्माण करने की क्षमता और संसाधन हैं. इससे नए प्रवेशकों को असमान और लगभग दुर्गम खेल का मैदान मिलता है. यह एक दुष्चक्र है क्योंकि सभी नए लोगों को बड़ी कंपनियों द्वारा दी जाने वाली कंप्यूटिंग क्षमताओं पर निर्भर रहना पड़ता है और उनके बुनियादी ढांचे, जैसे क्लाउड सेवाओं पर भरोसा करना पड़ता है, जो एकीकरण को और बढ़ावा देता है.[xlix] संक्षेप में: आधारभूत मॉडल और कम्प्यूटेशनल क्षमता विकसित करने के लिए आवश्यक बड़ा पूंजी निवेश इस क्षेत्र में बाज़ार में प्रवेश को बाधित करते हैं.[l] फिर भी, स्थानीय पारिस्थितिकी तंत्र निवेश, ओपन-सोर्स मॉडल और संस्थागत समर्थन और वित्त पोषण के माध्यम से धीरे-धीरे उम्मीद की कुछ किरण नज़र आ रही है.[li] क्या ये पर्याप्त और काफ़ी तेज़ हैं? और यह वर्तमान कारोबारी माहौल जवाबदेही को लेकर महत्वपूर्ण सवालों को कैसे प्रभावित करेगा?
यह पहलू महत्वपूर्ण है. AI प्रणाली से उत्पन्न होने वाले जोख़िमों और एक स्थापित जवाबदेही व्यवस्था के लेकर आम सहमति की कमी को देखते हुए, कंपनियां अपने स्वयं के बनाए एक अदृश्य सुरक्षित ठिकाने के पीछे रहकर खुद को बचा सकती हैं, जिसमें वे खुद पर लगने वाले नुकसान के जोख़िमों के किसी भी आरोप को खारिज कर सकती हैं और किसी भी ज़िम्मेदारी को स्वीकार करने से बच सकती हैं. एक नए अवतार में, मध्यस्थ जवाबदेही सुरक्षा, एआई प्रदाताओं को हानिकारक उत्पाद विकास और सेवा प्रावधान से मुक्त कर सकती है. उदाहरण के लिए, गूगल की जेनरेटिव AI की अतिरिक्त सेवा शर्तों के अनुसार, कंपनी एआई प्रणाली द्वारा उत्पन्न सामग्री के स्वामित्व का दावा नहीं करेगी.[lii] हालांकि नीति का उद्देश्य उपयोगकर्ताओं को बिना किसी कॉपीराइट के झंझट के स्वामित्व का दावा करने की अनुमति देना है, लेकिन यह प्रतिकूल परिणामों की स्थिति में जवाबदेही तय करने को जटिल बनाता है. सामान्य तौर पर, कानूनी ढांचा AI क्षेत्र में तेज़ी से हो रहे विकास के साथ तालमेल बिठाने में असमर्थ है और घरेलू और अंतर्राष्ट्रीय दोनों व्यवस्थाओं में वास्तविक कमियां हैं. एआई को नियंत्रित करने के लिए इच्छुक पक्ष शायद कानूनी दृष्टिकोण के संबंध में लगातार बदल रही इस परिस्थिति पर दांव लगा रहे हैं.
अंतर्राष्ट्रीय कानून के रहस्यवाद के रूप में नैतिकता
एक मामले के रूप में देखें तो, वैश्विक एआई संचालन और नियमन एक प्रणाली के रूप में AI की नैतिकता तक सीमित हो गए हैं; ये नैतिक सिद्धांत गैर-बाध्यकारी होने के कारण अंतर्राष्ट्रीय कानून की प्रणालियों को दरकिनार कर देते हैं. नतीजतन, ऐसे शक्तिहीन सिद्धांत या तो अर्थहीन हो जाते हैं क्योंकि वे तकनीकी वास्तविकताओं के विपरीत उद्देश्यों पर काम करते हैं (उदाहरण के लिए, प्रतिनिधि डाटासेट सुनिश्चित करते हुए गोपनीयता को संरक्षित करने का द्वंद्व), संकीर्ण क्षेत्रीय फोकस के साथ अलग-थलग रह जाते हैं, या उनके गैर-बाध्यकारी स्वभाव के कारण परिणामों का अभाव होता है. मानक नैतिक नुस्खों को तकनीकी संहिताकरण में बदलना चुनौतियां पेश करता है. उदाहरण के लिए, मई 2024 में यूरोप की परिषद द्वारा अपनाई गई एआई पर संधि - अपनी तरह की पहली कानूनी रूप से बाध्यकारी संधि - में मानक सिद्धांतों के पालन से परे दायित्वों के परिसीमन के लिए स्पष्ट विनिर्देशों का अभाव है. यह संधि देनदारियों और ज़िम्मेदारियों को लेकर सवालों पर स्पष्ट रूप से बात नहीं करती है, जो एआई प्रणालियों से उत्पन्न होने वाले नुकसान के निवारण के लिए महत्वपूर्ण हैं. अपनी ओर से, संयुक्त राष्ट्र महासभा ने इस वर्ष की शुरुआत में AI पर एक प्रस्ताव पारित किया, लेकिन अंतरराष्ट्रीय कानून में आवश्यक परिवर्तनों पर चर्चा के किसी तरह के तरीके का प्रस्ताव करने से चूक गई. यह विशेष रूप से एआई प्रणालियों की अंतरराष्ट्रीय प्रकृति, डाटा के रूप में अंग्रेजी भाषा की प्रधानता, जिस पर एआई प्रणाली प्रशिक्षित होती हैं, और राष्ट्रीय AI दक्षताओं में वैश्विक असमानताओं के साथ-साथ एआई विकास के जीवन चक्र के भीतर कम प्रतिनिधित्व को देखते हुए महत्वपूर्ण है.
उत्तरदायी और जोख़िम-आधारित रेगुलेशन के लिए 'मूविंग होराइज़न्स' का ढांचा
जैसा कि इस रिपोर्ट के पिछले खंडों में चर्चा की गई है, AI विकास के विनियमन को कई परस्पर संबंधित वास्तविकताओं से जूझना पड़ता है. इसके लिए व्यवस्थागत स्थितियों के प्रबंधन की आवश्यकता होती है जो बाज़ार की एकाग्रता, संसाधनों के असमान वितरण या डाटासेट और डेवलपर समुदाय में कम प्रतिनिधित्व के रूप में व्यवस्था में व्याप्त हैं. व्यवस्थागत स्थितियां कई स्रोतों से उत्पन्न होती हैं, पारिस्थितिकी तंत्र के भीतर विभिन्न अभिकर्ताओं को प्रभावित करती हैं और तेज़ी से फैलती हैं, जिसके परिणामस्वरूप डोमिनो प्रभाव पैदा होता है. यह एआई प्रणालियों के भीतर व्यापक नुकसान की प्रकृति पर प्रकाश डालता है, जिसके परिणामस्वरूप उभरते जोख़िमों के सटीक स्रोत को निर्धारित करना मुश्किल हो जाता है क्योंकि वे एल्गोरिदम, मॉडल और खुद-सीखने-वाली एआई प्रणालियों में उलझ जाते हैं. इसकी डिज़ाइन प्रक्रिया के भीतर की स्थितियां ही यह तय करती हैं कि AI मॉडल को कैसे और किस आधार पर प्रशिक्षित किया जाता है जो जोख़िमों के गतिशील उत्थान को जन्म देता है क्योंकि एल्गोरिदम उपयोगकर्ताओं से अंतःक्रिया (इंटरैक्शन) के माध्यम से सीखना जारी रखता है. इनमें AI मतिभ्रम, और पक्षपाती, भेदभावपूर्ण या विषाक्त आउटपुट शामिल हैं. यद्यपि यूरोपीय संघ AI अधिनियम एक जोख़िम वर्गीकरण तंत्र का उपयोग करता है लेकिन व्यवहार में जोख़िम प्रबंधन ध्यान दिए जाने और हस्तक्षेप का विषय बन जाता है. इसके अलावा, जोख़िम-आधारित नियामक दृष्टिकोण, कार्यान्वित किए जाने के दौरान, अधिकार क्षेत्रों में जोख़िम सहने के विभिन्न स्तरों से प्रभावित होते हैं और मूल्यांकन के लिए मानक सिद्धांतों की विभिन्न व्याख्याओं द्वारा आकार लेते हैं. हालांकि, तकनीकी और एआई प्रणालियां बाकी जोख़िमों को तब भी रोक सकती हैं जब महत्वपूर्ण परिचालन नियंत्रण लागू किए जा रहे हों. यह हितधारक, क्षेत्रीय, सामाजिक और सरकारी विकल्पों के साथ व्यवस्थागत स्थितियों और उभरते जोख़िमों के अभिसरण या (कन्वर्जेंस) और प्रतिच्छेदन या (इंटरसेक्शन या एक-दूसरे को काटकर गुज़रने वाले रास्ते) को समझने और प्रतिक्रिया देने के लिए गतिशील संचालन क्षमताओं को पोषित करने की आवश्यकता पर प्रकाश डालता है. यह जोख़िम के न्यूनीकरण के साथ नवाचार को बढ़ावा देने की प्रतिस्पर्धी चिंताओं को संतुलित करने के लिए भी महत्वपूर्ण है, जिससे संसाधनों, स्थितियों और अभिकर्ताओं के रणनीतिक संरेखण (एलाइनमेंट) की आवश्यकता को बल मिलता है. AI विकास सरकार, शिक्षा और उद्योग के ट्रिपल हेलिक्स यानी तिहरे सिस्टम के साथ हितधारकों के एक पारिस्थितिकी तंत्र के माध्यम से आगे बढ़ता है. इसके अलावा, व्यवस्थागत स्थितियां और उभरते जोख़िम नागरिक-केंद्रित दृष्टिकोण के महत्व को उजागर करते हैं. यह सुनिश्चित करने में मदद कर सकता है कि विनियमन एक उत्तरदायी और समझ-बूझ वाले तरीके से आगे बढ़ सकता है क्योंकि राज्य व्यवस्थागत स्थितियों का ध्यान रखने के लिए कदम उठाते हुए एआई नवाचार से उभरती चुनौतियों से निपटने के लिए गतिशील क्षमताओं का विकास करते हैं. 'मूविंग होराइज़न्स' विनियामक ढांचा उत्तरदायी विनियमन के समर्थन और प्रतिबंधों के पिरामिड से प्रेरणा लेता है – यानी कि AI प्रणाली की ताकत और संभावित क्षमता का विस्तार करने के लिए काम करते हुए प्रतिकूल परिणामों पर ध्यान देना. नवाचार और जोख़िम के प्रबंधन का ख़्याल रखते हुए, यह नवाचार को अनुकूलित करने और जोख़िमों को कम करने के लिए संतुलन लाने के लिए अभिकर्ताओं द्वारा आवश्यक मंज़ूरी या समर्थन के स्तर की पहचान करने के लिए गतिशील नियामक क्षमताओं को विकसित करने के महत्व को दोहराता है. इसके साथ-साथ, जोख़िम-आधारित विनियमन में नुकसान की संभावना और गंभीरता का मूल्यांकन शामिल है. इस ढांचे का उद्देश्य जोख़िम और नवाचार के उत्तरदायी प्रबंधन की दिशा में काम करना है. यह मौजूदा परिदृश्य में परिवर्तनों को ध्यान में रखते हुए संस्थागत अखंडता को विकसित करने और बनाए रखने में मदद करता है.
'मूविंग होराइज़न्स' विनियमन दृष्टिकोण में निम्नलिखित घटक शामिल हैं:
एक मामले के रूप में देखें तो, वैश्विक एआई संचालन और नियमन एक प्रणाली के रूप में AI की नैतिकता तक सीमित हो गए हैं; ये नैतिक सिद्धांत गैर-बाध्यकारी होने के कारण अंतर्राष्ट्रीय कानून की प्रणालियों को दरकिनार कर देते हैं.[liii] नतीजतन, ऐसे शक्तिहीन सिद्धांत या तो अर्थहीन हो जाते हैं क्योंकि वे तकनीकी वास्तविकताओं के विपरीत उद्देश्यों पर काम करते हैं (उदाहरण के लिए, प्रतिनिधि डाटासेट सुनिश्चित करते हुए गोपनीयता को संरक्षित करने का द्वंद्व), संकीर्ण क्षेत्रीय फोकस के साथ अलग-थलग रह जाते हैं, या उनके गैर-बाध्यकारी स्वभाव के कारण परिणामों का अभाव होता है. मानक नैतिक नुस्खों को तकनीकी संहिताकरण में बदलना चुनौतियां पेश करता है. उदाहरण के लिए, मई 2024 में यूरोप की परिषद द्वारा अपनाई गई एआई पर संधि - अपनी तरह की पहली कानूनी रूप से बाध्यकारी संधि - में मानक सिद्धांतों के पालन से परे दायित्वों के परिसीमन के लिए स्पष्ट विनिर्देशों का अभाव है.[liv] यह संधि देनदारियों और ज़िम्मेदारियों को लेकर सवालों पर स्पष्ट रूप से बात नहीं करती है, जो एआई प्रणालियों से उत्पन्न होने वाले नुकसान के निवारण के लिए महत्वपूर्ण हैं.[lv]
अपनी ओर से, संयुक्त राष्ट्र महासभा ने इस वर्ष की शुरुआत में AI पर एक प्रस्ताव पारित किया,[lvi] लेकिन अंतरराष्ट्रीय कानून में आवश्यक परिवर्तनों पर चर्चा के किसी तरह के तरीके का प्रस्ताव करने से चूक गई. यह विशेष रूप से एआई प्रणालियों की अंतरराष्ट्रीय प्रकृति, डाटा के रूप में अंग्रेजी भाषा की प्रधानता, जिस पर एआई प्रणाली प्रशिक्षित होती हैं, और राष्ट्रीय AI दक्षताओं में वैश्विक असमानताओं के साथ-साथ एआई विकास के जीवन चक्र के भीतर कम प्रतिनिधित्व को देखते हुए महत्वपूर्ण है.
उत्तरदायी और जोख़िम-आधारित रेगुलेशन के लिए 'मूविंग होराइज़न्स' का ढांचा
जैसा कि इस रिपोर्ट के पिछले खंडों में चर्चा की गई है, AI विकास के विनियमन को कई परस्पर संबंधित वास्तविकताओं से जूझना पड़ता है. इसके लिए व्यवस्थागत स्थितियों के प्रबंधन की आवश्यकता होती है जो बाज़ार की एकाग्रता, संसाधनों के असमान वितरण या डाटासेट और डेवलपर समुदाय में कम प्रतिनिधित्व के रूप में व्यवस्था में व्याप्त हैं. व्यवस्थागत स्थितियां कई स्रोतों से उत्पन्न होती हैं, पारिस्थितिकी तंत्र के भीतर विभिन्न अभिकर्ताओं को प्रभावित करती हैं और तेज़ी से फैलती हैं, जिसके परिणामस्वरूप डोमिनो प्रभाव पैदा होता है.[lvii] यह एआई प्रणालियों के भीतर व्यापक नुकसान की प्रकृति पर प्रकाश डालता है, जिसके परिणामस्वरूप उभरते जोख़िमों के सटीक स्रोत को निर्धारित करना मुश्किल हो जाता है क्योंकि वे एल्गोरिदम, मॉडल और खुद-सीखने-वाली एआई प्रणालियों में उलझ जाते हैं. इसकी डिज़ाइन प्रक्रिया के भीतर की स्थितियां ही यह तय करती हैं कि AI मॉडल को कैसे और किस आधार पर प्रशिक्षित किया जाता है जो जोख़िमों के गतिशील उत्थान को जन्म देता है क्योंकि एल्गोरिदम उपयोगकर्ताओं से अंतःक्रिया (इंटरैक्शन) के माध्यम से सीखना जारी रखता है. इनमें AI मतिभ्रम, और पक्षपाती, भेदभावपूर्ण या विषाक्त आउटपुट शामिल हैं.
यद्यपि यूरोपीय संघ AI अधिनियम एक जोख़िम वर्गीकरण तंत्र का उपयोग करता है लेकिन व्यवहार में जोख़िम प्रबंधन ध्यान दिए जाने और हस्तक्षेप का विषय बन जाता है.[lviii] इसके अलावा, जोख़िम-आधारित नियामक दृष्टिकोण, कार्यान्वित किए जाने के दौरान, अधिकार क्षेत्रों में जोख़िम सहने के विभिन्न स्तरों से प्रभावित होते हैं और मूल्यांकन के लिए मानक सिद्धांतों की विभिन्न व्याख्याओं द्वारा आकार लेते हैं.[lix] हालांकि, तकनीकी और एआई प्रणालियां बाकी जोख़िमों को तब भी रोक सकती हैं जब महत्वपूर्ण परिचालन नियंत्रण लागू किए जा रहे हों.[lx] यह हितधारक, क्षेत्रीय, सामाजिक और सरकारी विकल्पों के साथ व्यवस्थागत स्थितियों और उभरते जोख़िमों के अभिसरण या (कन्वर्जेंस) और प्रतिच्छेदन या (इंटरसेक्शन या एक-दूसरे को काटकर गुज़रने वाले रास्ते) को समझने और प्रतिक्रिया देने के लिए गतिशील संचालन क्षमताओं को पोषित करने की आवश्यकता पर प्रकाश डालता है. यह जोख़िम के न्यूनीकरण के साथ नवाचार को बढ़ावा देने की प्रतिस्पर्धी चिंताओं को संतुलित करने के लिए भी महत्वपूर्ण है, जिससे संसाधनों, स्थितियों और अभिकर्ताओं के रणनीतिक संरेखण (एलाइनमेंट) की आवश्यकता को बल मिलता है.
AI विकास सरकार, शिक्षा और उद्योग के ट्रिपल हेलिक्स यानी तिहरे सिस्टम के साथ हितधारकों के एक पारिस्थितिकी तंत्र के माध्यम से आगे बढ़ता है.[lxi] इसके अलावा, व्यवस्थागत स्थितियां और उभरते जोख़िम नागरिक-केंद्रित दृष्टिकोण के महत्व को उजागर करते हैं. यह सुनिश्चित करने में मदद कर सकता है कि विनियमन एक उत्तरदायी और समझ-बूझ वाले तरीके से आगे बढ़ सकता है क्योंकि राज्य व्यवस्थागत स्थितियों का ध्यान रखने के लिए कदम उठाते हुए एआई नवाचार से उभरती चुनौतियों से निपटने के लिए गतिशील क्षमताओं का विकास करते हैं.
'मूविंग होराइज़न्स' विनियामक ढांचा उत्तरदायी विनियमन के समर्थन और प्रतिबंधों के पिरामिड से प्रेरणा लेता है – यानी कि AI प्रणाली की ताकत और संभावित क्षमता का विस्तार करने के लिए काम करते हुए प्रतिकूल परिणामों पर ध्यान देना.[lxii] नवाचार और जोख़िम के प्रबंधन का ख़्याल रखते हुए, यह नवाचार को अनुकूलित करने और जोख़िमों को कम करने के लिए संतुलन लाने के लिए अभिकर्ताओं द्वारा आवश्यक मंज़ूरी या समर्थन के स्तर की पहचान करने के लिए गतिशील नियामक क्षमताओं को विकसित करने के महत्व को दोहराता है.[lxiii] इसके साथ-साथ, जोख़िम-आधारित विनियमन में नुकसान की संभावना और गंभीरता का मूल्यांकन शामिल है. इस ढांचे का उद्देश्य जोख़िम और नवाचार के उत्तरदायी प्रबंधन की दिशा में काम करना है. यह मौजूदा परिदृश्य में परिवर्तनों को ध्यान में रखते हुए संस्थागत अखंडता को विकसित करने और बनाए रखने में मदद करता है.[lxiv]
'मूविंग होराइज़न्स' विनियमन दृष्टिकोण में निम्नलिखित घटक शामिल हैं:
गतिशील शासन क्षमताएं और रणनीतिक संरेखण: नीति निर्माताओं और नियामकों को AI नवाचार के जवाब में क्षमताओं को समझने, योजना बनाने और फिर से व्यवस्थित करने के लिए गतिशील क्षमताओं (डायनेमिक कैपेबिलिटीज़) का इस्तेमाल करने की स्थिति में होना चाहिए. इसमें ध्यान दिए जाने वाले समस्या क्षेत्र और प्रभाव की अपेक्षित घटना की पहचान करना और नियामक दायरे की रूपरेखा तैयार करना शामिल होगा. यह सुनिश्चित करेगा कि यह सही हितधारकों की पहचान करता है और उभरती हुई AI समस्याओं के जवाब की कल्पना करने और इसे वर्तमान नियामक मांगों और सामाजिक और आर्थिक चिंताओं के साथ संरेखित करने में उपयुक्त सरकारी विभाग को जुटाता है.
जोख़िम, प्रभाव और ज़िम्मेदारियों का पता लगाना: संभावना का गतिशील चित्रण फिर जोख़िमों, गंभीरता, कारणों और प्रभावों को मापने और वर्गीकरण की प्रक्रिया के माध्यम से आगे बढ़ेगा. इससे पारिस्थितिकी तंत्र में शामिल हितधारकों को देनदारियों और ज़िम्मेदारियों की पहचान करने, उन्हें बांटने और उन्हें सौंपने में मदद मिलेगी.
अनुपालन और सहायता के ढांचे का विकास करना: एक बार जोख़िम और ज़िम्मेदारियों की पहचान हो जाने के बाद, व्यवसायों को जोख़िम कम करने और नुकसान को कम करने के अपने प्रयासों को प्रदर्शित करने में मदद करने के लिए ढांचे और मानकों को विकसित करने की आवश्यकता है. इसमें सरकारों, व्यवसायों, उपयोगकर्ताओं और शिक्षाविदों के बीच बहु-हितधारक सहमति के माध्यम से प्रक्रियात्मक मार्गदर्शन, अनुपालन ढांचे और रिपोर्टिंग के लिए मानक और बेंचमार्क विकसित करना शामिल होगा. हालांकि, हितधारकों की प्रतिक्रिया और तकनीकी क्षमताओं के विकास के आधार पर मानकों और बेंचमार्क को बार-बार संशोधित करने की आवश्यकता होगी.
प्रसार तंत्र से जुड़ी बढ़ोत्तरी के तरीकों और प्रक्रियाओं की पहचान करना: बड़ी कंपनियों की पारदेशीय शक्ति और AI उत्पादन और विकास के लिए संसाधनों के वितरण में वैश्विक असमानताएं प्रसार तंत्र से जुड़ी बढ़ोत्तरी (नेटवर्क्ड एस्केलेशन) के महत्व को उजागर करती हैं.[lxv] हितधारकों को संकेत देकर कि बढ़ोत्तरी को लागू करने की संचालन क्षमता से सामर्थ्य की कमी को दूर करने के लिए अधिक सहकारी व्यवहार जन्म लेता है. जोख़िम वर्गीकरण और गंभीरता के आधार पर, यह स्व-नियमन से शुरू हो सकता है, और अगर स्व-नियमन विफल हो जाता है तो उद्योग और पेशेवर निकायों जैसे गैर-राज्य नियामकों में इसका प्रसार हो सकता है, इसके बाद इस मुद्दे से जुड़े स्थापित नियामक और सरकारी निकायों से जुड़ा जा सकता है और अंत में बंद करने या समाप्त करने की ओर बढ़ सकता है. इसके लिए एआई में तकनीकी विशेषज्ञता के साथ पारंपरिक नियामक विशेषज्ञता दोनों को शामिल करते हुए संस्थागत क्षमता विकसित करने की आवश्यकता है.
AI विकास सरकार, शिक्षा और उद्योग के ट्रिपल हेलिक्स यानी तिहरे सिस्टम के साथ हितधारकों के एक पारिस्थितिकी तंत्र के माध्यम से आगे बढ़ता है. इसके अलावा, व्यवस्थागत स्थितियां और उभरते जोख़िम नागरिक-केंद्रित दृष्टिकोण के महत्व को उजागर करते हैं.
निष्कर्ष: प्रतिक्रियाशील सांजस्य की ओर...
चूंकि देश और संस्थान उन प्रमुख सिद्धांतों पर एकमत हैं, जिन्हें एआई के विकास और उपयोग को नियंत्रित करना चाहिए, आर्थिक सहयोग और विकास संगठन (ओईसीडी) और यूरोपीय संघ के सिद्धांतों की प्रतिध्वनि कई देशों के स्थिति पत्रों में हो रही है.[lxvi] हालांकि, AI का विकास चूंकि सभी देशों में एक समान नहीं है, इसलिए वैश्विक उत्तर (ग्लोबल नॉर्थ) और वैश्विक दक्षिण (ग्लोबल साउथ) के बीच एक एआई विनियामक विभाजन है. इसके परिणामस्वरूप, विकसित विश्व संस्थानों के विनियामक संकेतों पर अत्यधिक निर्भरता है जो सभी समाजों के लिए प्रासंगिक नहीं हो सकती है. यह बहुपक्षीय पहलों और रणनीतियों की आवश्यकता को उजागर करता है कि वह वैश्विक मानकों, सिद्धांतों और रूपरेखाओं के अनुरूप राष्ट्रीय एआई दक्षताओं के लिए संप्रभु अनिवार्यताओं को आगे बढ़ाएं.
बात की शुरुआत करें तो... विकसित दुनिया का ध्यान या तो एआई नवाचार पर है - जैसे अमेरिका और चीन में - या फिर यूरोपीय संघ की तरह विनियमन पर. इस बीच, वैश्विक दक्षिण के देशों जैसे ब्राज़ील, अर्जेंटीना और भारत में, एआई रणनीतियां मामूली बजट के बावजूद बहु-क्षेत्रीय नवाचार को आगे ले जाने के लिए राष्ट्रीय दक्षताओं का निर्माण करने का प्रयास कर रही हैं. उदाहरण के लिए, भारत की राष्ट्रीय AI रणनीति का उद्देश्य ज़िम्मेदार एआई पारिस्थितिकी तंत्र का निर्माण करना है जो नवाचार को बढ़ावा दे और सुरक्षा और विश्वसनीयता, गैर-भेदभाव, गोपनीयता और सुरक्षा और पारदर्शिता के माध्यम से ज़िम्मेदार विकास को आगे बढ़ाए.[lxvii] हालांकि, वैश्विक स्तर पर उच्च-स्तरीय नैतिक सिद्धांतों और क्षेत्रीय और राष्ट्रीय स्तर पर राष्ट्रीय दक्षताओं को विकसित करने पर ध्यान केंद्रित करने के बीच असंबद्धता को देखते हुए, संप्रभु उद्देश्यों और अंतर्राष्ट्रीय मानकों के रूप में सामंजस्यपूर्ण और उत्तरदायी विनियमन स्थायी एआई संचालन की कुंजी बन जाता है.
संक्षेप में, 'मूविंग होराइज़न्स' विनियमन एक विश्लेषणात्मक और कुशल दृष्टिकोण है जो व्यवस्थागत स्थितियों और उभरते जोख़िमों दोनों के अभिसरण को प्रबंधित करने की आवश्यकता को पहचानते हुए एआई के उत्तरदायी और जोख़िम-आधारित विनियमन को प्रस्थान बिंदु के रूप में लेता है. हालांकि, सफल होने के लिए, इसमें निम्नलिखित विचारों को शामिल करने की आवश्यकता है:
परिणामों का विनियमन : गैर-डिजिटल दुनिया में, वाहन दुर्घटनाओं जैसे जोख़िमों के विनियमन में शारीरिक और विनियामक दोनों तरह के उपाय शामिल हैं, जिसमें स्पीड ब्रेकर लगाना, गति सीमा लागू करना और दिन के कुछ समय के दौरान भारी माल वाहनों पर प्रतिबंध लगाना शामिल है. AI विकास और उसे लागू करने में, व्यवस्थागत स्थितियों और उभरते जोख़िमों के प्रबंधन ने परिणामों को नियंत्रित करने की मानवीय प्रवृत्ति पर सवाल उठाया है. ऐसा इसलिए है क्योंकि एआई विनियमन को नवाचार के लिए उत्प्रेरक और जोख़िम के लिए निवारक दोनों के रूप में कार्य करने की आवश्यकता है. यह एआई संचालन के भीतर जोख़िमों की बहुआयामी प्रकृति के अभिसरण को विकसित करने, नवाचार करने और प्रबंधित करने के लिए ज़िम्मेदारी और दायित्व की भूमिका को मज़बूत करता है. यह विनियमन के एक ऐसे तरीके का प्रस्ताव करता है जिसमें ज़िम्मेदार नवाचार के लिए नियम-निर्माण को एक सैद्धांतिक दृष्टिकोण द्वारा शिक्षित और निर्देशित किया जाता है, न कि मानक आदर्शों को नियम-निर्माण का परित्याग करने दिया जाता है. यह विशेष रूप से महत्वपूर्ण बन जाता है क्योंकि विकासशील देश एआई विकास के लिए संसाधनों के मामले में वैश्विक असमानताओं से जूझ रहे हैं जबकि कई क्षेत्रों में बढ़ते अनुप्रयोगों से नागरिकों को होने वाले नुकसान के जोख़िमों से बचाने की कोशिश कर रहे हैं. यह प्रक्रियात्मक ढांचे और सुरक्षा मूल्यांकन के मानकों को स्थापित करने की आवश्यकता पर प्रकाश डालता है.
संक्षेप में, 'मूविंग होराइज़न्स' विनियमन एक विश्लेषणात्मक और कुशल दृष्टिकोण है जो व्यवस्थागत स्थितियों और उभरते जोख़िमों दोनों के अभिसरण को प्रबंधित करने की आवश्यकता को पहचानते हुए एआई के उत्तरदायी और जोख़िम-आधारित विनियमन को प्रस्थान बिंदु के रूप में लेता है.
महामारी प्रतिमान : महामारी के दौरान, कोविड-19 के ख़िलाफ़ समय-संवेगनशील (टाइम-क्रिटिकल) और जीवन रक्षक टीके तीन-चरण की परीक्षण प्रक्रिया से गुज़रे. इसमें नियंत्रित वातावरण में नवाचार का परीक्षण करने के लिए सैंडबॉक्स थे, इसके बाद जनसंख्या के पैमाने पर परीक्षण (पॉपुलेशन स्केल टेस्टिंग) किया गया और उसके बाद ही वाणिज्यिक उत्पादन की ओर बढ़ा गया. ऐसा तब भी अनपेक्षित और प्रतिकूल परिणामों को रोकने के लिए किया गया था जब जानें दांव पर लगी हुई थीं. तीन-स्तरीय 'नवाचार से बाज़ार तक' तकनीक अवशोषण ढांचा सुरक्षा और गुणवत्ता नियंत्रण के लिए एक ख़ाका प्रदान करती है और सुरक्षा और बचाव की कीमत पर लाभ कोअधिकतम करने वाले नवाचार के लिए प्रक्रियात्मक रेलिंग या स्पीड-ब्रेकर स्थापित करने में मदद करती है.[lxviii] उदाहरण के लिए इसमें ये शामिल किया जा सकता है कि स्थानीय और किसी प्रकरण के अनुप्रयोगों में मूलभूत AI मॉडल आयात करने के परिणामों को उजागर करना और यह देखना कि इसके शीर्ष पर एल्गोरिदम की परतें स्थानीय आबादी के लिए इसके प्रभाव की प्रकृति को कैसे निर्धारित करती हैं.
एल्गोरिदमिक जवाबदेही: प्रक्रियात्मक सुरक्षा तभी प्रभावी हो सकती है जब मूल्यांकन के उपयुक्त ढांचे उसके पूरक हों. इसके लिए जवाबदेही और पारदर्शिता की प्रणाली स्थापित करने के लिए मानकों, बेंचमार्क और ऑडिट तंत्र की स्थापना की आवश्यकता होती है जो व्यवस्था को परिचालन रूप से सुरक्षित घोषित करने के लिए आवश्यक हो जाते हैं. इसके लिए दस्तावेज़ीकरण और पता लगाने की क्षमता की आवश्यकता होती है, जैसे कि वार्षिक या आवधिक मूल्यांकन के दौरान वित्तीय ऑडिट के मामले में एआई से नुकसान के मामलों के बढ़ने का पता लगाने, प्रबंधित करने और कम करने के लिए. हालांकि कई तकनीकी और मूल्यांकन संबंधी एल्गोरिदमिक ऑडिटिंग तरीके मौजूद हैं लेकिन उपयुक्त अनुपालन प्रथाओं को स्थापित करने के लिए इन्हें मानकीकृत करने की सख़्त ज़रूरत है.
सार्वभौमिक मानकों और रूपरेखाओं की कमी दुनिया भर में एआई संचालन में विसंगतियों के पीछे एक महत्वपूर्ण चुनौती बनी हुई है. यह अंतरराष्ट्रीय स्तर पर स्वीकार्य और सामंजस्यपूर्ण मानकों पर पहुंचने के लिए एक स्तर पर बहुपक्षीय सहयोग को बढ़ावा देने के महत्व को उजागर करती है. साथ ही, यह देश की सरकारों को अपने अधिकार क्षेत्र में वर्तमान में चल रहे एआई-संचालित परिवर्तनों का दोहन और प्रबंधन करने के लिए संस्थागत क्षमताओं और रूपरेखाओं का निर्माण करने के लिए विनियामक तंत्र के मूल्यांकन और विकास करने को आवश्यक बनाता है. 'मूविंग होराइज़न्स' दृष्टिकोण उन देशों के लिए एक नमूना (टेम्पलेट) प्रदान करता है जो AI प्रणालियों के गतिशील और उभरते जोख़िमों के कारण संभावित नुकसान को कम करते हुए सकारात्मक प्रभाव के लिए एआई की क्षमता का दोहन करना चाहते हैं.
Endnote
[i] Jane Wakefield, “Microsoft Chatbot is Taught to Swear on Twitter,” BBC, March 24, 2016, https://www.bbc.com/news/technology-35890188; Alex Hearn, “Microsoft Scrambles to Limit PR Damage over Abusive AI Bot Tay,” The Guardian, March 24, 2016, https://www.theguardian.com/technology/2016/mar/24/microsoft-scrambles-limit-pr-damage-over-abusive-ai-bot-tay
[ii] PwC, Sizing the prize: PwC’s Global Artificial Intelligence Study: Exploiting the AI Revolution, PwC Global, 2017, https://www.pwc.com/gx/en/issues/data-and-analytics/publications/artificial-intelligence-study.html.
[iii] OpenAI, “Creating Video from Text,” OpenAI, https://openai.com/index/sora/
[iv] Fabian Lütz, “Gender Equality and Artificial Intelligence in Europe. Addressing Direct and Indirect Impacts of Algorithms on Gender-Based Discrimination,” ERA Forum 23, (2022), https://link.springer.com/article/10.1007/s12027-022-00709-6#Fn35
[v] François Candelon, Rodolphe Charme di Carlo, Midas De Bondt, and Theodoros Evgeniou, “AI Regulation is Coming,” Harvard Business Review, September – October, 2021, https://hbr.org/2021/09/ai-regulation-is-coming
[vi] Ardra Manasi, Subadra Panchanadeswaran, Emily Sours, and Seung Ju Lee, “Mirroring the Bias: Gender and Artificial Intelligence,” Gender and Technology in Development 26, no. 1 (2022), 1-11; Paula Halls and Debbie Ellis, “A systematic review of socio-technical gender bias in AI algorithms,” Online Information Review 47, no. 7 (2023).
[vii] Joy Buolamwini and Timnit Gebru, "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification" (paper presented at Proceedings of Machine Learning Research Conference on Fairness, Accountability, and Transparency, 2018)
[viii] Thadeus Johnson and Natasha Johnson, “Police Facial Recognition Technology Can’t Tell Black People Apart,” Scientific American, May 18, 2023, https://www.scientificamerican.com/article/police-facial-recognition-technology-cant-tell-black-people-apart/
[ix] Ayanna Howard, “Real Talk: Intersectionality and AI,” MIT Sloan Management Review, August 24, 2021, https://sloanreview.mit.edu/article/real-talk-intersectionality-and-ai/; Wei Guo and Aylin Caliskan, “Detecting Emergent Intersectional Biases: Contextualized Word Embeddings Contain a Distribution of Human-like Biases” (paper presented at 2021 AAAI/ACM Conference on AI, Ethics, and Society, New York, USA, 2021); Tolga Bolukbasi, Kai-Wei Chang, James Zou, Venkatesh Saligrama, and Adam Kalai, “Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings” (part of Advances in Neural Information Processing Systems 29, 2016). https://proceedings.neurips.cc/paper_files/paper/2016/hash/a486cd07e4ac3d270571622f4f316ec5-Abstract.html
[x] Miranda Bogen, “All the Ways Hiring Algorithms Can Introduce Bias,” Harvard Business Review, May 06, 2019, https://hbr.org/2019/05/all-the-ways-hiring-algorithms-can-introduce-bias; Charlotte Lytton, “AI Hiring Tools May be Filtering Out the Best Job Applicants,” BBC, February 18, 2024, https://www.bbc.com/worklife/article/20240214-ai-recruiting-hiring-software-bias-discrimination; Khari Johnson, “Feds Warn Employers Against Discriminatory Hiring Algorithms,” Wired, May 16, 2022, https://www.wired.com/story/ai-hiring-bias-doj-eecc-guidance/https://www.wired.com/story/ai-hiring-bias-doj-eecc-guidance/
[xi] “Incident 92: Apple Card's Credit Assessment Algorithm Allegedly Discriminated against Women,” AI Incident Database, November 11, 2019, https://incidentdatabase.ai/cite/92#6048603491dfd7f7ac0470be
[xii] Valentine Goddard, Eleonore Fournier-Tombs, Mercy Atieno Odongo, Jane Ezirigwe, Daniela Chimisso dos Santos, Sarah Moritz, Blair Attard-Frost, and Millicent Ochieng’, “Gender Equality and the Environment in Digital Economies” (policy brief prepared for United Nations’ 8th Multi-stakeholder Forum on Science, Technology and Innovation for the Sustainable Development Goals, New York, May 2023); Mark West, Rebecca Kraut, and Han Ei Chew, I'd Blush if I Could: Closing Gender Divides in Digital Skills through Education, UNESCO and EQUALS Skill Coalition, 2019, https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1
[xiii] Amba Kak and Sarah Myers West, Eds., AI Nationalism(s): Global Industrial Policy Approaches to AI, AI Now Institute, 2024, pp. 8-9, https://ainowinstitute.org/wp-content/uploads/2024/03/AI-Nationalisms-Global-Industrial-Policy-Approaches-to-AI-March-2024.pdf
[xiv] Rajiv Sharma and Ninad Mittal, “Artificial Intelligence Lacks Personhood To Become The Author Of An Intellectual Property,” LiveLaw.in, September 22, 2023, https://www.livelaw.in/law-firms/law-firm-articles-/artificial-intelligence-intellectual-property-indian-copyright-act-singhania-co-llp-238401
[xv] Aparajita Lath, “AI Art and Indian Copyright Registration,” SpicyIP, October 10, 2022, https://spicyip.com/2022/10/ai-art-and-indian-copyright-registration.html
[xvi] Lath, “AI Art and Indian Copyright Registration”
[xvii] Sukanya Sarkar, “Exclusive: Indian Copyright Office Issues Withdrawal Notice to AI Co-Author,” ManagingIP, December 13, 2021, https://www.managingip.com/article/2a5d0jj2zjo7fajsjwwlc/exclusive-indian-copyright-office-issues-withdrawal-notice-to-ai-co-author
[xviii] Miriam Buiten, Alexandre de Streel, Martin Peitz, “The Law and Economics of AI Liability,” Computer Law & Security Review 48, no. 105794 (2023), https://www.sciencedirect.com/science/article/pii/S0267364923000055
[xix] Dane Bottomley and Donrich Thaldar, “Liability for Harm Caused by AI in Healthcare: An Overview of the Core Legal Concepts,” Frontier in Pharmacology 14, (2023), https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10755877/
[xx] Mireille Hildebrandt, Law for Computer Scientists and Other Folk (Oxford University Press, 2020), Chapter 9,https://lawforcomputerscientists.pubpub.org/pub/4swyxhx5/release/5
[xxi] Joy Buolamwini, “Unmasking the Bias in Facial Recognition Algorithms,” MIT Sloan, December 13, 2023, https://mitsloan.mit.edu/ideas-made-to-matter/unmasking-bias-facial-recognition-algorithms
[xxii] Carmen Niethammer, “AI Bias Could Put Women’s Lives At Risk - A Challenge For Regulators,” Forbes, May 02, 2020, https://www.forbes.com/sites/carmenniethammer/2020/03/02/ai-bias-could-put-womens-lives-at-riska-challenge-for-regulators/?sh=61df083e534f
[xxiii] Michael G. Jacobides, Stefano Brusoni, and Francois Candelon, “The Evolutionary Dynamic of the Artificial Intelligence Ecosystem,” Strategy Science 6, no. 4 (2021): 412-435, https://doi.org/10.1287/stsc.2021.0148.
[xxiv] Luis Luna-Reyes et al., “Exploring the Relationships between Dynamic capabilities and IT governance: Implications for local governments,” Transforming Government: People, Process and Policy 14, No. 2 (2020), https://www.emerald.com/insight/content/doi/10.1108/TG-09-2019-0092/full/html
[xxv] Charles Jones and Christopher Tonetti, “Non-Rivalry and Economics of Data,” American Economic Review 110, no. 5 (2020): 2819-58, https://www.aeaweb.org/articles?id=10.1257/aer.20191330.
[xxvi] Saffron Huang and Divya Siddharth, “Generative AI and the Digital Commons,” The Collective Intelligence Project, Working Paper, 2024, https://cip.org/research/generative-ai-digital-commons
[xxvii] Jacobides, Brusoni and Candelon, “The Evolutionary Dynamic of the Artificial Intelligence Ecosystem”
[xxviii] Alan Chan, Herbie Bradley, Nitarshan Rajkumar, “Reclaiming the Digital Commons: A Public Data Trust for Training Data” (paper presented at 2023 AAAI/ACM Conference on AI, Ethics, and Society, New York, USA, 2023).
[xxix] Jacobides, Brusoni, and Candelon, “The Evolutionary Dynamic of the Artificial Intelligence Ecosystem”
[xxx] Dario Maisto, “Data Sovereignty Battles Continue To Dominate The European Public Cloud Market,” Forrester, November 18, 2022, https://www.forrester.com/blogs/data-sovereignty-battles-continue-to-dominate-the-european-public-cloud-market/; Anirban Ghoshal, “Microsoft in Talks over Cloud Licensing Complaint in the EU,” CIO, Februrary 08, 2024, https://www.cio.com/article/1306613/microsoft-in-talks-over-cloud-licensing-complaint-in-the-eu.html
[xxxi] Ayanna Howard, “Real Talk: Intersectionality and AI”
[xxxii] Mary Clare Jalonick and Matt O’Brien, “Tech Industry Leaders Endorse Regulating Artificial Intelligence at Rare Summit in Washington,” The Associated Press, September 14, 2023, https://apnews.com/article/schumer-artificial-intelligence-elon-musk-senate-efcfb1067d68ad2f595db7e92167943c
[xxxiii] Samir Saran, Flavia Alves, Vera Songwe, “Technology: Taming – and Unleashing – Technology Together,” Observer Research Foundation, January 16, 2024, https://www.orfonline.org/research/technology-taming-and-unleashing-technology-together
[xxxiv] Mohamed Elbashir, “EU AI Act sets the stage for global AI governance: Implications for US companies and policymakers,” Atlantic Council, April 22, 2024, https://www.atlanticcouncil.org/blogs/geotech-cues/eu-ai-act-sets-the-stage-for-global-ai-governance-implications-for-us-companies-and-policymakers/
[xxxv] “In an AI-Driven Digital Economy, How can Developing Countries Keep Up?” UNCTAD, December 08, 2023, https://unctad.org/news/ai-driven-digital-economy-how-can-developing-countries-keep
[xxxvi] Jesse Klempner, Christian Rodriguez, and Dale Swartz, A Rising Wave of Tech Disruptors: The Future of Defense Innovation?, McKinsey, 2024, https://www.mckinsey.com/industries/aerospace-and-defense/our-insights/a-rising-wave-of-tech-disruptors-the-future-of-defense-innovation#/; Shweta Surender, “Defense Industry Outlook: Emerging Defense Opportunities in 2024,” Markets and markets, February 08, 2024, https://www.marketsandmarkets.com/blog/AD/Defense-Industry-Outlook
[xxxvii] “A Rising Wave of Tech Disruptors: The Future of Defense Innovation?”
[xxxviii] Sarwant Singh, “Why The Defense Industry Outlook Is So Strong,” Forbes, March 11, 2024, https://www.forbes.com/sites/sarwantsingh/2024/03/11/why-the-defense-industry-outlook-is-so-strong/?sh=60a3bc87a7a1
[xxxix] Singh, “Why The Defense Industry Outlook Is So Strong”
[xl] Singh, “Why The Defense Industry Outlook Is So Strong”
[xli] Singh, “Why The Defense Industry Outlook Is So Strong”
[xlii] Sigal Samuel, “Alexa, are you making me sexist?,” Vox, June 12, 2019, https://www.vox.com/future-perfect/2019/6/12/18660353/siri-alexa-sexism-voice-assistants-un-study
[xliii] Samuel, “Alexa, are you making me sexist?”
[xliv] Bedbible Research Centre, “Sex Robot Industry [New 2024 Data],” Bedbible.com, May 01, 2024, https://bedbible.com/sex-robot-industry-market-size-technology-ai-user-sentiment-statistics/
[xlv] Chantal Cox-George and Susan Bewley, “I, Sex Robot: the health implications of the sex robot industry,” BMJ Sexual & Reproductive Health 44, no. 3 (2018)
[xlvi] Pallab Ghosh, “Sex robots may cause psychological damage,” BBC, February 15, 2020, https://www.bbc.com/news/science-environment-51330261
[xlvii] Jacobides, Brusoni, and Candelon, “The Evolutionary Dynamic of the Artificial Intelligence Ecosystem”
[xlviii] Barbara van Schewick, Internet Architecture and Innovation (MIT Press, 2010).
[xlix] Jacobides, Brusoni, and Candelon, “The Evolutionary Dynamic of the Artificial Intelligence Ecosystem”
[l] Jeremy Kahn, “AI Will Change the World. But that Doesn’t Mean Investors Will Get Rich in the Process,” Fortune, April 23, 2024, https://fortune.com/2024/04/23/ai-foundation-models-llms-money-loser-for-investors-airlines-air-street/
[li] Jacobides, Brusoni, and Candelon, “The Evolutionary Dynamic of the Artificial Intelligence Ecosystem”
[lii] K V Kurmanath, Google Will not Claim Ownership of AI-Generated Content,” The Hindu BusinessLine, April 22, 2024, https://www.thehindubusinessline.com/info-tech/google-will-not-claim-ownership-of-ai-generated-content/article68091327.ece
[liii] Anais Rességuier and Rowena Rodrigues, “AI Ethics Should not Remain Toothless! A Call to Bring Back the Teeth of Ethics,” Big Data & Society 7, no. 2 (2020); Karen Hao, “In 2020, Let’s Stop AI Ethics-Washing and Actually do Something,” MIT Technology Review, December 27, 2019, https://www.technologyreview.com/2019/12/27/57/ai-ethics-washing-time-to-act/; Brent Mittelstadt, “Principles Alone Cannot Guarantee Ethical AI,” Natural Machine Learning 1 (2019).
[liv] Anulekha Nandi, “The first international AI treaty: Progress with caveats,” Observer Research Foundation, May 22, 2024, https://www.orfonline.org/expert-speak/the-first-international-ai-treaty-progress-with-caveats
[lv] Nandi, “The first international AI treaty: Progress with caveats”
[lvi] United Nations, General Assembly Adopts Landmark Resolution on Artificial Intelligence, United Nations News, 2024, https://news.un.org/en/story/2024/03/1147831
[lvii] Jessica Carlo, Kalle Lyytinen, and Richard Boland, “Systemic Risk, IT Artifacts, and High Reliability Organizations: A Case of Constructing a Radical Architecture,” Sprouts Working Papers on Information Systems 4, no. 4 (2004).
[lviii] Kalle Lyytinen, Lars Mathiassen, and Janne Ropponen, “Attention Shaping and Software Risk: A Categorical Analysis of Four Classical Risk Management Approach,” Information Systems Research 9, no. 3 (1998); Key Issues: Risk Based Approach,” EU AI Act, 2024, https://www.euaiact.com/key-issue/3
[lix] Julia Black and Robert Baldwin, “Really Responsive Risk-Based Regulation,” Law & Policy 32, no. 2 (2010), https://onlinelibrary.wiley.com/doi/10.1111/j.1467-9930.2010.00318.x
[lx] Anne Rouse, “The Governance Implications When it is Outsourced,” in Information Technology Governance and Service Management: Frameworks and Adaptations, ed. Aileen Cater-Steel (New York: Information Science Reference, 2009), 285-296.
[lxi] OECD, "Technology governance and the innovation process," in OECD Science, Technology and Innovation Outlook 2018: Adapting to Technological and Societal Disruption (Paris: OECD Publishing, 2018), https://doi.org/10.1787/sti_in_outlook-2018-15-en.
[lxii] John Braithwaite, “The Essence of Responsive Regulation” (Fasken Lecture, University of British Columbia, September 21, 2010).
[lxiii] Dynamic regulatory capabilities is drawn from the notion of dynamic capabilities by David Teece, “Technological Innovation and the Theory of the Firm: The Role of Enterprise-Level Knowledge, Complementarities, and (Dynamic) Capabilities,” in Handbook of Economics of Innovation Vol. 1, ed. Bronwyn Hall and Nathan Rosenberg (North Holland, 2010).
[lxiv] Philip Selznick, The Moral Commonwealth: Social Theory and the Promise of Community (Berkeley, CA: University of California Press, 1992).
[lxv] John Braithwaite, “Responsive Regulation and Developing Economies,” World Development 34, no. 5 (2006): 884-896.
[lxvi] “Forty-two countries adopt new OECD Principles on Artificial Intelligence”, OECD, May 22, 2019, https://www.oecd.org/science/forty-two-countries-adopt-new-oecd-principles-on-artificial-intelligence.htm
[lxvii] NITI Aayog, National Strategy for Artificial Intelligence, 2018, https://www.niti.gov.in/sites/default/files/2023-03/National-Strategy-for-Artificial-Intelligence.pdf; NITI Aayog, Responsible AI: Approach document for India, 2021, https://www.niti.gov.in/sites/default/files/2021-02/Responsible-AI-22022021.pdf; NITI Aayog, Responsible AI: Adopting the Framework – A Use Case Approach on Facial Recognition Technology, 2022, https://www.niti.gov.in/sites/default/files/2022-11/Ai_for_All_2022_02112022_0.pdf
[lxviii] Saran, Alves and Songwe, “Technology: Taming – and Unleashing – Technology Together”
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.