भूमिका
23 नवंबर 2023 को ऑब्ज़र्वर रिसर्च फाउंडेशन ने अपने टेक मंथन (हडल)a इवेंट सीरीज़ के तहत पहले गोलमेज़ (राउंडटेबल) की मेज़बानी की. इस जमावड़े का विषय था “भारत में AI शासन: आकांक्षाएं और आशंकाएं”. इस आयोजन में आर्टिफिशियल इंटेलिजेंस (AI) के इर्द-गिर्द उभरते अवसरों और चुनौतियों, शासन-प्रशासन की संबंधित रूपरेखाओं, और भारत में AI इकोसिस्टम में मज़बूती लाने पर ध्यान केंद्रित किया गया. इस मंथन में कारोबार और उद्योग, थिंक टैंक और शिक्षा जगत से 25 प्रतिनिधियों ने हिस्सा लिया.
दुनिया फ़िलहाल “AI में बहार” वाले दौर से गुज़र रही है.[i] AI, एल्गोरिदम और तकनीकों के विकास में बड़े क़दमों के साथ-साथ कंप्यूटिंग शक्ति और तमाम क्षेत्रों में उपलब्ध डेटा की मात्रा में ज़बरदस्त बढ़ोतरी, भारी उन्नति का वाहक बन रही है. आज क़रीब 77 प्रतिशत डिजिटल उपकरण आर्टिफिशियल इंटेलिजेंस का उपयोग करते हैं.[ii] अकेले 2023 में ही AI स्टार्टअप में निवेश में भारी उछाल आया है, और जेनेरेटिव AI में दिलचस्पी में उल्लेखनीय बढ़ोतरी हुई है.[iii] 36.62 प्रतिशत के सालाना चक्रवृद्धि विकास दर (CAGR) से वैश्विक AI बाज़ार के 2025 तक 191 अरब अमेरिकी डॉलर का स्तर छू लेने की उम्मीद है. इसके अतिरिक्त AI द्वारा विश्व के सकल घरेलू उत्पाद (GDP) में 15.7 खरब अमेरिकी डॉलर जोड़े जाने की आशा है, जिससे इसमें 14 प्रतिशत की बढ़ोतरी हो जाएगी.[iv]
AI की तेज़ प्रगति के बावजूद इसके शासन-प्रशासन और विनियमन से जुड़ी क़वायद अब भी बेहद शुरुआती दौर में हैं. इस अंतर को लेकर चिंताएं बढ़ती जा रही हैं. दुनिया भर में AI की प्रशासनिक रूपरेखाएं अनेक चुनौतियों से निपटने की कोशिशों में लगी हैं. इनमें व्याख्यात्मक (एक्सप्लेनेबिलिटी) मानकों का व्यवस्थित रूप से उभार और इन प्रणालियों में भरोसा और विश्वास बढ़ाने के लिए AI प्रणालियों की कार्यविधि पर प्रकाश डालना शामिल है. एल्गोरिदम प्रणालियों में समाहित अनुचित पूर्वाग्रहों के नतीजतन सेवाओं तक पहुंच या सामाजिक एकजुटता में नुक़सानदेह परिणाम सामने आ सकते हैं. इसके अतिरिक्त, AI की संरक्षा और सुरक्षा को मज़बूत किया जाना चाहिए. मानव-AI गठजोड़ पर भी रणनीतिक बिंदुओं पर, अन्यथा स्वचालित प्रणालियों के भीतर मानवीय एजेंटों को शामिल किए जाने के दृष्टिकोण से विचार किए जाने की ज़रूरत है. आख़िरकार, AI तैयार करने वाले संगठनों और व्यक्तियों के दायित्व और जवाबदेही को बेहतर तरीक़े से समझे जाने की आवश्यकता है.[v]
इनमें से कुछ मसलों की पहचान करते हुए भारत की अध्यक्षता के दौरान G20 “AI के लाभ को अधिकतम करने और इसके उपयोग से जुड़े जोख़िमों को मद्देनज़र रखने के लिए नवाचार-समर्थक विनियामक/प्रशासनिक दृष्टिकोण को आगे बढ़ाने” पर सहमत हुआ.[vi] AI प्रशासन के बारे में चिंताओं ने अक्टूबर 2023 में संयुक्त राष्ट्र (UN) को एक AI सलाहकारी निकाय की स्थापना के लिए प्रेरित किया.[vii] दिसंबर 2023 में भारत की मेज़बानी में संपन्न AI पर वैश्विक भागीदारी (GPAI) सम्मेलन में भी ये मसला केंद्र में रहा.
नीति आयोग की “AI के लिए राष्ट्रीय रणनीति” (2018) एक आधारभूत दस्तावेज़ था, और इसकी कुछ सिफ़ारिशें पहले से ही क्रियान्वयन की प्रक्रिया में हैं. नीति आयोग ने ज़िम्मेदार और नैतिकतापूर्ण AI इकोसिस्टम तैयार करने में एक रोडमैप का भी विकास किया है.
वैसे तो भारत में समग्र राष्ट्रीय AI प्रशासकीय तंत्र का विकास किया जाना बाक़ी है, लेकिन इस कड़ी में कई पहल और दिशानिर्देश स्थापित किए जा चुके हैं. नीति आयोग की “AI के लिए राष्ट्रीय रणनीति” (2018) एक आधारभूत दस्तावेज़ था, और इसकी कुछ सिफ़ारिशें पहले से ही क्रियान्वयन की प्रक्रिया में हैं.[viii] नीति आयोग ने ज़िम्मेदार और नैतिकतापूर्ण AI इकोसिस्टम तैयार करने में एक रोडमैप का भी विकास किया है.[ix] इंडिया डेटासेट्स प्लेटफॉर्म AI मॉडल्स के प्रशिक्षण को सुगम बनाने के लिए सार्वजनिक और निजी गुप्त डेटासेट्स के एक विशाल भंडार को पहुंच प्रदान करने का लक्ष्य रखता है.[x] 10 अगस्त 2023 को माइक्रोसॉफ्ट की गवर्निंग AI: ए ब्लूप्रिंट फॉर इंडिया में आर्टिफिशियल इंटेलिजेंस के सार्वजनिक प्रशासन के लिए पांच-सूत्री दृष्टिकोण को रेखांकित किया गया.[xi]
AI की विशेषता का वर्णन
AI की परिकल्पना 1950 के दशक तक जाती है. मशीनों द्वारा सूचना और तर्क के उपयोग से इंसानों की तरह समस्याओं के समाधान करने की संभावना से जुड़ी एलेन ट्यूरिंगb की जिज्ञासाओं ने उनके पेपर “कंप्यूटिंग मशीनरी एंड इंटेलिजेंस” (1950) का आधार तैयार किया. इसमें इस बात की पड़ताल की गई कि चतुर मशीनों का निर्माण और उनकी बुद्धिमत्ता का परीक्षण कैसे होता है. आगे चलकर 1956 में आर्टिफिशियल इंटेलिजेंस पर डार्टमाउथ समर रिसर्च प्रोजेक्ट (DSRPAI) में लॉजिक थियोरिस्ट नामक विचार का प्रमाण पेश किया गया, इसे व्यापक रूप से पहले AI कार्यक्रम के तौर पर माना जाता है.[xii]
1990 के दशक में AI के उपसमूह के तौर पर मशीन लर्निंग (ML) के विकास ने मशीनों को डेटा की विशाल मात्रा के उपयोग और रुझानों की टोह लगाकर बिना मानवीय हस्तक्षेप के स्वतंत्र रूप से सीखने की सुविधा दे दी. डीप लर्निंग, जिसने 2012 के बाद काफी लोकप्रियता हासिल कर ली है, मशीन लर्निंग का उपसमूह है और तंत्रिका (न्यूरल) नेटवर्कों के विचार पर आधारित है, जो “सूचना प्रॉसेसिंग के स्तरों का उपयोग करके, जिसमें से हरेक चरणबद्ध तरीक़े से डेटा के ज़्यादा पेचीदा प्रतिनिधित्व को सीखता चला जाता है”.[xiii]
जेनेरिटव AI गहरे लर्निंग मॉडल्स हैं जो उच्च-गुणवत्ता वाले टेक्स्ट, चित्र और उनके ट्रेनिंग डेटा के आधार पर अन्य प्रकार की सामग्री का निर्माण कर सकते हैं. इसने आर्टिफिशियल इंटेलिजेंस का लोकतांत्रिकरण किया है और इसे हरेक इंसान की पहुंच में ला दिया है. साथ ही AI के साथ लगभग ‘पारस्परिक’ तरीक़े से संवाद की प्रक्रिया शुरू कर दी है. जेनेरेटिव AI तक़रीबन हर क्षेत्र में विस्तार-योग्य है और ख़ासतौर से छोटे और मध्यम उद्यमों (SMEs) के लिए अनमोल हो सकते हैं. हालांकि, जेनेरेटिव AI के व्याकुल करने वाले वैधानिक और सामाजिक निहितार्थ हो सकते हैं, जो बौद्धिक संपदा की संरक्षा और डेटा सुरक्षा के साथ-साथ कुछ निश्चित समूहों और समुदायों के ख़िलाफ़ सामाजिक पूर्वाग्रहों की रोकथाम से जुड़े सवाल भी खड़े करते हैं. ये जोख़िम, AI के ठोस प्रशासकीय तंत्रों और AI विनियमन की स्थापना की अहमियत को रेखांकित करते हैं. G7, G20 और आर्थिक सहयोग और विकास संगठन (OECD) जैसे बहुपक्षीय निकायों और अंतरराष्ट्रीय समूहों और नवंबर 2023 में ब्लेटच्ले पार्क में आयोजित AI सुरक्षा शिखर सम्मेलन द्वारा जारी हालिया बयानों और घोषणाओं में AI के सहयोगपूर्ण विकास पर ज़ोर दिया गया है. इसके साथ ही “मानव अधिकारों की रक्षा, पारदर्शिता और व्याख्यात्मकता, निष्पक्षता, जवाबदेही, विनियमन, संरक्षा, पर्याप्त मानवीय निगरानी, नैतिकता, पूर्वाग्रह की रोकथाम, निजता और डेटा संरक्षण पर ध्यान देने” का भी आग्रह किया गया है.[xiv]
AI के उन हिस्सों की पहचान महत्वपूर्ण है जिनका विनियमन किए जाने की आवश्यकता है. क्या पूरे के पूरे AI को विनियमित किया जाना चाहिए या इसे उपयोग के मामलों के हिसाब से विभाजित किया जाना चाहिए और क्षेत्रवार विनियमनों के ज़रिए उनकी निगरानी की जानी चाहिए- ये ऐसे अतिरिक्त प्रश्न हैं जिनका समाधान आवश्यक है. एक अतिरिक्त दृष्टिकोण जोख़िमों को श्रेणीबद्ध करने और उनके लिए विनियमन तैयार करने का हो सकता है. AI टेक स्टैक की पड़ताल करने और उसके विभिन्न स्तरों के विनियमन के तरीक़े पर विचार करने की भी आवश्यकता है. मिसाल के तौर पर, एक ओर विशाल भाषा मॉडल के विनियमित होने पर स्टैक आधार के तौर पर काम करने वाला डेटा इंफ्रास्ट्रक्चर अपेक्षाकृत खुला रह सकता है. अग्रणी हिस्से (जिसमें ऐप्लिकेशन प्रोग्रामिंग इंटरफेसेज़ (APIs), उच्च-जोख़िम, मध्यम-जोख़िम और निम्न-जोख़िम वाले हालात शामिल होते हैं) को परिभाषित किए जाने और उनके हिसाब से विनियामक उपाय अपनाए जाने की आवश्यकता है. चूंकि उच्च-जोख़िम हालातों में मानवीय हस्तक्षेप की शुरुआत कई बार जोख़िमों को शांत कर सकती है, लिहाज़ा नए क़ानून आवश्यक नहीं हैं. हालांकि, AI के इर्द-गिर्द दृष्टिकोणों और मानकों के अत्यधिक अनुकूलीकरण के चलते विशिष्ट संदर्भों के पर्याप्त रूप से नहीं पहचाने जाने का परिणाम सामने आ सकता है. इसलिए, AI पूर्वाग्रह जैसे मसलों को भारत और ग्लोबल साउथ (अल्प-विकसित और विकासशील दुनिया) के अन्य देशों के मामले में संदर्भित किए जाने की आवश्यकता है.
किसी ना किसी तरीक़े से लाइसेंसिंग व्यवस्थाओं से मिलती-जुलती विनियामक व्यवस्था मूल्यवान हो सकती है. मिसाल के तौर पर, इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय क्लाउड सेवा प्रदाताओं के लिए एक एम्पैनलमेंट प्रक्रिया का पालन करता है, जो शुरुआत में उनके लिए एक आधार-स्तरीय मानक परिभाषित करता है. डेटा बुनियादों की मेज़बानी के लिए ऐसी ही पूर्व-परिभाषित परत या मानक उपयोगी हो सकते हैं. उदाहरण के तौर पर, ‘KY3C’-नो योर कस्टमर, कंटेंट और क्लाउड- की कठोर रूपरेखा AI द्वारा पेश जोख़िमों में से कुछ की रोकथाम कर सकती है. इसके अतिरिक्त, AI उत्पाद के प्रति सुरक्षा कवच और जोख़िम-आधारित दृष्टिकोण की ज़रूरत है, जिसमें ‘को-पायलट’ की आवश्यकता भी जुड़ी हो सकती है- यानी एक ऐसा व्यक्ति जो किसी AI प्रणाली के उत्पाद की सटीकता और उसके मायने की जांच कर सके.
AI का संचालन
AI के विनियमन पर भारत का रुख़ कई बार डगमगाता नज़र आया है,[xv] लेकिन ये स्पष्ट विनियामक दृष्टिकोण और AI शासन तंत्र स्थापित करने की दिशा में स्थिर रूप से कार्य कर रहा है. ख़ासतौर से तब जब भारत ने AI से संबंधित अंतरराष्ट्रीय सहयोग में ज़्यादा प्रमुख भूमिका धारण कर ली है.[xvi]
AI से सक्षम किए गए नुक़सान और सुरक्षा ख़तरे AI स्टैक के सभी तीन स्तरों पर मौजूद होते हैं: हार्डवेयर के स्तर पर AI प्रणालियों के भौतिक बुनियादी ढांचे में कमज़ोरियां हैं. आधारभूत मॉडल स्तर पर, अनुपयुक्त डेटासेट्स के उपयोग, डेटा पॉयज़निंग और डेटा संग्रहण, भंडारण और सहमति से जुड़े मसलों के इर्द-गिर्द चिंताएं व्याप्त हैं. अनुप्रयोग स्तर पर, संवेदनशील और गोपनीय सूचना के सामने ख़तरे मौजूद हैं. साथ ही साथ, शैतानी किरदारों के बीच क्षमता-बढ़ाने वाले उपकरणों के प्रसार का जोख़िम भी है. यही वजह है कि भले ही टेक स्टैक का प्रशासन एक प्राथमिकता है, पर AI समाधान विकसित कर रहे संगठनों का प्रशासन या टेक्नोलॉजी के पीछे के लोग भी उत्पादक हो सकते हैं.
भले ही लोकतांत्रिकरण ने AI को ज़्यादा सुलभ बना दिया है, पर AI के परिचालन में ज़िम्मेदारी निर्दिष्ट करना या जवाबदेही को परिभाषित करना ज़्यादा कठिन हो गया है.
भले ही लोकतांत्रिकरण ने AI को ज़्यादा सुलभ बना दिया है, पर AI के परिचालन में ज़िम्मेदारी निर्दिष्ट करना या जवाबदेही को परिभाषित करना ज़्यादा कठिन हो गया है. अभी इस बात पर बहस जारी है कि AI के नतीजतन होने वाले नुक़सानों के लिए कौन ज़िम्मेदार है,[xvii] लेकिन ये साफ़ है कि इस कड़ी में अनेक किरदारों वाले दृष्टिकोण की ज़रूरत है. इसमें डेवलपर, तैनात करने वाले (डिप्लॉयर), और उपयोगकर्ता के स्तरों पर सुरक्षा कवच तैयार करने की आवश्यकता शामिल है. इस बात की पहचान करना भी ज़रूरी है कि एक तकनीक के तौर पर AI का स्वभाव और उपयोग, परमाणु ऊर्जा या बिजली का इस्तेमाल किए जाने की क़वायद से अलग है, जिनमें अनुमान लगाने की क्षमता से जुड़े तत्व समाहित होते हैं, जो बचाव की छूट देते हैं. दूसरी ओर, AI, ख़ासतौर से अब भी विकास की प्रक्रिया से गुज़र रहे आर्टिफिशियल जनरल इंटेलिजेंस (AGI) के उभरते मॉडल अप्रत्याशित हैं.[xviii]
AI की विकास प्रक्रिया में उपयोगकर्ताओं और विनियामकों, दोनों की ओर से भरोसे को प्राथमिकता दिए जाने की दरकार है. विश्वास खड़ा करने के दो अहम तरीक़े हैं प्रकटीकरण और पता लगाने के तंत्र. डेवलपर्स और डिप्लॉयर्स दोनों के लिए प्रकटीकरण दिशानिर्देश आर्टिफिशियल इंटेलिजेंस में पारदर्शिता हासिल करने की ओर अहम क़दम होंगे. प्रकटीकरण में एल्गोरिदम्स के उद्देश्य, उपयोग किए गए ट्रेनिंग डेटा, और संभावित पूर्वाग्रहों और जोख़िमों के बारे में सूचना शामिल होनी चाहिए. जेनेरेटिव AI मॉडलों के साथ-साथ सुराग लगाने का तंत्र भी जुड़ा होना चाहिए. हालांकि, पता लगाने के मौजूदा तंत्र सामग्री के मूल-स्रोत की पहचान करने में पर्याप्त नहीं हो सकते हैं, ऐसे में AI-निर्मित सामग्री की वाटरमार्किंग करने जैसे वैकल्पिक उपायों को मुख्यधारा में लाए जाने की आवश्यकता है. बहुमुखी अनुप्रयोगों और उन्नत क्षमताओं से लैस (ट्रेनिंग डेटा के आकार और मानदंडों की संख्या के चलते) दोहरे इस्तेमाल वाले आधारभूत मॉडलों पर प्रकटीकरण और पता लगाने के ऊंचे मानदंड प्रयोग किए जाने चाहिए.
जैसे-जैसे AI का उभार होगा, इसको शासित करने वाले सिद्धांत तैयार करते समय विविधतापूर्ण परिप्रेक्ष्यों को शामिल करने की क़वायद सुनिश्चित करना अहम हो जाएगा. इसके अलावा, इन सिद्धांतों को राज्य और क्षेत्रवार स्तरों पर सुसंगत बनाए जाने की दरकार है. राज्य-स्तरीय सम्मिलन की ज़रूरत प्राथमिकता बन गई है, और भारत के तमाम राज्यों ने सार्वजनिक सेवा वितरण में सुधार लाने के लिए AI पहलों को शामिल करना शुरू कर दिया है. उदाहरण के तौर पर, महाराष्ट्र ने एक AI चैटबॉट लॉन्च किया है जो 1400 सार्वजनिक सेवाओं के बारे में सूचना मुहैया कराता है;[xix] तेलंगाना अंतिम उपयोगकर्ता तक मेडिकल आपूर्तियों[xx] को पहुंचाने और शहरी मानचित्रण[xxi] के लिए ड्रोन का इस्तेमाल करता है; और तमिलनाडु कीट नियंत्रण के लिए AI-आधारित ऐप का इस्तेमाल करता है.[xxii] अखिल-भारतीय स्तर पर एकजुटता और समरूपता सुनिश्चित करने के लिए AI के इन विविध अनुप्रयोगों को मानकों और सिद्धांतों के एक सुसंगत समूह का पालन करने की ज़रूरत है.
क्षेत्रवार स्तर पर, क्षेत्र- और मॉडल-विशिष्ट दिशानिर्देशों के इर्द-गिर्द काफ़ी गतिविधि है. भारतीय चिकित्सा अनुसंधान परिषद (ICMR) ने स्वास्थ्य क्षेत्र में नैतिकतापूर्ण AI के लिए दिशानिर्देश जारी किए हैं[xxiii], और नेशनल एसोसिएशन ऑफ सॉफ्टवेयर एंड सर्विस कंपनीज़ (NASSCOM) ने ज़िम्मेदार जेनेरेटिव AI के लिए दिशानिर्देश प्रकाशित किए हैं.[xxiv] ये दिशानिर्देश आने वाले वर्षों में AI के विकास को आकार देंगे. साथ ही ये सुनिश्चित करने के लिए हर संभव प्रयास किए जाने चाहिए कि इन दिशानिर्देशों के अंतर्निहित सिद्धांत राष्ट्रीय प्राथमिकताओं से सुसंगत हों.
AI विनियमन और मानकों के विकास के लिए नए क़ानूनों का निर्माण आवश्यक नहीं है. इसकी बजाए, AI विनियमन में मौजूदा अंतरालों को पाटने के नज़रिए से डिजिटल निजी डेटा संरक्षण अधिनियम, सूचना प्रौद्योगिकी अधिनियम और आपराधिक प्रक्रिया संहिता जैसे मौजूदा क़ानूनों के प्रावधानों की पड़ताल की जा सकती है.
उनके अनुप्रयोग को सीमित करने की क़वायदों से परहेज़ के लिए AI के बचावकारी उपायों के क्रियान्वयन को भी किफ़ायती बनाए जाने की दरकार है. मिसाल के तौर पर, जटिल क्रियान्वयन प्रक्रियाएं (ख़ासतौर से ज़मीनी स्तरों पर) प्रभावी डेटा संग्रहण में रुकावटें खड़ी कर सकती हैं. क्रियान्वयन एजेंसियों (जैसे ज़रूरत से कम कोष वाले स्वास्थ्य केंद्र) की परिचालनात्मक वास्तविकताओं का लेखा-जोखा तैयार करते वक्त बचावकारी उपाय स्थापित किए जाने चाहिए. उनकी प्रभावकारिता को पंगु बनाने से परहेज़ करने या बाज़ार से छोटे खिलाड़ियों को निकाल बाहर करने से बचने के लिए ये क़वायद ज़रूरी है. ये दृष्टिकोण ज़्यादा प्रतिनिधित्वकारी डेटासेट्स के निर्माण की सुविधा देगा और AI नवाचार में परिप्रेक्ष्यों की विविधता के समावेश को प्रोत्साहित करेगा.
AI इकोसिस्टम में मज़बूती लाना
भारत के AI इकोसिस्टम को मज़बूत करने के लिए इसके पांच स्तंभों में दृढ़ता लाना आवश्यक है:
· शिक्षा जगत: भारतीय विश्वविद्यालय नवाचार के केंद्र होने के साथ-साथ टेक कंपनियों के लिए प्रतिभा के अग्रणी स्रोत हैं. विश्वविद्यालयों को अपने पाठ्यक्रम में AI को शामिल करने, इस क्षेत्र में शिक्षण और सीखने को बढ़ावा देने और AI वेंचरों को व्यवस्थित रूप से प्रोत्साहित करने और उनका पोषण करने की आवश्यकता है. इतना ही नहीं, इन प्रयासों का राष्ट्रीय लक्ष्यों के साथ तालमेल सुनिश्चित किया जाना भी ज़रूरी है.
· स्टार्टअप्स: स्टार्टअप्स अक्सर फंडिंग के साथ-साथ तकनीक और मानवीय क्षमता से संबंधित चुनौतियों का सामना करते हैं. नतीजतन, ये नए मॉडल तैयार करने की बजाए मौजूदा AI मॉडलों के उपयोग को पसंद करते हैं. लिहाज़ा, भारतीय स्टार्टअप को घरेलू AI अनुप्रयोगों के विकास के लिए प्रोत्साहित किए जाने की दरकार है.
· नीति-निर्माता और सरकारी संस्थान: AI के प्रशासन से संबंधित क़ानून तैयार करने के हिसाब से बेहतरीन और अनुकूल क़ानून तैयार करने को लेकर नीति-निर्माताओं और विनियामक संस्थानों की पहचान किए जाने की आवश्यकता है. साथ ही उनके बीच AI साक्षरता और जागरूकता की ऊंची दर सुनिश्चित करने की दरकार है. इस क्षेत्र की तेज़ी से उभरती प्रकृति के चलते नियामकों की नियुक्ति के स्थापित उदाहरण शायद सफल नहीं होंगे. इसकी बजाए, नियमन तैयार करने और उनके प्रबंधन के लिए फुर्तीली मानसिकता के साथ बहु-क्रियाशील टीम की ज़रूरत है.
· बहुराष्ट्रीय निगम: टेक क्षेत्र की बहुराष्ट्रीय कंपनियां और निजी खिलाड़ी, भारत में AI के प्राथमिक निवेशक हैं. लिहाज़ा, ये देश में AI के नियामक परिदृश्य के प्रमुख स्टेकहोल्डर्स हैं, और उनके विचारों और परिप्रेक्ष्यों को नीति-निर्माण प्रक्रियाओं में एकीकृत किया जाना चाहिए.
· सार्वजनिक-निजी भागीदारियां (PPPs): AI प्रशासन को समर्थन देने के लिए PPPs की ज़्यादा नज़दीक से पड़ताल की जा सकती है. PPPs के तहत सरकारों, निजी क्षेत्र और नागरिक समाज संगठनों (CSOs) के बीच गठजोड़, उद्योग में स्व-नियमन उपायों को क्रियान्वित करने, आर्टिफिशियल इंटेलिजेंस सलाहकारी बोर्डों के गठन, और AI नीतियों की सह-संरचना के साथ-साथ सार्वजनिक क्षेत्र में AI को अपनाने की क़वायद में मज़बूती लाने में मदद कर सकते हैं.[xxv] प्रशिक्षण डेटा की सहभागिताएं भी भारत के लिए अहम होंगी क्योंकि AI एल्गोरिदम्स अक्सर निर्णय कर्ता होते हैं, और AI पूर्वाग्रह, एल्गोरिदम्स में डाले गए प्रशिक्षण डेटासेट्स की क्रिया होते हैं.[xxvi]
आर्टिफिशियल इंटेलिजेंस का एक मज़बूत इकोसिस्टम खड़ा करने का एक और अहम पहलू है नए विनियमनों के तहत भावी डेवलपर्स के लिए उपलब्ध कराई गई सुरक्षा में बढ़ोतरी, ख़ासतौर से उन डेवलपर्स के लिए जिनके पास पर्याप्त वित्तीय समर्थन का अभाव हो. बड़े AI मॉडलों और प्लेटफॉर्मों के पास बड़ी टीम होती है, लेकिन ऐतिहासिक रूप से नवाचार छोटे समूहों से सामने आता रहा है. लिहाज़ा, आर्टिफिशियल इंटेलिजेंस के विनियमनों को छोटे यूज़ केसों पर कम तवज्जो देते हुए मुख्य रूप से उन बड़े समूहों के प्रति चिंतित रहना चाहिए जो व्यापक क्षति का सबब बनने के लिए बड़े आकार और पैमाने से लैस हैं.
भारत को उपयुक्त AI क़ानून तैयार करने के लिए आवश्यक समय लेना चाहिए, मौजूदा राष्ट्रीय तकनीकी नीतियों से सबक़ लेते हुए और तमाम अंतरराष्ट्रीय पहलों से प्रासंगिक विशेषताओं को समेटते हुए इस क़वायद को अंजाम दिया जाना चाहिए. प्रमुख अंतरराष्ट्रीय पहलों में OECD AI सिद्धांत,[xxvii] EU AI अधिनियम,[xxviii] और G7 दिशानिर्देशक सिद्धांत[xxix] प्रमुख हैं. ये क़वायद ये भी सुनिश्चित करेगी कि भारत का AI इकोसिस्टम कठोर विनियमनों के चलते होने वाली संभावित गतिहीनता की बजाए स्वच्छंद रूप से उभरता रहे. वहीं दूसरी ओर, कुछ विशेषज्ञों का मानना है कि AI जैसी तेज़ी से उभरती टेक्नोलॉजी से जुड़े विनियमनों में निरंतर संशोधनों या परिवर्तनों की ज़रूरत पड़ेगी, और इसलिए, इन क़ानूनों में लचीलेपन पर ज़ोर होना चाहिए. ये मोबाइल फ़ोनों से जुड़े मामलों की याद दिलाता है, जिसके चलते ऑपरेटरों, नीति निर्माताओं और विनियामकों के बीच व्यापक टकराव सामने आया था और टेक्नोलॉजी के परिपक्व अवस्था तक पहुंचने के बाद ही इस संघर्ष का समाधान हो सका था.
भारत के पास अपने AI इकोसिस्टम का निर्माण करने और उसका पोषण करने का अनोखा अवसर है. वो नए-नए और अनोखे नीतिगत दृष्टिकोण विकसित करके या अन्य विनियामक ढांचों से तत्वों को अपनाकर या उनके हिसाब से ख़ुद को ढालकर इस क़वायद को अंजाम दे सकता है.
निष्कर्ष और सिफ़ारिशें
भारत के पास अपने AI इकोसिस्टम का निर्माण करने और उसका पोषण करने का अनोखा अवसर है. वो नए-नए और अनोखे नीतिगत दृष्टिकोण विकसित करके या अन्य विनियामक ढांचों से तत्वों को अपनाकर या उनके हिसाब से ख़ुद को ढालकर इस क़वायद को अंजाम दे सकता है. भले ही भारत अल्प-कालिक या दीर्घ-कालिक दृष्टिकोण अपनाए, पर तमाम क्षेत्रों में AI के बढ़ते उपयोग से देश के डिजिटल परिदृश्य का कायापलट होना तय है.
गोलमेज़ (राउंडटेबल) परिचर्चा के आधार पर निम्नलिखित अपस्ट्रीम (नीतिगत स्तर पर) और डाउनस्ट्रीम (प्रोग्रामिंग स्तर पर) कार्रवाइयों की सिफ़ारिश की जाती है:
· जैसे-जैसे जेनेरेटिव AI का इस्तेमाल बढ़ता जा रहा है, उपयोगकर्ताओं और अन्य तकनीकी और ग़ैर-तकनीकी स्टेकहोल्डर्स को इसकी क्षमताओं और ख़तरों के बारे में शिक्षित किए जाने की ज़रूरत है. सरकार, मीडिया, निजी क्षेत्र, और सिविल सोसाइटी द्वारा संचालित जागरूकता अभियान इस संदर्भ में ज़बरदस्त योगदान दे सकते हैं.
· ये निर्धारित करना आवश्यक है कि AI टेक स्टैक के किन हिस्सों को विनियमित करना ज़रूरी है और क्या क्षेत्रवार और जोख़िम-आधारित दृष्टिकोणों को अपनाया जाना चाहिए. जहां उपयुक्त हो, AI प्रणालियों को अकेले स्वचालन पर निर्भर रहने की बजाए जांच और संतुलन में मज़बूती लाने के उद्देश्य से मानवीय हस्तक्षेपों को स्थान देना चाहिए.
· AI टेक्नोलॉजी और सेवा प्रदाताओं की लाइसेंसिंग के लिए एक नोडल एजेंसी का प्रस्ताव किया जाता है. सभी AI डेवलपर्स को लाइसेंसधारी प्रदाताओं से मिलने वाली सेवाओं का इस्तेमाल करना चाहिए. स्थापित मानदंडों और प्रॉसेसिंग प्रामाणिकताओं (जैसे सर्टिफिकेशन और एक्रिडेशंस) का पालन करने से विश्वास का वातावरण बनाने में मदद मिल सकती है, जो संभावित नुक़सानों के ख़िलाफ़ बफर का काम कर सकता है और इससे सुरक्षित समाधानों के कुछ आश्वासन भी मिल सकते हैं.
· चूंकि कुछ मौजूदा भारतीय क़ानून AI से संबंधित कुछ विशिष्ट नुक़सानों (जैसे डीपफेक्स और डेटा घुसपैठ) का समाधान कर सकते हैं, लिहाज़ा नए क़ानूनों के निर्माण की शायद ज़रूरत ही ना पड़े. इसकी बजाए, मौजूदा वैधानिक प्रणाली में अंतरों को पाटने और जुर्मानों की ओर चरणबद्ध दृष्टिकोण के साथ सूक्ष्म विनियमन को क्रियान्वित करने पर ध्यान दिया जाना चाहिए.
· भारत के AI इकोसिस्टम का पालन-पोषण और उसको आगे बढ़ाना नीतिगत और प्रोग्राम संबंधी क़वायदों के प्राथमिक उद्देश्यों में से एक होना चाहिए. सरकार, शिक्षा जगत, तकनीकी फर्म और नागरिक समाज संगठनों समेत तमाम स्टेकहोल्डर्स द्वारा मिलकर काम किए जाने की ज़रूरत है. ये भारत के लिए दुनिया भर में भावी विनियामक रूपरेखाओं का विश्लेषण करके अपने ख़ुद के क़ानूनों में उपयुक्त तत्वों को समाहित करने का एक सुनहरा अवसर भी है. हालांकि इस प्रक्रिया में ये सुनिश्चित करना ज़रूरी है कि ये पूरी क़वायद राष्ट्रीय हितों के अनुरूप हो.
· AI विनियमनों को उन टेक डेवलपर्स को कमज़ोर करने या बाधित करने की क़ीमत पर स्थापित नहीं किया जाना चाहिए जिनके पास पर्याप्त वित्तीय समर्थन का अभाव है. दरअसल यही डेवलपर्स नवाचार के एक प्रमुख स्रोत हैं और AI इकोसिस्टम के लिए पूंजी के समान हैं.
नोट: लेखक टेक हडल के आयोजन में मदद करने के लिए आब्ज़र्वर रिसर्च फाउंडेशन (ORF) की शिमोना मोहन के आभारी हैं
प्रांजल शर्मा, इकोनॉमिक एनालिस्ट और लेखक, द नेक्स्ट न्यू: नेविगेटिंग द फिफ्थ इंडस्ट्रियल रिवॉल्यूशन (हार्पर कोलिंस, 2023)
अनिर्बान सरमा, डिप्टी डायरेक्टर, ओआरएफ कोलकाता; सीनियर फेलो, ओआरएफ सेंटर फॉर न्यू इकोनॉमिक डिप्लोमेसी
अमोहा बसरूर, रिसर्च असिस्टेंट, ओआरएफ
प्रतीक त्रिपाठी, रिसर्च असिस्टेंट, ओआरएफ
a टेक हडल ओआरएफ़ की मेज़बानी में आयोजित तिमाही संवाद है जो टेक्नोलॉजी इकोसिस्टम में प्रमुख स्टेकहोल्डर्स के बीच विषयवार परिचर्चाओं के लिए समर्पित है. ये सत्र नाज़ुक और अहम मसलों के साथ-साथ वैश्विक और भारतीय तकनीकी परिदृश्य में उभरते रुझानों पर परिचर्चा के लिए विशेषज्ञों को एक छत के नीचे लाते हैं.
b एलेन ट्यूरिंग एक ब्रिटिश गणितज्ञ, तर्कशास्त्री और कंप्यूटर वैज्ञानिक थे, जिन्हें आधुनिक कंप्यूटर विज्ञान की नींव रखने के लिए जाना जाता है.
[iv] “Top Artificial Intelligence Stats You Should Know About in 2024”
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.