Special ReportsPublished on Jan 11, 2024
ballistic missiles,Defense,Doctrine,North Korea,Nuclear,PLA,SLBM,Submarines

भारत में AI गवर्नेंस: आकांक्षाएं और आशंकाएं

  • Anirban Sarma
  • Amoha Basrur
  • Prateek Tripathi

    ऑब्ज़र्वर रिसर्च फाउंडेशन का पहला टेक मंथन (हडल) 23 नवंबर 2023 को आयोजित किया गया और इसमें भारत में आर्टिफिशियल इंटेलिजेंस (AI) के शासन-प्रशासन पर विचार किया गया. इसमें AI के तेज़ रफ़्तार विकास और स्वीकार्यता के साथ-साथ इसके लिए विनियामक ढांचा विकसित करने से जुड़ी पेचीदगियों को रेखांकित किया गया. AI का शासन भारत और दुनिया भर में बेहद शुरुआती दौर में है और AI प्रणालियों की व्याख्यात्मकता (एक्सप्लेनेबिलिटी) के साथ-साथ इससे जुड़े पूर्वाग्रहों, संरक्षा, सुरक्षा और इन प्रणालियों की जवाबदेही जैसे मसलों से जूझ रहा है. सरकारों, उद्योग जगत, और सिविल सोसाइटी की ओर से AI के पहले से ज़्यादा विनियमन के आह्वान किए जा रहे हैं. ये रिपोर्ट AI इकोसिस्टम की विशिष्टताओं, शासन-प्रशासन और उसमें मज़बूती लाने की दिशा में भारत के अनुभवों और चुनौतियों की पड़ताल करती है; उपयुक्त बचावकारी व्यवस्था और मानवीय जुड़ाव के साथ AI के विकास में मल्टी-स्टेकहोल्डर दृष्टिकोण के महत्व पर ज़ोर देती है; और ज़िम्मेदार और नैतिकतापूर्ण AI नवाचार की आवश्यकता को भी रेखांकित करती है. 

Attribution:

प्रांजल शर्मा आदि, ‘भारत में AI गवर्नेंस: आकांक्षाएं और आशंकाएं’, दिसंबर 2023, ऑब्ज़र्वर रिसर्च फाउंडेशन.

भूमिका

23 नवंबर 2023 को ऑब्ज़र्वर रिसर्च फाउंडेशन ने अपने टेक मंथन (हडल)a इवेंट सीरीज़ के तहत पहले गोलमेज़ (राउंडटेबल) की मेज़बानी की. इस जमावड़े क विषय था भारत में AI शासन: आकांक्षाएं और आशंकाएं. इस आयोजन में आर्टिफिशियल इंटेलिजेंस (AI) के इर्द-गिर्द उभरते अवसरों और चुनौतियों, शासन-प्रशासन की संबंधित रूपरेखाओं, और भारत में AI इकोसिस्टम में मज़बूती लाने पर ध्यान केंद्रित किया गया. इस मंथन में कारोबार और उद्योग, थिंक टैंक और शिक्षा जगत से 25 प्रतिनिधियों ने हिस्सा लिया.  

दुनिया फ़िलहाल “AI में बहारवाले दौर से गुज़र रही है.[i] AI, एल्गोरिदम और तकनीकों के विकास में बड़े क़दमों के साथ-साथ कंप्यूटिंग शक्ति और तमाम क्षेत्रों में उपलब्ध डेटा की मात्रा में ज़बरदस्त बढ़ोतरी, भारी उन्नति का वाहक बन रही है. आज क़रीब 77 प्रतिशत डिजिटल उपकरण आर्टिफिशियल इंटेलिजेंस का उपयोग करते हैं.[ii] अकेले 2023 में ही AI स्टार्टअप में निवेश में भारी उछाल आया है, और जेनेरेटिव AI में दिलचस्पी में उल्लेखनीय बढ़ोतरी हुई है.[iii] 36.62 प्रतिशत के सालाना चक्रवृद्धि विकास दर (CAGR) से वैश्विक AI बाज़ार के 2025 तक 191 अरब अमेरिकी डॉलर का स्तर छू लेने की उम्मीद है. इसके अतिरिक्त AI द्वारा विश्व के सकल घरेलू उत्पाद (GDP) में 15.7 खरब अमेरिकी डॉलर जोड़े जाने की आशा है, जिससे इसमें 14 प्रतिशत की बढ़ोतरी हो जाएगी.[iv]

AI की तेज़ प्रगति के बावजूद इसके शासन-प्रशासन और विनियमन से जुड़ी क़वायद अब भी बेहद शुरुआती दौर में हैं. इस अंतर को लेकर चिंताएं बढ़ती जा रही हैं. दुनिया भर में AI की प्रशासनिक रूपरेखाएं अनेक चुनौतियों से निपटने की कोशिशों में लगी हैं. इनमें व्याख्यात्मक (एक्सप्लेनेबिलिटी) मानकों का व्यवस्थित रूप से उभार और इन प्रणालियों में भरोसा और विश्वास बढ़ाने के लिए AI प्रणालियों की कार्यविधि पर प्रकाश डालना शामिल है. एल्गोरिदम प्रणालियों में समाहित अनुचित पूर्वाग्रहों के नतीजतन सेवाओं तक पहुंच या सामाजिक एकजुटता में नुक़सानदेह परिणाम सामने आ सकते हैं. इसके अतिरिक्त, AI की संरक्षा और सुरक्षा को मज़बूत किया जाना चाहिए. मानव-AI गठजोड़ पर भी रणनीतिक बिंदुओं पर, अन्यथा स्वचालित प्रणालियों के भीतर मानवीय एजेंटों को शामिल किए जाने के दृष्टिकोण से विचार किए जाने की ज़रूरत है. आख़िरकार, AI तैयार करने वाले संगठनों और व्यक्तियों के दायित्व और जवाबदेही को बेहतर तरीक़े से समझे जाने की आवश्यकता है.[v]

इनमें से कुछ मसलों की पहचान करते हुए भारत की अध्यक्षता के दौरान G20 “AI के लाभ को अधिकतम करने और इसके उपयोग से जुड़े जोख़िमों को मद्देनज़र रखने के लिए नवाचार-समर्थक विनियामक/प्रशासनिक दृष्टिकोण को आगे बढ़ाने पर सहमत हुआ.[vi] AI प्रशासन के बारे में चिंताओं ने अक्टूबर 2023 में संयुक्त राष्ट्र (UN) को एक AI सलाहकारी निकाय की स्थापना के लिए प्रेरित किया.[vii] दिसंबर 2023 में भारत की मेज़बानी में संपन्न AI पर वैश्विक भागीदारी (GPAI) सम्मेलन में भी ये मसला केंद्र में रहा.    

नीति आयोग की “AI के लिए राष्ट्रीय रणनीति” (2018) एक आधारभूत दस्तावेज़ था, और इसकी कुछ सिफ़ारिशें पहले से ही क्रियान्वयन की प्रक्रिया में हैं. नीति आयोग ने ज़िम्मेदार और नैतिकतापूर्ण AI इकोसिस्टम तैयार करने में एक रोडमैप का भी विकास किया है.

वैसे तो भारत में समग्र राष्ट्रीय AI प्रशासकीय तंत्र का विकास किया जाना बाक़ी है, लेकिन इस कड़ी में कई पहल और दिशानिर्देश स्थापित किए जा चुके हैं. नीति आयोग की AI के लिए राष्ट्रीय रणनीति (2018) एक आधारभूत दस्तावेज़ था, और इसकी कुछ सिफ़ारिशें पहले से ही क्रियान्वयन की प्रक्रिया में हैं.[viii] नीति आयोग ने ज़िम्मेदार और नैतिकतापूर्ण AI इकोसिस्टम तैयार करने में एक रोडमैप का भी विकास किया है.[ix] इंडिया डेटासेट्स प्लेटफॉर्म AI मॉडल्स के प्रशिक्षण को सुगम बनाने के लिए सार्वजनिक और निजी गुप्त डेटासेट्स के एक विशाल भंडार को पहुंच प्रदान करने का लक्ष्य रखता है.[x] 10 अगस्त 2023 को माइक्रोसॉफ्ट की गवर्निंग AI: ए ब्लूप्रिंट फॉर इंडिया में आर्टिफिशियल इंटेलिजेंस के सार्वजनिक प्रशासन के लिए पांच-सूत्री दृष्टिकोण को रेखांकित किया गया.[xi]

AI की विशेषता का वर्णन

AI की परिकल्पना 1950 के दशक तक जाती है. मशीनों द्वारा सूचना और तर्क के उपयोग से इंसानों की तरह समस्याओं के समाधान करने की संभावना से जुड़ी एलेन ट्यूरिंगb की जिज्ञासाओं ने उनके पेपर कंप्यूटिंग मशीनरी एंड इंटेलिजेंस (1950) का आधार तैयार किया. इसमें इस बात की पड़ताल की गई कि चतुर मशीनों का निर्माण और उनकी बुद्धिमत्ता का परीक्षण कैसे होता है. आगे चलकर 1956 में आर्टिफिशियल इंटेलिजेंस पर डार्टमाउथ समर रिसर्च प्रोजेक्ट (DSRPAI) में लॉजिक थियोरिस्ट नामक विचार का प्रमाण पेश किया गया, इसे व्यापक रूप से पहले AI कार्यक्रम के तौर पर माना जाता है.[xii]

1990 के दशक में AI के उपसमूह के तौर पर मशीन लर्निंग (ML) के विकास ने मशीनों को डेटा की विशाल मात्रा के उपयोग और रुझानों की टोह लगाकर बिना मानवीय हस्तक्षेप के स्वतंत्र रूप से सीखने की सुविधा दे दी. डीप लर्निंग, जिसने 2012 के बाद काफी लोकप्रियता हासिल कर ली है, मशीन लर्निंग का उपसमूह है और तंत्रिका (न्यूरल) नेटवर्कों के विचार पर आधारित है, जो सूचना प्रॉसेसिंग के स्तरों का उपयोग करके, जिसमें से हरेक चरणबद्ध तरीक़े से डेटा के ज़्यादा पेचीदा प्रतिनिधित्व को सीखता चला जाता है.[xiii]

जेनेरिटव AI गहरे लर्निंग मॉडल्स हैं जो उच्च-गुणवत्ता वाले टेक्स्ट, चित्र और उनके ट्रेनिंग डेटा के आधार पर अन्य प्रकार की सामग्री का निर्माण कर सकते हैं. इसने आर्टिफिशियल इंटेलिजेंस का लोकतांत्रिकरण किया है और इसे हरेक इंसान की पहुंच में ला दिया है. साथ ही AI के साथ लगभग पारस्परिक तरीक़े से संवाद की प्रक्रिया शुरू कर दी है. जेनेरेटिव AI तक़रीबन हर क्षेत्र में विस्तार-योग्य है और ख़ासतौर से छोटे और मध्यम उद्यमों (SMEs) के लिए अनमोल हो सकते हैं. हालांकि, जेनेरेटिव AI के व्याकुल करने वाले वैधानिक और सामाजिक निहितार्थ हो सकते हैं, जो बौद्धिक संपदा की संरक्षा और डेटा सुरक्षा के साथ-साथ कुछ निश्चित समूहों और समुदायों के ख़िलाफ़ सामाजिक पूर्वाग्रहों की रोकथाम से जुड़े सवाल भी खड़े करत हैं. ये जोख़िम, AI के ठोस प्रशासकीय तंत्रों और AI विनियमन की स्थापना की अहमियत को रेखांकित करते हैं. G7, G20 और आर्थिक सहयोग और विकास संगठन (OECD) जैसे बहुपक्षीय निकायों और अंतरराष्ट्रीय समूहों और नवंबर 2023 में ब्लेटच्ले पार्क में आयोजित AI सुरक्षा शिखर सम्मेलन द्वारा जारी हालिया बयानों और घोषणाओं में AI के सहयोगपूर्ण विकास पर ज़ोर दिया गया है. इसके साथ ही मानव अधिकारों की रक्षा, पारदर्शिता और व्याख्यात्मकता, निष्पक्षता, जवाबदेही, विनियमन, संरक्षा, पर्याप्त मानवीय निगरानी, नैतिकता, पूर्वाग्रह की रोकथाम, निजता और डेटा संरक्षण पर ध्यान देने का भी आग्रह किया गया है.[xiv]

AI के उन हिस्सों की पहचान महत्वपूर्ण है जिनका विनियमन किए जाने की आवश्यकता है. क्या पूरे के पूरे AI को विनियमित किया जाना चाहिए या इसे उपयोग के मामलों के हिसाब से विभाजित किया जाना चाहिए और क्षेत्रवार विनियमनों के ज़रिए उनकी निगरानी की जानी चाहिए- ये ऐसे अतिरिक्त प्रश्न हैं जिनका समाधान आवश्यक है. एक अतिरिक्त दृष्टिकोण जोख़िमों को श्रेणीबद्ध करने और उनके लिए विनियमन तैयार करने का हो सकता है. AI टेक स्टैक की पड़ताल करने और उसके विभिन्न स्तरों के विनियमन के तरीक़े पर विचार करने की भी आवश्यकता है. मिसाल के तौर पर, एक ओर विशाल भाषा मॉडल के विनियमित होने पर स्टैक आधार के तौर पर काम करने वाला डेटा इंफ्रास्ट्रक्चर अपेक्षाकृत खुला रह सकता है. अग्रणी हिस्से (जिसमें ऐप्लिकेशन प्रोग्रामिंग इंटरफेसेज़ (APIs), उच्च-जोख़िम, मध्यम-जोख़िम और निम्न-जोख़िम वाले हालात शामिल होते हैं) को परिभाषित किए जाने और उनके हिसाब से विनियामक उपाय अपनाए जाने की आवश्यकता है. चूंकि उच्च-जोख़िम हालातों में मानवीय हस्तक्षेप की शुरुआत कई बार जोख़िमों को शांत कर सकती है, लिहाज़ा नए क़ानून आवश्यक नहीं हैं. हालांकि, AI के इर्द-गिर्द दृष्टिकोणों और मानकों के अत्यधिक अनुकूलीकरण के चलते विशिष्ट संदर्भों के पर्याप्त रूप से नहीं पहचाने जाने का परिणाम सामने आ सकता है. इसलिए, AI पूर्वाग्रह जैसे मसलों को भारत और ग्लोबल साउथ (अल्प-विकसित और विकासशील दुनिया) के अन्य देशों के मामले में संदर्भित किए जाने की आवश्यकता है.

किसी ना किसी तरीक़े से लाइसेंसिंग व्यवस्थाओं से मिलती-जुलती विनियामक व्यवस्था मूल्यवान हो सकती है. मिसाल के तौर पर, इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय क्लाउड सेवा प्रदाताओं के लिए एक एम्पैनलमेंट प्रक्रिया का पालन करता है, जो शुरुआत में उनके लिए एक आधार-स्तरीय मानक परिभाषित करता है. डेटा बुनियादों की मेज़बानी के लिए ऐसी ही पूर्व-परिभाषित परत या मानक उपयोगी हो सकते हैं. उदाहरण के तौर पर, ‘KY3C’-नो योर कस्टमर, कंटेंट और क्लाउड- की कठोर रूपरेखा AI द्वारा पेश जोख़िमों में से कुछ की रोकथाम कर सकती है. इसके अतिरिक्त, AI उत्पाद के प्रति सुरक्षा कवच और जोख़िम-आधारित दृष्टिकोण की ज़रूरत है, जिसमें को-पायलट की आवश्यकता भी जुड़ी हो सकती है- यानी एक ऐसा व्यक्ति जो किसी AI प्रणाली के उत्पाद की सटीकता और उसके मायने की जांच कर सके.    

AI का संचालन

AI के विनियमन पर भारत का रुख़ कई बार डगमगाता नज़र आया है,[xv] लेकिन ये स्पष्ट विनियामक दृष्टिकोण और AI शासन तंत्र स्थापित करने की दिशा में स्थिर रूप से कार्य कर रहा है. ख़ासतौर से तब जब भारत ने AI से संबंधित अंतरराष्ट्रीय सहयोग में ज़्यादा प्रमुख भूमिका धारण कर ली है.[xvi]

AI से सक्षम किए गए नुक़सान और सुरक्षा ख़तरे AI स्टैक के सभी तीन स्तरों पर मौजूद होते हैं: हार्डवेयर के स्तर पर AI प्रणालियों के भौतिक बुनियादी ढांचे में कमज़ोरियां हैं. आधारभूत मॉडल स्तर पर, अनुपयुक्त डेटासेट्स के उपयोग, डेटा पॉयज़निंग और डेटा संग्रहण, भंडारण और सहमति से जुड़े मसलों के इर्द-गिर्द चिंताएं व्याप्त हैं. अनुप्रयोग स्तर पर, संवेदनशील और गोपनीय सूचना के सामने ख़तरे मौजूद हैं. साथ ही साथ, शैतानी किरदारों के बीच क्षमता-बढ़ाने वाले उपकरणों के प्रसार का जोख़िम भी है. यही वजह है कि भले ही टेक स्टैक का प्रशासन एक प्राथमिकता है, पर AI समाधान विकसित कर रहे संगठनों का प्रशासन या टेक्नोलॉजी के पीछे के लोग भी उत्पादक हो सकते हैं.

भले ही लोकतांत्रिकरण ने AI को ज़्यादा सुलभ बना दिया है, पर AI के परिचालन में ज़िम्मेदारी निर्दिष्ट करना या जवाबदेही को परिभाषित करना ज़्यादा कठिन हो गया है.

भले ही लोकतांत्रिकरण ने AI को ज़्यादा सुलभ बना दिया है, पर AI के परिचालन में ज़िम्मेदारी निर्दिष्ट करना या जवाबदेही को परिभाषित करना ज़्यादा कठिन हो गया है. अभी इस बात पर बहस जारी है कि AI के नतीजतन होने वाले नुक़सानों के लिए कौन ज़िम्मेदार है,[xvii] लेकिन ये साफ़ है कि इस कड़ी में अनेक किरदारों वाले दृष्टिकोण की ज़रूरत है. इसमें डेवलपर, तैनात करने वाले (डिप्लॉयर), और उपयोगकर्ता के स्तरों पर सुरक्षा कवच तैयार करने की आवश्यकता शामिल है. इस बात की पहचान करना भी ज़रूरी है कि एक तकनीक के तौर पर AI का स्वभाव और उपयोग, परमाणु ऊर्जा या बिजली का इस्तेमाल किए जाने की क़वायद से अलग है, जिनमें अनुमान लगाने की क्षमता से जुड़े तत्व समाहित होते हैं, जो बचाव की छूट देते हैं. दूसरी ओर, AI, ख़ासतौर से अब भी विकास की प्रक्रिया से गुज़र रहे आर्टिफिशियल जनरल इंटेलिजेंस (AGI) के उभरते मॉडल अप्रत्याशित हैं.[xviii]

AI की विकास प्रक्रिया में उपयोगकर्ताओं और विनियामकों, दोनों की ओर से भरोसे को प्राथमिकता दिए जाने की दरकार है. विश्वास खड़ा करने के दो अहम तरीक़े हैं प्रकटीकरण और पता लगाने के तंत्र. डेवलपर्स और डिप्लॉयर्स दोनों के लिए प्रकटीकरण दिशानिर्देश आर्टिफिशियल इंटेलिजेंस में पारदर्शिता हासिल करने की ओर अहम क़दम होंगे. प्रकटीकरण में एल्गोरिदम्स के उद्देश्य, उपयोग किए गए ट्रेनिंग डेटा, और संभावित पूर्वाग्रहों और जोख़िमों के बारे में सूचना शामिल होनी चाहिए. जेनेरेटिव AI मॉडलों के साथ-साथ सुराग लगाने का तंत्र भी जुड़ा होना चाहिए. हालांकि, पता लगाने के मौजूदा तंत्र सामग्री के मूल-स्रोत की पहचान करने में पर्याप्त नहीं हो सकते हैं, ऐसे में AI-निर्मित सामग्री की वाटरमार्किंग करने जैसे वैकल्पिक उपायों को मुख्यधारा में लाए जाने की आवश्यकता है. बहुमुखी अनुप्रयोगों और उन्नत क्षमताओं से लैस (ट्रेनिंग डेटा के आकार और मानदंडों की संख्या के चलते) दोहरे इस्तेमाल वाले आधारभूत मॉडलों पर प्रकटीकरण और पता लगाने के ऊंचे मानदंड प्रयोग किए जाने चाहिए.

जैसे-जैसे AI का उभार होगा, इसको शासित करने वाले सिद्धांत तैयार करते समय विविधतापूर्ण परिप्रेक्ष्यों को शामिल करने की क़वायद सुनिश्चित करना अहम हो जाएगा. इसके अलावा, इन सिद्धांतों को राज्य और क्षेत्रवार स्तरों पर सुसंगत बनाए जाने की दरकार है. राज्य-स्तरीय सम्मिलन की ज़रूरत प्राथमिकता बन गई है, और भारत के तमाम राज्यों ने सार्वजनिक सेवा वितरण में सुधार लाने के लिए AI पहलों को शामिल करना शुरू कर दिया है. उदाहरण के तौर पर, महाराष्ट्र ने एक AI चैटबॉट लॉन्च किया है जो 1400 सार्वजनिक सेवाओं के बारे में सूचना मुहैया कराता है;[xix] तेलंगाना अंतिम उपयोगकर्ता तक मेडिकल आपूर्तियों[xx] को पहुंचाने और शहरी मानचित्रण[xxi] के लिए ड्रोन का इस्तेमाल करता है; और तमिलनाडु कीट नियंत्रण के लिए AI-आधारित ऐप का इस्तेमाल करता है.[xxii] अखिल-भारतीय स्तर पर एकजुटता और समरूपता सुनिश्चित करने के लिए AI के इन विविध अनुप्रयोगों को मानकों और सिद्धांतों के एक सुसंगत समूह का पालन करने की ज़रूरत है.

क्षेत्रवार स्तर पर, क्षेत्र- और मॉडल-विशिष्ट दिशानिर्देशों के इर्द-गिर्द काफ़ी गतिविधि है. भारतीय चिकित्सा अनुसंधान परिषद (ICMR) ने स्वास्थ्य क्षेत्र में नैतिकतापूर्ण AI के लिए दिशानिर्देश जारी किए हैं[xxiii], और नेशनल एसोसिएशन ऑफ सॉफ्टवेयर एंड सर्विस कंपनीज़ (NASSCOM) ने ज़िम्मेदार जेनेरेटिव AI के लिए दिशानिर्देश प्रकाशित किए हैं.[xxiv] ये दिशानिर्देश आने वाले वर्षों में AI के विकास को आकार देंगे. साथ ही ये सुनिश्चित करने के लिए हर संभव प्रयास किए जाने चाहिए कि इन दिशानिर्देशों के अंतर्निहित सिद्धांत राष्ट्रीय प्राथमिकताओं से सुसंगत हों.

AI विनियमन और मानकों के विकास के लिए नए क़ानूनों का निर्माण आवश्यक नहीं है. इसकी बजाए, AI विनियमन में मौजूदा अंतरालों को पाटने के नज़रिए से डिजिटल निजी डेटा संरक्षण अधिनियम, सूचना प्रौद्योगिकी अधिनियम और आपराधिक प्रक्रिया संहिता जैसे मौजूदा क़ानूनों के प्रावधानों की पड़ताल की जा सकती है.

उनके अनुप्रयोग को सीमित करने की क़वायदों से परहेज़ के लिए AI के बचावकारी उपायों के क्रियान्वयन को भी किफ़ायती बनाए जाने की दरकार है. मिसाल के तौर पर, जटिल क्रियान्वयन प्रक्रियाएं (ख़ासतौर से ज़मीनी स्तरों पर) प्रभावी डेटा संग्रहण में रुकावटें खड़ी कर सकती हैं. क्रियान्वयन एजेंसियों (जैसे ज़रूरत से कम कोष वाले स्वास्थ्य केंद्र) की परिचालनात्मक वास्तविकताओं का लेखा-जोखा तैयार करते वक्त बचावकारी उपाय स्थापित किए जाने चाहिए. उनकी प्रभावकारिता को पंगु बनाने से परहेज़ करने या बाज़ार से छोटे खिलाड़ियों को निकाल बाहर करने से बचने के लिए ये क़वायद ज़रूरी है. ये दृष्टिकोण ज़्यादा प्रतिनिधित्वकारी डेटासेट्स के निर्माण की सुविधा देगा और AI नवाचार में परिप्रेक्ष्यों की विविधता के समावेश को प्रोत्साहित करेगा.

AI इकोसिस्टम में मज़बूती लाना

भारत के AI इकोसिस्टम को मज़बूत करने के लिए इसके पांच स्तंभों में दृढ़ता लाना आवश्यक है:  

·        शिक्षा जगत: भारतीय विश्वविद्यालय नवाचार के केंद्र होने के साथ-साथ टेक कंपनियों के लिए प्रतिभा के अग्रणी स्रोत हैं. विश्वविद्यालयों को अपने पाठ्यक्रम में AI को शामिल करने, इस क्षेत्र में शिक्षण और सीखने को बढ़ावा देने और AI वेंचरों को व्यवस्थित रूप से प्रोत्साहित करने और उनका पोषण करने की आवश्यकता है. इतना ही नहीं, इन प्रयासों का राष्ट्रीय लक्ष्यों के साथ तालमेल सुनिश्चित किया जाना भी ज़रूरी है.

·        स्टार्टअप्स: स्टार्टअप्स अक्सर फंडिंग के साथ-साथ तकनीक और मानवीय क्षमता से संबंधित चुनौतियों का सामना करते हैं. नतीजतन, ये नए मॉडल तैयार करने की बजाए मौजूदा AI मॉडलों के उपयोग को पसंद करते हैं. लिहाज़ा, भारतीय स्टार्टअप को घरेलू AI अनुप्रयोगों के विकास के लिए प्रोत्साहित किए जाने की दरकार है.

·        नीति-निर्माता और सरकारी संस्थान: AI के प्रशासन से संबंधित क़ानून तैयार करने के हिसाब से बेहतरीन और अनुकूल क़ानून तैयार करने को लेकर नीति-निर्माताओं और विनियामक संस्थानों की पहचान किए जाने की आवश्यकता है. साथ ही उनके बीच AI साक्षरता और जागरूकता की ऊंची दर सुनिश्चित करने की दरकार है. इस क्षेत्र की तेज़ी से उभरती प्रकृति के चलते नियामकों की नियुक्ति के स्थापित उदाहरण शायद सफल नहीं होंगे. इसकी बजाए, नियमन तैयार करने और उनके प्रबंधन के लिए फुर्तीली मानसिकता के साथ बहु-क्रियाशील टीम की ज़रूरत है.

·        बहुराष्ट्रीय निगम: टेक क्षेत्र की बहुराष्ट्रीय कंपनियां और निजी खिलाड़ी, भारत में AI के प्राथमिक निवेशक हैं. लिहाज़ा, ये देश में AI के नियामक परिदृश्य के प्रमुख स्टेकहोल्डर्स हैं, और उनके विचारों और परिप्रेक्ष्यों को नीति-निर्माण प्रक्रियाओं में एकीकृत किया जाना चाहिए.

·        सार्वजनिक-निजी भागीदारियां (PPPs): AI प्रशासन को समर्थन देने के लिए PPPs की ज़्यादा नज़दीक से पड़ताल की जा सकती है. PPPs के तहत सरकारों, निजी क्षेत्र और नागरिक समाज संगठनों (CSOs) के बीच गठजोड़, उद्योग में स्व-नियमन उपायों को क्रियान्वित करने, आर्टिफिशियल इंटेलिजेंस सलाहकारी बोर्डों के गठन, और AI नीतियों की सह-संरचना के साथ-साथ सार्वजनिक क्षेत्र में AI को अपनाने की क़वायद में मज़बूती लाने में मदद कर सकते हैं.[xxv] प्रशिक्षण डेटा की सहभागिताएं भी भारत के लिए अहम होंगी क्योंकि AI एल्गोरिदम्स अक्सर निर्णय कर्ता होते हैं, और AI पूर्वाग्रह, एल्गोरिदम्स में डाले गए प्रशिक्षण डेटासेट्स की क्रिया होते हैं.[xxvi]   

आर्टिफिशियल इंटेलिजेंस का एक मज़बूत इकोसिस्टम खड़ा करने का एक और अहम पहलू है नए विनियमनों के तहत भावी डेवलपर्स के लिए उपलब्ध कराई गई सुरक्षा में बढ़ोतरी, ख़ासतौर से उन डेवलपर्स के लिए जिनके पास पर्याप्त वित्तीय समर्थन का अभाव हो. बड़े AI मॉडलों और प्लेटफॉर्मों के पास बड़ी टीम होती है, लेकिन ऐतिहासिक रूप से नवाचार छोटे समूहों से सामने आता रहा है. लिहाज़ा, आर्टिफिशियल इंटेलिजेंस के विनियमनों को छोटे यूज़ केसों पर कम तवज्जो देते हुए मुख्य रूप से उन बड़े समूहों के प्रति चिंतित रहना चाहिए जो व्यापक क्षति का सबब बनने के लिए बड़े आकार और पैमाने से लैस हैं.          

भारत को उपयुक्त AI क़ानून तैयार करने के लिए आवश्यक समय लेना चाहिए, मौजूदा राष्ट्रीय तकनीकी नीतियों से सबक़ लेते हुए और तमाम अंतरराष्ट्रीय पहलों से प्रासंगिक विशेषताओं को समेटते हुए इस क़वायद को अंजाम दिया जाना चाहिए. प्रमुख अंतरराष्ट्रीय पहलों में OECD AI सिद्धांत,[xxvii] EU AI अधिनियम,[xxviii] और G7 दिशानिर्देशक सिद्धांत[xxix] प्रमुख हैं. ये क़वायद ये भी सुनिश्चित करेगी कि भारत का AI इकोसिस्टम कठोर विनियमनों के चलते होने वाली संभावित गतिहीनता की बजाए स्वच्छंद रूप से उभरता रहे. वहीं दूसरी ओर, कुछ विशेषज्ञों का मानना है कि AI जैसी तेज़ी से उभरती टेक्नोलॉजी से जुड़े विनियमनों में निरंतर संशोधनों या परिवर्तनों की ज़रूरत पड़ेगी, और इसलिए, इन क़ानूनों में लचीलेपन पर ज़ोर होना चाहिए. ये मोबाइल फ़ोनों से जुड़े मामलों की याद दिलाता है, जिसके चलते ऑपरेटरों, नीति निर्माताओं और विनियामकों के बीच व्यापक टकराव सामने आया था और टेक्नोलॉजी के परिपक्व अवस्था तक पहुंचने के बाद ही इस संघर्ष का समाधान हो सका था.

भारत के पास अपने AI इकोसिस्टम का निर्माण करने और उसका पोषण करने का अनोखा अवसर है. वो नए-नए और अनोखे नीतिगत दृष्टिकोण विकसित करके या अन्य विनियामक ढांचों से तत्वों को अपनाकर या उनके हिसाब से ख़ुद को ढालकर इस क़वायद को अंजाम दे सकता है. 

निष्कर्ष और सिफ़ारिशें  

भारत के पास अपने AI इकोसिस्टम का निर्माण करने और उसका पोषण करने का अनोखा अवसर है. वो नए-नए और अनोखे नीतिगत दृष्टिकोण विकसित करके या अन्य विनियामक ढांचों से तत्वों को अपनाकर या उनके हिसाब से ख़ुद को ढालकर इस क़वायद को अंजाम दे सकता है. भले ही भारत अल्प-कालिक या दीर्घ-कालिक दृष्टिकोण अपनाए, पर तमाम क्षेत्रों में AI के बढ़ते उपयोग से देश के डिजिटल परिदृश्य का कायापलट होना तय है.

गोलमेज़ (राउंडटेबल) परिचर्चा के आधार पर निम्नलिखित अपस्ट्रीम (नीतिगत स्तर पर) और डाउनस्ट्रीम (प्रोग्रामिंग स्तर पर) कार्रवाइयों की सिफ़ारिश की जाती है:

·        जैसे-जैसे जेनेरेटिव AI का इस्तेमाल बढ़ता जा रहा है, उपयोगकर्ताओं और अन्य तकनीकी और ग़ैर-तकनीकी स्टेकहोल्डर्स को इसकी क्षमताओं और ख़तरों के बारे में शिक्षित किए जाने की ज़रूरत है. सरकार, मीडिया, निजी क्षेत्र, और सिविल सोसाइटी द्वारा संचालित जागरूकता अभियान इस संदर्भ में ज़बरदस्त योगदान दे सकते हैं.

·        ये निर्धारित करना आवश्यक है कि AI टेक स्टैक के किन हिस्सों को विनियमित करना ज़रूरी है और क्या क्षेत्रवार और जोख़िम-आधारित दृष्टिकोणों को अपनाया जाना चाहिए. जहां उपयुक्त हो, AI प्रणालियों को अकेले स्वचालन पर निर्भर रहने की बजाए जांच और संतुलन में मज़बूती लाने के उद्देश्य से मानवीय हस्तक्षेपों को स्थान देना चाहिए.

·        AI टेक्नोलॉजी और सेवा प्रदाताओं की लाइसेंसिंग के लिए एक नोडल एजेंसी का प्रस्ताव किया जाता है. सभी AI डेवलपर्स को लाइसेंसधारी प्रदाताओं से मिलने वाली सेवाओं का इस्तेमाल करना चाहिए. स्थापित मानदंडों और प्रॉसेसिंग प्रामाणिकताओं (जैसे सर्टिफिकेशन और एक्रिडेशंस) का पालन करने से विश्वास का वातावरण बनाने में मदद मिल सकती है, जो संभावित नुक़सानों के ख़िलाफ़ बफर का काम कर सकता है और इससे सुरक्षित समाधानों के कुछ आश्वासन भी मिल सकते हैं.

·        चूंकि कुछ मौजूदा भारतीय क़ानून AI से संबंधित कुछ विशिष्ट नुक़सानों (जैसे डीपफेक्स और डेटा घुसपैठ) का समाधान कर सकते हैं, लिहाज़ा नए क़ानूनों के निर्माण की शायद ज़रूरत ही ना पड़े. इसकी बजाए, मौजूदा वैधानिक प्रणाली में अंतरों को पाटने और जुर्मानों की ओर चरणबद्ध दृष्टिकोण के साथ सूक्ष्म विनियमन को क्रियान्वित करने पर ध्यान दिया जाना चाहिए.

·        भारत के AI इकोसिस्टम का पालन-पोषण और उसको आगे बढ़ाना नीतिगत और प्रोग्राम संबंधी क़वायदों के प्राथमिक उद्देश्यों में से एक होना चाहिए. सरकार, शिक्षा जगत, तकनीकी फर्म और नागरिक समाज संगठनों समेत तमाम स्टेकहोल्डर्स द्वारा मिलकर काम किए जाने की ज़रूरत है. ये भारत के लिए दुनिया भर में भावी विनियामक रूपरेखाओं क विश्लेषण करके अपने ख़ुद के क़ानूनों में उपयुक्त तत्वों को समाहित करने का एक सुनहरा अवसर भी है. हालांकि इस प्रक्रिया में ये सुनिश्चित करना ज़रूरी है कि ये पूरी क़वायद राष्ट्रीय हितों के अनुरूप हो.

·        AI विनियमनों को उन टेक डेवलपर्स को कमज़ोर करने या बाधित करने की क़ीमत पर स्थापित नहीं किया जाना चाहिए जिनके पास पर्याप्त वित्तीय समर्थन का अभाव है. दरअसल यही डेवलपर्स नवाचार के एक प्रमुख स्रोत हैं और AI इकोसिस्टम के लिए पूंजी के समान हैं. 


नोट: लेखक टेक हडल के आयोजन में मदद करने के लिए आब्ज़र्वर रिसर्च फाउंडेशन (ORF) की शिमोना मोहन के आभारी हैं


प्रांजल शर्मा, इकोनॉमिक एनालिस्ट और लेखक, द नेक्स्ट न्यू: नेविगेटिंग द फिफ्थ इंडस्ट्रियल रिवॉल्यूशन (हार्पर कोलिंस, 2023)

अनिर्बान सरमा, डिप्टी डायरेक्टर, ओआरएफ कोलकाता; सीनियर फेलो, ओआरएफ सेंटर फॉर न्यू इकोनॉमिक डिप्लोमेसी

अमोहा बसरूर, रिसर्च असिस्टेंट, ओआरएफ

प्रतीक त्रिपाठी, रिसर्च असिस्टेंट, ओआरएफ

 

a टेक हडल ओआरएफ़ की मेज़बानी में आयोजित तिमाही संवाद है जो टेक्नोलॉजी इकोसिस्टम में प्रमुख स्टेकहोल्डर्स के बीच विषयवार परिचर्चाओं के लिए समर्पित है. ये सत्र नाज़ुक और अहम मसलों के साथ-साथ वैश्विक और भारतीय तकनीकी परिदृश्य में उभरते रुझानों पर परिचर्चा के लिए विशेषज्ञों को एक छत के नीचे लाते हैं.

b एलेन ट्यूरिंग एक ब्रिटिश गणितज्ञ, तर्कशास्त्री और कंप्यूटर वैज्ञानिक थे, जिन्हें आधुनिक कंप्यूटर विज्ञान की नींव रखने के लिए जाना जाता है.



[i] James Manyika and Jacques Bughin, “The Coming of AI Spring,” McKinsey Global Institute, October 14, 2019, https://www.mckinsey.com/mgi/overview/in-the-news/the-coming-of-ai-spring.

 

[ii] “Top Artificial Intelligence Stats You Should Know About in 2024,” Simplilearn, November 7, 2023,  https://www.simplilearn.com/artificial-intelligence-stats-article.

 

[iii] Aayush Mittal, “AI Startup Investments Surge in 2023,” Techopedia, November 22, 2023, https://www.techopedia.com/ai-startup-investments-surge-in-2023.

 

[iv] “Top Artificial Intelligence Stats You Should Know About in 2024”

 

[v] Google, Perspectives on Issues in AI Governance, 2019, https://ai.google/static/documents/perspectives-on-issues-in-ai-governance.pdf.

 

[viii] NITI Aayog, National Strategy for Artificial Intelligence, 2018, https://www.niti.gov.in/sites/default/files/2023-03/National-Strategy-for-Artificial-Intelligence.pdf.

 

[ix] Gayathri Haridas, Sonia Sohee, and Atharva Brahmecha, “The Key Policy Frameworks Governing AI in India,” Access Partnership, October 2, 2023, https://accesspartnership.com/the-key-policy-frameworks-governing-ai-in-india/.

 

[x] Shouvik Das, “IT Min to Support Development of Data for AI Models,” Mint, October 13, 2023, https://www.livemint.com/technology/it-min-to-support-development-of-data-for-ai-models-11697217531226.html.

 

[xii] Rockwell Anyoha, “The History of Artificial Intelligence,” Harvard University, August 28, 2017, https://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/.

 

[xiii] David Petersson and Cameron Hashemi-Pour, “AI Vs. Machine Learning Vs. Deep Learning: Key Differences,” TechTarget, November 14, 2023, https://www.techtarget.com/searchenterpriseai/tip/AI-vs-machine-learning-vs-deep-learning-Key-differences.

 

[xiv] “The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023,” Gov.uk, November 1, 2023, https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023.

 

[xv] Shaoshan Liu, “India’s AI Regulation Dilemma,” The Diplomat, October 27, 2023, https://thediplomat.com/2023/10/indias-ai-regulation-dilemma/.

 

[xvi] Ministry of Electronics and IT, Government of India, 2022, https://pib.gov.in/PressReleasePage.aspx?PRID=1877739.

 

[xvii] Auxane Boch, Ellen Hohma, and Rainer Trauth, “Towards an Accountability Framework for

AI: Ethical and Legal Considerations,” Institute for Ethics in Artificial Intelligence, February 2022, https://ieai.mcts.tum.de/wp-content/uploads/2022/03/ResearchBrief_March_Boch_Hohma_Trauth_FINAL.pdf.

 

[xviii] “4 Reasons Why OpenAI Project Q* Could Be a Danger to Humanity,” India Today, November 28, 2023, https://www.indiatoday.in/technology/news/story/4-reasons-why-openai-project-q-star-could-be-a-danger-to-humanity-2468565-2023-11-28.

 

[xix] “Government of Maharashtra Launches Aaple Sarkar Chatbot With Haptik,” The Economic Times, March 5, 2019, https://economictimes.indiatimes.com/news/politics-and-nation/government-of-maharashtra-launches-aaple-sarkar-chatbot-with-haptik/articleshow/68268917.cms.

 

[xx] Syed Mohammed, “Telangana Launches ‘Medicine from the Sky’ Project to Drone-Deliver Vaccines, Medicines to Remote Areas,” The Hindu, September 11, 2021, https://www.thehindu.com/news/national/telangana/telangana-launches-medicine-from-the-sky-project-to-drone-deliver-vaccines-medicines-to-remote-areas/article36401406.ece.

 

[xxi] S. Bachan Jeet Singh, “First Time Ever, Hyderabad Municipal Corporation to Use Drones for Mapping Urban Properties,” The New Indian Express, June 16, 2019, https://www.newindianexpress.com/cities/hyderabad/2019/jun/16/first-time-ever-hyderabad-municipal-corporation-to-use-drones-for-mapping-urban-properties-1990843.html.

 

[xxii] “AGRI-Uzhavan,” Government of Tamil Nadu, https://www.tnagrisnet.tn.AGRI-Uzhavangov.in/people_app/.

 

[xxiii] Indian Council of Medical Research, Ethical Guidelines for Application of Artificial Intelligence in Biomedical Research and Healthcare, 2023,

https://main.icmr.nic.in/sites/default/files/upload_documents/Ethical_Guidelines_AI_Healthcare_2023.pdf.

 

[xxiv] NASSCOM, Responsible AI Guidelines for Generative AI, June 2023, NASSCOM, 2023, https://www.nasscom.in/ai/img/GenAI-Guidelines-June2023.pdf.

 

[xxv] Cas Proffitt, “Public-Private Partnerships for AI Governance: Encouraging Cooperation Between Stakeholders,” Medium, June 13, 2023, https://medium.com/the-guardian-assembly/public-private-partnerships-for-ai-governance-encouraging-cooperation-between-stakeholders-ec6458a63a46.

 

[xxvi] Pranjal Sharma, “AI’s Fuel: Why the World is Teaming Up for Datasets,” India Today, November 26, 2023, https://www.business-standard.com/technology/tech-news/ai-s-fuel-why-the-world-is-teaming-up-for-datasets-123112600913_1.html.

 

[xxvii] Organisation for Economic Development and Co-operation, OECD AI Principles, 2019, https://oecd.ai/en/ai-principles.

 

[xxviii] “EU AI Act: First Regulation on Artificial Intelligence,” European Parliament, June 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence.

 

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.

Authors

Anirban Sarma

Anirban Sarma

Anirban Sarma is Deputy Director of ORF Kolkata and a Senior Fellow at ORF’s Centre for New Economic Diplomacy. He is also Chair of the ...

Read More +
Amoha Basrur

Amoha Basrur

Amoha Basrur is a Research Assistant at ORFs Centre for Security Strategy and Technology. Her research focuses on the transformative potential and governance of emerging ...

Read More +
Prateek Tripathi

Prateek Tripathi

Prateek Tripathi is a Research Assistant Centre For Security Strategy and Technology at ORF. He was given a prize for outstanding physics achievement at the ...

Read More +