Published on Jul 29, 2023 Updated 0 Hours ago

कृत्रिम बुद्धिमत्ता (Artificial Intelligence) के नियमन के वास्ते एक उपयुक्त ढांचा (framework) तैयार करने की पहल की इलेक्ट्रॉनिक्स एवं सूचना तकनीक मंत्रालय (MeitY) को अगुवाई करनी चाहिए. इसके लिए सभी प्रासंगिक हितधारकों के साथ मिलकर काम करना चाहिए.

#AIForAll: कृत्रिम बुद्धिमत्ता के लिए केंद्रीय नियामक मुद्दे
#AIForAll: कृत्रिम बुद्धिमत्ता के लिए केंद्रीय नियामक मुद्दे

कृत्रिम बुद्धिमत्ता (Artificial Intelligence या AI) के लिए जो नैतिक सिद्धांत और ढांचे (frameworks) 2017 से प्रकाशित हैं, सरकारों द्वारा उन्हें संचालन में लाने के सुव्यवस्थित प्रयास 2021 में दिखे. यूरोपीय संघ (EU) द्वारा ड्राफ्ट किये जा रहे आर्टिफिशियल इंटेलिजेंस एक्ट के रूप में AI के नियमन के लिए ठोस प्रस्ताव लाये गये. अमेरिका में एक विधेयक न्यूयॉर्क में आया, जो नौकरी पर रखे जाने में AI के पक्षपात से संबंधित था. चीन में नियमन की कोशिश recommendation algorithms (ये यूजर को उनकी संभावित पसंद या ज़रूरत सुझाते हैं) को लेकर मसौदा नियमों के रूप में दिखी. यह सब 2021 में हुआ. तकनीकी और क़ानूनी उपाय अपनाते हुए AI को लेकर मौजूदा सिद्धांतों को ठोस रूप देने के प्रयास 2022 में भी जारी रहने जा रहे हैं. यह लेख नीति आयोग द्वारा प्रस्तावित AI से संबंधित नियमन दृष्टिकोण की पड़ताल करता है और नोडल एजेंसी के रूप में सामने आये भारतीय इलेक्ट्रॉनिक्स एवं सूचना तकनीक मंत्रालय (MeitY) के सामने इससे जुड़े केंद्रीय मुद्दों को रखता है.

यह लेख नीति आयोग द्वारा प्रस्तावित AI से संबंधित नियमन दृष्टिकोण की पड़ताल करता है और नोडल एजेंसी के रूप में सामने आये भारतीय इलेक्ट्रॉनिक्स एवं सूचना तकनीक मंत्रालय (MeitY) के सामने इससे जुड़े केंद्रीय मुद्दों को रखता है.

AI नियमन पर नीति आयोग का दृष्टिकोण

नीतियों को लेकर भारत सरकार के प्रधान थिंक टैंक, नीति आयोग ने वर्ल्ड इकोनॉमिक फोरम में Centre for the Fourth Industrial Revolution के सहयोग से फरवरी 2021 में ‘Approach Document for India : Part 1 – Principles for Responsible AI’ प्रकाशित किया. इसका दूसरा भाग ‘Approach Document for India: Part 2 – Operationalising Principles for Responsible AI’ अगस्त 2021 में प्रकाशित किया गया. ये दोनों दस्तावेज सिद्धांतों का व्यापक ढांचा मुहैया कराते हैं, साथ ही साथ AI से नुक़सान को न्यूनतम करने की परिकल्पना वाली नियामक दृष्टि की एक झलक पेश करते हैं.

Approach Document Part 1 ने संभावित AI ज़ोखिमों का अध्ययन किया और ‘जिम्मेदार कृत्रिम बुद्धिमत्ता’ (Responsible AI या RAI) के लिए विस्तृत नैतिक सिद्धांतों का प्रस्ताव रखा, जिसकी बुनियाद भारतीय संविधान द्वारा सुनिश्चित किये गये मूल अधिकारों को बनाया गया. इसने प्रस्तावित सिद्धांतों को अमल में लाने के लिए प्रवर्तन (enforcement) प्रणालियों की स्थापना की ज़रूरत को स्वीकार कर, दस्तावेज के दूसरे भाग के लिए ज़मीन भी तैयार की. Approach Document Part 2 ने स्व-नियमन और सरकारी नियमन के संयोजन को लागू कर RAI को संचालित करने के लिए एक सतत-परिवर्तनशील दृष्टिकोण मुहैया कराया. यह दस्तावज़ इस बात को मानता है कि सभी के लिए एक समाधान वाला दृष्टिकोण प्रभावी नहीं होगा, इसलिए वह इसके बजाय ज़ोखिम आधारित दृष्टिकोण का प्रस्ताव करता है. सुझाये गये नियामक हस्तक्षेप विभिन्न उपयोग के लिए अलग-अलग AI के डिजाइन, विकास और उनकी तैनाती से जुड़े ज़ोखिमों के आकार, प्रकृति और संभावना के अनुरूप प्रतिक्रिया देंगे. दस्तावेज कहता है कि इस दृष्टिकोण के लिए बुनियादी सिद्धांत इस प्रकार है, ‘नुक़सान पहुंचने की संभावना जितनी ज्यादा होगी, नियामकीय आवश्यकताएं उतनी सख्त होंगी और नियामकीय हस्तक्षेप की सीमाएं भी उतनी ही दूरगामी होंगी.’ जहां नुकसान का ज़ोखिम कम है वहां स्व-नियमन लागू किया जायेगा. जबकि, जहां नुकसान का ज़ोखिम बड़ा है वहां क़ानूनी हस्तक्षेप प्रस्तावित किया गया है- मसलन, अपराध को अंज़ाम दिये जाने से पहले ही अपराधियों का पूर्वानुमान कर लेने में AI का इस्तेमाल, जिसके चलते मूल अधिकारों का हनन हो सकता है. दस्तावेज ने बहु-विषयक (multidisciplinary) ‘काउंसिल फॉर एथिक्स एंड टेक्नोलॉजी’ (CET) का प्रस्ताव आगे बढ़ाया. यह काउंसिल विभिन्न उपयोगों के लिए AI की नैतिक रिस्क प्रोफाइलिंग करने में क्षेत्रीय (sectoral) नियामकों की मदद करेगी. इसके लिए वह सभी सेक्टरों से मौजूदा केस स्टडीज को लेगी और रिसर्च करेगी. इस स्वतंत्र थिंक टैंक को अलग-अलग क्षेत्रीय नियामकों के बीच कन्वर्जेंस लाने का महत्वपूर्ण कार्यभार सौंपा जा सकता है. 

 दस्तावेज कहता है कि इस दृष्टिकोण के लिए बुनियादी सिद्धांत इस प्रकार है, ‘नुक़सान पहुंचने की संभावना जितनी ज्यादा होगी, नियामकीय आवश्यकताएं उतनी सख्त होंगी और नियामकीय हस्तक्षेप की सीमाएं भी उतनी ही दूरगामी होंगी.’ जहां नुकसान का ज़ोखिम कम है वहां स्व-नियमन लागू किया जायेगा. 

दोनों दस्तावेज साफ़ दिखाते हैं कि पारंपरिक ‘कमांड एंड कंट्रोल’ मॉडल से अब एक ऐसे दृष्टिकोण की ओर बढ़ा जा रहा है जो लोक सुरक्षा (public safety) सुनिश्चित करते हुए तकनीक को बढ़ने के लिए पूरी जगह देता है. नियमन का पारंपरिक मॉडल AI के विकास की तेज गति के साथ क़दम मिला पाने में अक्षम होगा, क्योंकि मौजूदा प्रणाली में सेक्टोरल ओवरलैपिंग और नौकरशाही के ढांचे जैसे कई घर्षण बिंदु अंतर्निहित हैं जो गति को कम करते हैं. उदाहरण के लिए, MeitY द्वारा तैयार ‘AI पर राष्ट्रीय कार्यक्रम’ (NPAI) अलमबरदार की भूमिका में है और उसे AI के लिए एक टिकाऊ इकोसिस्टम की मज़बूत नींव रखनी है, लेकिन वह अब भी कैबिनेट की मंज़ूरी का इंतज़ार कर रहा है. नोडल एजेंसी को लेकर नीति आयोग और MeitY के बीच भ्रम की स्थिति होना NPAI को लागू करने में देरी की मुख्य वजहों में से एक है. इस मामले को हल करने के लिए, प्रधानमंत्री के प्रधान वैज्ञानिक सलाहकार के. विजय राघवन की अगुवाई वाली कमेटी बनायी गयी, जिसने आख़िरकार सितंबर 2020 में इस एलान के साथ मामले को साफ़ किया कि MeitY नोडल एजेंसी होगी. इसके अलावा, ‘कमांड एंड कंट्रोल’ मॉडल के नियमन के लिए आवश्यक होता है कि नियामक निकाय अनुपालनों (compliances) को कमोबेश स्पष्ट शर्तों के रूप में निर्दिष्ट करे और उसके पास इन्हें लागू कराने और दंडित (उल्लंघन की स्थिति में) करने की शक्तियां होनी चाहिए. AI की गतिशील प्रकृति इसके हर संभव उपयोग या इससे उत्पन्न होने वाले ज़ोखिम की कल्पना करने के काम को और जटिल बना देती है. इसके अलावा, कंप्यूटेशन सहसंबंधों को व्यक्त करते हैं, जो यह ऑडिट करना और समझना मुश्किल बना देता है कि कोई एल्गोरिदम परिणाम क्यों प्रदर्शित हुआ.

आर्थिक सर्वेक्षण 2020-21 ने यह चिह्नित किया कि भारतीय प्रशासनिक प्रक्रियाएं हर संभावना को पहले ही रोककर ज़रूरत से ज्यादा नियमन की ओर चली जाती हैं, जो अनिवार्यत: फ़ैसले किये जाने में अपारदर्शिता की ओर ले जाता है. एक समाधान के रूप में, यह प्रस्ताव रखता है कि नियमन के पारंपरिक तरीक़े को छोड़ सिद्धांत-आधारित नियमन की ओर जाया जाए. यह बदलाव नियामक विवेकाधिकार की अनुमति देगा, लेकिन इसे बढ़ी हुई पारदर्शिता, पहले से तय जवाबदेही, बाद के लिए तय समाधान प्रणालियों से संतुलित किया जायेगा. नीति आयोग ने एक सुस्थिर सिद्धांत-आधारित ढांचा प्रस्तावित किया है और CET को AI के हरेक उपयोग से जुड़ी विशिष्टताओं की पहचान करने का कार्यभार सौंपा है. हालांकि, अब भी कई सवाल बने हुए हैं, जैसे कि पहले से विभिन्न उपयोग में लगे AI के लिए ज़ोखिम आकलन प्रणाली और अनुपालन ढांचे का अभाव. इसके अलावा, CET की सदस्यता के मानदंड दस्तावेजों में अनुत्तरित हैं, लेकिन पारदर्शिता और जवाबदेही सुनिश्चत करने के लिहाज़ से ये अहम हैं. आगे जैसे-जैसे NPAI आकार लेगा, MeitY को प्रस्तावित दृष्टिकोण की प्रभावशीलता तय करने में केंद्रीय महत्व के सवालों के समाधान के लिए नीति आयोग के दृष्टिकोण दस्तावेजों का सहारा लेना चाहिए.

नोडल एजेंसी को लेकर नीति आयोग और MeitY के बीच भ्रम की स्थिति होना NPAI को लागू करने में देरी की मुख्य वजहों में से एक है. इस मामले को हल करने के लिए, प्रधानमंत्री के प्रधान वैज्ञानिक सलाहकार के. विजय राघवन की अगुवाई वाली कमेटी बनायी गयी, जिसने आख़िरकार सितंबर 2020 में इस एलान के साथ मामले को साफ़ किया कि MeitY नोडल एजेंसी होगी.

ज़ोखिम आकलन की प्रणालियां

ज़ोखिम-आधारित नियामक दृष्टिकोण की वैधता ज़ोखिमों की पहचान और उनके मानदंड निर्धारित करने के लिए अपनायी गयी प्रणाली पर निर्भर करती है. इसे शुरू में ही निपटा लेने की ज़रूरत है, क्योंकि पूरा नियामक दृष्टिकोण ज़ोखिम के स्तर के अनुरूप हरकत में आने पर आधारित है. और, ज़ोखिम के स्तर के विभाजन के लिए अपने गये मानदंडों में स्पष्टता नहीं होने पर प्रस्ताव अधूरा रहेगा. नीति आयोग ने नैतिक मुद्दों या ज़ोखिमों के प्रभाव की पहचान करने और परिभाषित करने के लिए एक दृष्टिकोण मुहैया कराया है, जिसमें इन्हें दो बड़ी श्रेणियों में बांटा गया है-  प्रणालियों से जुड़े मुद्दे और समाज से जुड़े मुद्दे. इन्हें दस्तावेज के भाग-1 में उदाहरणों के ज़रिये स्पष्ट किया गया है. ये मुद्दे Narrow AI या उन AI प्रणालियों से संबंधित हैं जिन्हें निर्दिष्ट चुनौतियों को हल करने के लिए डिजाइन किया जाता है. प्रणालियों से जुड़े मुद्दों में AI प्रणालियों की डिजाइन चॉइस से निर्देशित नतीजों के चलते प्रभावित हितधारकों पर पड़ने वाला सीधा असर शामिल होता है, जैसेकि स्कूलों में हाजिरी दर्ज करने के लिए फेशियल रिकग्निशन टेक्नोलॉजी के इस्तेमाल से बच्चों के लिए निजता के ज़ोखिम. समाज से जुड़े मुद्दों में प्रभावित हितधारकों पर पड़ने वाला परोक्ष असर शामिल है, जो उस देशकाल के चलते उत्पन्न होता है जिसमें कि AI समाधान अपनाये जाते हैं, जैसेकि नागरिकों की नौकरियों पर ऑटामेशन का असरEU जैसे दूसरे अधिकार क्षेत्रों (jurisdictions) ने इसी तरह का ज़ोखिम-आधारित दृष्टिकोण अपनाया है और ज़ोखिम के लिए पैमाना- अस्वीकार्य ज़ोखिम, उच्च ज़ोखिम, सीमित ज़ोखिम और न्यूनतम ज़ोखिम- उपलब्ध कराया है. लेकिन नीति आयोग ने इस पैमाने और ढेरों संभावनाओं व नतीजों पर विचार के साथ उससे जुड़े रिस्क मैट्रिक्स को परिभाषित करने से परहेज किया है.

पहले से इस्तेमाल हो रही AI के लिए अनुपालन

#AIForAll को आगे बढ़ाने के लिए भारत में बहुत से नागरिक उपयोगों के लिए AI को पहले ही लगाया जा चुका है. MeitY ने IndiaAI पोर्टल के साथ मिलकर आज़ादी के 75वें साल के मौके पर ‘75@75 India’s AI Journey’ रिपोर्ट जारी की है. केंद्रीय इलेक्ट्रॉनिक्स एवं सूचना तकनीक राज्य मंत्री राजीव चंद्रशेखर ने इसमें कहा है, ‘डिजिटल कायाकल्प के लिए जनादेश को सरकार उच्च प्राथमिकता देती है, जिसमें लोक सेवाओं को पहुंचाने में नवाचार (innovation), हाई-स्पीड कनेक्टिविटी नेटवर्क, साइबर रणनीति, क्वांटम कंप्यूटिंग और AI पर ध्यान केंद्रित करना शामिल है’. यह संग्रह सामाजिक-आर्थिक चुनौतियों के लिए संभावनाओं की एक झलक पेश करता है, जिन्हें AI स्वास्थ्य देखभाल, स्वच्छता, शिक्षा, और अंतिम छोर तक सेवाओं को पहुंचाने जैसे क्षेत्रों में हल कर सकती है. बदक़िस्मती से, विभिन्न उपयोगों में लगी AI में कुछ ऐसी प्रणालियां भी शामिल हैं जो उपभोक्ताओं के लिए ज़ोखिम बढ़ाती हैं. उदाहरण के लिए, दिल्ली और तमिलनाडु जैसे राज्यों ने निजता के ज़ोखिमों, बच्चों की ठीक-ठीक पहचान करने में तकनीक की सीमाओं इत्यादि के बावजूद दक्षता बढ़ाने के वास्ते स्कूलों में हाजिरी दर्ज करने के लिए FRT को अपनाया है. भाग-2 यह ज़िक्र ज़रूर करता है कि विभिन्न ज़ोखिमों से मौजूदा क़ानूनों के तहत निपटा जा सकता है, लेकिन इन AI उपयोगों का नीति आयोग के सिद्धांतों या मौजूदा क़ानूनों के अनुरूप अनुपालन सुनिश्चित करने के लिए कोई फ्रेमवर्क मुहैया नहीं कराता. AI उत्पादों और सेवाओं के लिए मौजूदा क़ानूनी ढांचे (जैसे उपभोक्ता सुरक्षा अधिनियम, 2019, भारतीय दंड संहिता, 1860, भारतीय मानक ब्यूरो अधिनियम, 1986) के तहत उपभोक्ताओं की सुरक्षा सुनिश्चित करने के लिए उत्पाद दायित्व व्यवस्था का भी CET द्वारा अध्ययन किया जाना चाहिए, ताकि एआई से नुक़सानों की रोकथाम की जा सके.

EU जैसे दूसरे अधिकार क्षेत्रों (jurisdictions) ने इसी तरह का ज़ोखिम-आधारित दृष्टिकोण अपनाया है और ज़ोखिम के लिए पैमाना- अस्वीकार्य ज़ोखिम, उच्च ज़ोखिम, सीमित ज़ोखिम और न्यूनतम ज़ोखिम- उपलब्ध कराया है. लेकिन नीति आयोग ने इस पैमाने और ढेरों संभावनाओं व नतीजों पर विचार के साथ उससे जुड़े रिस्क मैट्रिक्स को परिभाषित करने से परहेज किया है.

एआई गवर्नेंस के लिए वितरित, मगर सार्थक प्रयास

नियामक व्यवस्था लागू होने तक, भाग-2 ने जिम्मेदार AI की नींव डालने के लिए उद्योग, सरकार और अकादमिक जगत के लिए अलग-अलग भूमिकाओं का प्रस्ताव रखा है. इसमें CET के तहत उद्योग और सरकार के बीच बहु-विषयी हितधारक भागीदारी (multidisciplinary stakeholder engagement) के साथ-साथ तकनीकी एवं पार-विषयक (cross-disciplinary) रिसर्च के लिए समर्थन देना शामिल है. यह सहयोगात्मक दृष्टिकोण सरकारी नियामक को उन मुश्किल सवालों का हल खोजने के लिए एक तंत्र प्रदान करता है जो अनुत्तरित रह गये हैं. और, उन प्रस्तावों को लागू करता है जो ज़ोखिमों के अनुपात में प्रतिक्रिया देते हुए और न्यायसंगत ढंग से लाभों को वितरित करते हुए नवाचार को संतुलित करते हैं. उदाहरण के लिए नागर विमानन मंत्रालय ने ड्रोन के ज़रिये सामान्य दृष्टि सीमा से परे (Beyond Visual Line of Sight या BVLoS) डिलीवरी के लिए ड्रोन नियमावली 2021 के तहत एक इन्क्रीमेंटल दृष्टिकोण अपनाया है. ऐसा उद्योग से मिले फीडबैक को ध्यान में रखकर और विभिन्न प्रयोगों के ज़रिये तकनीक की सीमाओं और ज़ोखिमों की बारीक समझ निर्मित करके किया गया है .

हालांकि, इस दृष्टिकोण को CET और उसके कार्य समूहों में सार्थक योगदान देने के लिए हितधारकों के लिए एक सुपरिभाषित सदस्यता मानदंड द्वारा समर्थित होना ही चाहिए. 2018 में, MeitY ने इन-इन विषयों पर नीतिगत ढांचे प्रस्तावित करने के लिए चार कमेटियां गठित की थीं- a) प्रमुख क्षेत्रों में राष्ट्रीय मिशनों की पहचान के लिए AI का लाभ उठाना, b) AI के लिए प्लेटफार्म और डाटा, c) कौशलीकरण (skilling) जैसी मुख्य तकनीकी क्षमताओं का मानचित्रण, और d) साइबर सुरक्षा, सेफ्टी, कानूनी व नैतिक मुद्दे. इन कमेटियों में क़ानूनी विशेषज्ञों और समाज विज्ञानियों की कोई भागीदारी नहीं थी. इस तरह की चर्चाओं में उनकी भागीदारी सुनिश्चित करना अति आवश्यक है क्योंकि ‘निष्पक्षता’ जैसे मूल्यों की बहुत सारी परिभाषाएं मौजूद हैं और मात्रात्मक क्षेत्र (quantitative domain) में अपनाये गये दृष्टिकोण सामाजिक संरचनाओं की बारीकियों और उनके पावर डायनामिक्स को पर्याप्त रूप से स्वीकार कर पाने में अक्सर विफल रहते हैं. एक प्रयत्नशील बहु-विषयी सहयोग यह सुनिश्चित करेगा कि लोक सुरक्षा के लिए value trade-offs (एक चीज पाने के लिए दूसरी को छोड़ने) का सावधानीपूर्वक मूल्यांकन किया जाए.

आत्म-नियमन और सरकार-नीत नियमन का सतर्क संयोजन उद्योग जगत को यह बड़ा मौका देता है कि वह आगे आये और सिद्धांतों और सदंर्भगत आवश्यकताओं के अनुरूप कार्यपद्धति विकसित करते हुए ज़रूरत से ज्यादा नियमन से बच सके.

2022 में वित्तीय सेवाओं, नौकरी पर रखने, स्वास्थ्य, शिक्षा, सोशल मीडिया मंचों, और क़ानून प्रवर्तन में AI का इस्तेमाल पूरी दुनिया में कड़ी निगरानी में रहेगा. AI के नियमन के लिए नीति आयोग का आशावादी और महत्वाकांक्षी दृष्टिकोण सराहनीय है. आत्म-नियमन और सरकार-नीत नियमन का सतर्क संयोजन उद्योग जगत को यह बड़ा मौका देता है कि वह आगे आये और सिद्धांतों और सदंर्भगत आवश्यकताओं के अनुरूप कार्यपद्धति विकसित करते हुए ज़रूरत से ज्यादा नियमन से बच सके. चाहे जो हो, MeitY को सिद्धांतों का सुचारु अनुपालन सुनिश्चित करने और नागरिकों के लिए शिकायत निवारण कार्यपद्धति विकसित करने के वास्ते फ्रेमवर्क डिजाइन करने और जिम्मेदारियां तय करने के लिए हितधारकों के साथ काम करना ही होगा.

ओआरएफ हिन्दी के साथ अब आप FacebookTwitter के माध्यम से भी जुड़ सकते हैं. नए अपडेट के लिए ट्विटर और फेसबुक पर हमें फॉलो करें और हमारे YouTube चैनल को सब्सक्राइब करना न भूलें. हमारी आधिकारिक मेल आईडी [email protected] के माध्यम से आप संपर्क कर सकते हैं.


The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.