Author : Raj Shekhar

Published on Mar 11, 2022 Updated 0 Hours ago

चूंकि आर्टिफ़िशियल इंटेलिजेंस (AI) बहुत तेज़ी से विकसित हो रहा है, तो सरकार के नेतृत्व में इस उद्योग को ख़ुद से नियमित करने वाली एक मज़बूत व्यवस्था का निर्माण किया जाना चाहिए.

एक उत्तरदायी आर्टिफ़िशियल इंटेलिजेंस का निर्माण कैसे किया जाए?

जब बाज़ार काम करना बंद कर देते हैं तो बिना दख़लंदाज़ी वाले अर्थशास्त्र की वैधानिकता और सरकार में जनता का भरोसा बहाल करने के लिए किसी न किसी तरह की दख़लंदाज़ी बहुत अहम हो जाती है. ऐतिहासिक रूप से देखें तो इस दख़लंदाज़ी ने अक्सर वैधानिक नियम-क़ायदों का रूप धरा है, जिसमें सरकार को ये अधिकार मिल जाता है कि वो कुछ तयशुदा तरीक़ों से नियमित किए जाने वालों को एक ख़ास मक़सद हासिल करने के लिए ज़रूरी निर्देश दे और जो लोग इसका पालन न करें उनके ख़िलाफ़ सख़्त पाबंदियां लगाई जाएं. पर्यावरण संरक्षण के ज़्यादातर क़ानून इसी कमान और नियंत्रण (CAC) वाली नियमन व्यवस्था के अंदर आते हैं.

एनालॉग वाली दुनिया में जब कंपनियां आहिस्ता चलती थीं और नए बाज़ार विकसित करने में कई दशक लग जाते थे, तब क़ानून बनाने वाले और विधायी नियमन करने वालों के पास इस बात का पर्याप्त मौक़ा होता था जिसमें वो कमान और नियंत्रण वाले ‘आदर्श’ नियमों का सुझाव दे सकें, ताकि बाज़ार के काम-काज में आई गड़बड़ी को दुरुस्त किया जा सके. लेकिन, हम सबको मालूम है कि आज बेहद तेज़ी और नज़दीकी से जुड़ी दुनिया पर ये बात अब लागू नहीं होती है. क्योंकि आज कंपनियां गीगाबाइटों की रफ़्तार से चलती हैं और कारोबार के नए मॉडल रातों-रात खड़े हो जाते हैं. इस बदलाव की वजह से तेज़ी से हो रही तकनीकी तरक़्क़ी से पैदा हो रहे जोखिमों पर क़ाबू पाने के लिए कमान और नियंत्रण वाली नियमन व्यवस्था में गंभीर समस्याएं खड़ी हो रही हैं.

इस लेख में आर्टिफ़िशियल इंटेलिजेंस के क्षेत्र में बेहद तेज़ रफ़्तार से हो रहे इनोवेशन और उनको अपनाने से जुड़े फ़ायदों और जोखिमों के नियमन में कमान और नियंत्रण वाली व्यवस्था के कारगर साबित न होने की समीक्षा करेंगे.

इस लेख में आर्टिफ़िशियल इंटेलिजेंस के क्षेत्र में बेहद तेज़ रफ़्तार से हो रहे इनोवेशन और उनको अपनाने से जुड़े फ़ायदों और जोखिमों के नियमन में कमान और नियंत्रण वाली व्यवस्था के कारगर साबित न होने की समीक्षा करेंगे. ऐसी स्थिति में सरकार की अगुवाई में ख़ुद उद्योग द्वारा अपना नियमन करने को ही नियम क़ायदे लागू करने का वैकल्पिक मॉडल बताकर उसे आगे बढ़ाया जा रहा है, जिससे कि आर्टिफ़िशियल इंटेलिजेंस पर आधारित उत्पादकता के लाभ और जनहित के अवसरों को भुनाया जा सके और इसके साथ साथ आर्टिफ़िशियल इंटेलिजेंस को अपनाने से जुड़े जनता के अहम जोखिमों की काट भी निकाली जा सके.

कमान और नियंत्रण (CAC) वाली नियमन व्यवस्था कारगर क्यों नहीं है?

आम तौर पर CAC के नियम, इसके दायरे में आने वालों के ऊपर नियमों का पालन करने की बड़ी ज़िम्मेदारी का बोझ डाल देते हैं. इसके साथ साथ ये नियम क़ायदे, इनका पालन करने की निगरानी और लागू करने की नई व्यवस्था बनाने की मांग करते हैं, जिससे सरकारी ख़ज़ाने पर भारी बोझ पड़ता है. इसी वजह से CAC के नियामकों को अपने विषयों और नियमन का दायरा तय करने को लेकर बहुत सावधानी बरतने की ज़रूरत होती है. इसके लिए उन्हें बिल्कुल सटीक क़दम उठाने होते हैं, जिससे न तो नियमों का बोझ बहुत ज़्यादा हो जाए और न ही कहीं कमी रह जाए. फिर ये नियम इस तरह से तैयार किए जाने चाहिए जो नियामक अधिकारियों और इन नियमों का पालन करने वाले, यानी दोनों पक्षों की समझ में आसानी से आने चाहिए. तभी इन्हें तसल्लीबख़्श तरीक़े से लागू किया जा सकेगा. विश्वसनीय तरीक़े से ऐसा कर पाने के लिए CAC के नियामकों को इस बात की भी अच्छी समझ दिखानी होती है कि वो आख़िर किस क्षेत्र को नियमित करना चाहते हैं. फिर उनमें ऐसी क्षमता होनी चाहिए जिससे वो ऐसे उपाय तैयार कर सकें, जो नियामक क्षेत्र और विषयों की असमानताओं के हिसाब से ख़ुद को ढाल सकें. अगर इनमें से कोई भी शर्त पूरी नहीं होती है, तो उसके नतीजे में तैयार होने वाली नियामक व्यवस्था के बेअसर होने या फिर अपने मक़सद को पूरी तरह हासिल कर पाने में नाकाम रहने का डर रहता है.

आर्टिफ़िशियल इंटेलिजेंस की तरक़्क़ी और उसे सही दिशा में ले जाने के लिए अधिकतम रूप से कारगर नियामक प्रतिक्रिया, कम और मध्यम आमदनी वाले देशों में तो और भी बड़ी चुनौती बन जाती है, क्योंकि इन देशों में नियामक संस्थाएं लगातार संसाधनों की कमी से जूझती रहती हैं.

आर्टिफ़िशियल इंटेलिजेंस पर आधारित तकनीकें तूफ़ानी रफ़्तार से बदल रही हैं. गार्टनर के मुताबिक़, ‘विकास की अत्यधिक तेज़ रफ़्तार वाले चक्र (Figure 1 देखें) से विकसित हो रही तकनीकों की औसत से ज़्यादा संख्या ऐसी है, जो विकसित होने के दो से पांच साल के भीतर अपना ली जाती हैं’. आर्टिफ़िशियल इंटेलिजेंस के क्षेत्र में इनोवेशन की बेहद तेज़ रफ़्तार से बदलाव वाली दुनिया, इस्तेमाल करने वालों और उन्हें अपनाने को लेकर एक तयशुदा जोखिमों और फ़ायदों का विश्लेषण करके तय समय के भीतर उनका नियमन करना मुश्किल बना देता है. आर्टिफ़िशियल इंटेलिजेंस की तरक़्क़ी और उसे सही दिशा में ले जाने के लिए अधिकतम रूप से कारगर नियामक प्रतिक्रिया, कम और मध्यम आमदनी वाले देशों में तो और भी बड़ी चुनौती बन जाती है, क्योंकि इन देशों में नियामक संस्थाएं लगातार संसाधनों की कमी से जूझती रहती हैं.

Figure 1: आर्टिफ़िशियल इंटेलिजेंस का हाइप चक्र 2021

स्रोत: गार्टनर (सितंबर 2021)

इसी वजह से ये अनुमान लगाना मुश्किल नहीं है कि आर्टिफ़िशियल इंटेलिजेंस को अपनाने से जुड़े जोखिमों के प्रबंधन के लिए कमान और नियंत्रण वाली नियामक व्यवस्था के विषय और दायरे को ठीक से परिभाषित कर पाना मुश्किल है. आर्टिफ़िशियल इंटेलिजेंस की परिभाषा और यूरोपीय आयोग के प्रस्तावित आर्टिफ़िशियल इंटेलिजेंस एक्ट के तहत आने वाले इस्तेमाल के मामलों को लेकर दुविधाएं और दायरे ठीक से परिभाषित नहीं हैं. इस क़ानून की पहले ही आम नागरिक संगठनों और तकनीकी समुदाय की ओर से काफ़ी आलोचना हो रही है. ये तय है कि नियामक व्यवस्था को लेकर ऐसे ग़लत संवाद से आर्टिफिशियल इंटेलिजेंस और उद्यमिता की गतिविधियों का या तो ज़रूरत से ज़्यादा नियमन हो जाएगा या फिर बेहद कम होगा. फिर इस उद्योग के किरदारों के बीच नियमों को लेकर अनिश्चितता बनी रहेगी. ऐसे माहौल में आर्टिफ़िशियल इंटेलिजेंस को नियमित करने के लिए बनाई गई व्यवस्था, आर्टिफ़िशियल इंटेलिजेंस से जुड़े उद्योग के विकास और इसका दायरा व्यापक करने की संभावना को गंभीर रूप से क्षति पहुंचा सकते हैं और इससे इनोवेशन और निवेश दोनों को झटका लग सकता है. इससे आर्टिफ़िशियल इंटेलिजेंस की मदद से जनता के फ़ायदे और उत्पादकता बढ़ाने जैसे लाभ हासिल नहीं हो सकेंगे और इसके साथ साथ आर्टिफ़िशियल इंटेलिजेंस को अपनाने की राह में आने वाली जनता की सुरक्षा संबंधी चिंताओं को भी दूर नहीं किया जा सकेगा. क्योंकि इस्तेमाल के जोखिम भरे मामले नियमन के दायरे से बाहर हो जाएंगे.

नियमन का वैकल्पिक नज़रिया क्या है?

आर्टिफ़िशियल इंटेलिजेंस की तरक़्क़ी की रफ़्तार से क़दम मिलाकर चलने वाले नियम बनाने की चुनौती हमें सरकार के नेतृत्व में उद्योग द्वारा ख़ुद से नियमन (GIS) की ऐसी व्यवस्था की संभावनाएं तलाशने को प्रेरित करती है, जो ख़ुद ही आर्टिफ़िशियल इंटेलिजेंस को अपनाने से पैदा हुए जोखिम वाले हालात के हिसाब से ख़ुद को ढाल सके. GIS व्यवस्था के तहत, सरकार सभी साझीदारों से बड़े पैमाने पर सलाह मशविरा करके नियामक लक्ष्य या सिद्धांतों को परिभाषित कर सकती है. सरकार उन मक़सदों को हासिल करने के तौर तरीक़ों का सुझाव देने से ख़ुद को रोक सकती है; इसके बजाय, उचित मानक और बर्ताव के नियम तय करने की ज़िम्मेदारी उद्योग ले सकता है. फिर सरकार इन नियमों पर मुहर लगाने का विकल्प अपना सकती है. GIS आधारित व्यवस्था में सरकार की निगरानी और उद्योगों की विशेषज्ञता की मदद से एक बदली हुई परिस्थिति के अनुसार ढल जाने वाली लचीली और फुर्तीली नियामक व्यवस्था बनाई जा सकती है, जो निजी इनोवेशन और उद्यमिता के साथ-साथ जनता की सुरक्षा के हितों के बीच सटीक संतुलन क़ायम कर सके.

GIS व्यवस्था के तहत, सरकार सभी साझीदारों से बड़े पैमाने पर सलाह मशविरा करके नियामक लक्ष्य या सिद्धांतों को परिभाषित कर सकती है. सरकार उन मक़सदों को हासिल करने के तौर तरीक़ों का सुझाव देने से ख़ुद को रोक सकती है

फिर भी, आलोचक इस नियामक नज़रिए की ये कहकर आलोचना कर सकते हैं कि इससे मुनाफ़े पर केंद्रित निजी क्षेत्र द्वारा ख़ुद का ही नियमन करने वाली ऐसी व्यवस्था लागू करने से हितों का टकराव होगा, जहां पर जनता के हित निजी फ़ायदे के उलट माने जाते हैं. इस नजरिए के तहत इस बात की आशंका तो हमेशा बनी रहेगी कि जो कंपनियां नियमों का पालन नहीं करती हैं, वो ही नियामक संस्था पर हावी हो जाएं और फिर वो  ख़ुद से अपना असरदार नियमन न कर सकें. जिससे जनता के हित के ख़िलाफ़ और घातक परिस्थितियां पैदा हो सकती हैं. मिसाल के तौर पर अगर आर्टिफिशियल इंटेलिजेंस के किसी इनोवेशन को अपनाने से जुड़े जोखिम कम करने में आने वाला ख़र्च, उस कंपनी के मुनाफ़े से कहीं ज़्यादा है, और कंपनी कम अच्छे मानक वाले अपने उत्पाद बाज़ार में उतारती है, तो उद्योग के ख़ुद का नियमन करने वाली व्यवस्था लागू होने से निश्चित रूप से ये उसके नाकाम होने की मिसाल बन जाएगा.

हालांकि, उद्योग द्वारा ख़ुद का नियमन करने की ये आदर्श आलोचना, वैसे तो उचित लगती है. लेकिन, आलोचना के इस तर्क को हम प्रस्तावित GIS व्यवस्था पर उचित रूप से तीन मुख्य वजहों से लागू नहीं कर सकते हैं:

पहला, प्रस्तावित नियामक तरीक़े की बुनियादी शर्त ही यही है कि संबंधित उद्योग अपने काम-काज के नियमन के जो प्रस्ताव रखेगा वो स्पष्ट रूप से सरकार द्वारा तय सिद्धांतों के अनुरूप होने चाहिए. इसमें आर्टिफिशियल इंटेलिजेंस के उद्योग को ये दिखाना होगा कि वो ख़ुद का नियमन करने में बिल्कुल सही तरीक़ा अपनाएगी, जिससे उन तय लक्ष्य और सिद्धांतों का पालन हो सके, जिन्हें सरकार ने तय किय है. ये बिना किसी सरकारी दख़लंदाज़ी के विशुद्ध रूप से ख़ुद का नियमन करने वाली व्यवस्था से अलग होगा. आसान शब्दों में कहें तो स्वयं से नियमन की इस प्रस्तावित व्यवस्था में शिकार के सारे नियम तय करने का अधिकार शेर के पास ही नहीं होगा. इसीलिए निजी फ़ायदों और जनहित के बीच तय टकरावों को लेकर जताई जा रही आशंकाएं इस व्यवस्था से ख़ारिज हो जाती हैं. ख़ास तौर से तब और जब सरकार अहम नियामक प्रश्नों और आर्टिफिशियल इंटेलिजेंस को अपनाने से जुड़े नैतिक प्रश्नों को लेकर चल रही बहस में जनता को जुड़ने को बढ़ावा देने के लिए बिल्कुल राज़ी हो.

दूसरी, आर्टिफिशियल इंटेलिजेंस को उत्तरदायी तरीक़े से अपनाने से बाज़ार से होने वाले फ़ायदे बिल्कुल साफ़ दिखाई दे रहे हैं. आर्टिफिशियल इंटेलिजेंस पर आधारित उद्योग ये मान रहे हैं कि जोखिम के मूल्यांकन और उन्हें कम करने के औज़ार और संसाधनों में सामरिक निवेश से उनके शेयर धारकों को मध्यम से लंबी अवधि में कितना फ़ायदा हो सकता है. उन्हें ये भी पता है कि AI की ऐसी बेहतरीन व्यवस्था अपनाने से कितने फ़ायदे हो सकते हैं, जहां भरोसे और सुरक्षा को प्राथमिकता दी जाती हो. आर्टिफिशियल इंटेलिजेंस पर आधारित उद्योगों और उनके शेयरधारकों के लिए ये मूल्य ही ऐसे बेहतर उत्पाद या सेवा की गुणवत्ता वाली सेवा विकसित करने का हौसला देंगे, जिससे वो अन्य कंपनियों से मुक़ाबला करके आगे निकल सकें. अच्छे और काबिल कर्मचारी और ग्राहक जुटाकर उन्हें अपने साथ जोड़े रख सकें और बोली लगाने की होड़ में बढ़त हासिल कर सकें.

आर्टिफिशियल इंटेलिजेंस का उद्योग भी ये जानते हैं कि आज अगर बेहद क़रीब से जुड़ी दुनिया में सार्वजनिक रूप से उनके अनैतिक उपकरणों की आलोचना या निंदा की जाएगी तो उससे उनके लिए कितना बड़ा ख़तरा है. 

तीसरा, ये कि दुनिया भर में बहुत से नागरिक संगठनों और इस विषय से जुड़े थिंक टैंक AI को अपनाने के जोखिमों का पता लगाकर उनकी जानकारी देने में जुटे हुए हैं. ये संगठन ये जोखिम कम करने के उपाय भी सुझा रहे हैं और ये भी सुनिश्चित करने की कोशिश कर रहे हैं जिससे AI पर आधारित उद्योगों के लिए निष्पक्षता, पारदर्शिता और जवाबदेही की प्राथमिकताएं बनी रहें. इसके साथ ही आर्टिफिशियल इंटेलिजेंस का उद्योग भी ये जानते हैं कि आज अगर बेहद क़रीब से जुड़ी दुनिया में सार्वजनिक रूप से उनके अनैतिक उपकरणों की आलोचना या निंदा की जाएगी तो उससे उनके लिए कितना बड़ा ख़तरा है. इस उद्योग को ये एहसास है कि फिर ये जोखिम साबित हो सकें या फिर आरोपों की शक्ल में ही हों, मगर इनसे उद्योग द्वारा ख़ुद का नियमन कर पाने की क्षमता में सरकार का भरोसा पलक झपकते ही हमेशा के लिए उठ जाएगा. फिर इसके बाद सरकार की एजेंसियां ऐसे उपाय लागू करेंगी जो उसके विकास में बाधक बन सकती हैं. नियमन में गड़बड़ी पर ऐसे झटके लगने के ख़तरे की लगातार लटकती तलवार को विद्वान अक्सर, ‘व्यवस्था का साया’ कहते हैं. ये निश्चित रूप से कंपनियों को उचित बर्ताव के लिए प्रेरित करेगा. इसकी एक अच्छी मिसाल हाल ही में मेटा द्वारा की गई ये घोषणा है जिसमें कंपनी ने अपने वर्चुअल रियलिटी मंचों पर ‘निजी दायरे’ का बटन- होराइज़न वर्ल्ड- उपलब्ध कराने का वादा किया है. कंपनी ने ये एलान अपने प्लेटफॉर्म पर यौन शोषण को लेकर सोशल मीडिया पर जनता की तरफ़ से की जा रही आलोचना के जवाब में उठाया है.

निष्कर्ष

वैसे तो GIS को आर्टिफिशियल इंटेलिजेंस अपनाने से जुड़े जोखिमों के प्रबंधन के पहले विकल्प के तौर पर देखा जाना चाहिए. लेकिन कुछ मामलों में शायद इसे उचित न माना जाए. मिसाल के तौर पर इस्तेमाल के अपवाद वाले ऐसे मामले जहां एक ख़ास तरह का AI आधारित ऐप लगाने से जोखिम साफ़ और बहुत बड़ा है, जहां पर संविधान से मिले मूल अधिकार ही ख़तरे में हों. मिसाल के तौर पर फेशियल रिकॉग्निशन से पुलिस की निगरानी. वहां पर सरकार को चाहिए कि वो सुरक्षा के ज़रूरी प्रोटोकॉल तय कर दे और इनका पालन न करने वालों के ख़िलाफ़ सख़्त कार्रवाई की भी व्यवस्था कर दे. इसका सुझाव भारत में नीति आयोग जैसे थिंक टैंक भी दे चुके हैं.

हालांकि तब भी सक्रिय तरीक़े से उद्योग के भागीदारों से विस्तार से सुझाव लिए जाने चाहिए ताकि ऐसी किसी नियामक व्यवस्था को तैयार करने में मदद मिले, जो सटीक तरीक़े से लागू भी हो सके और जिन पर लागू की जाए उनकी समझ में भी आसानी से आ जाए, ताकि वो तय नियमों और प्रक्रियाओं का पालन सही ढंग से कर सकें. जैसा कि पहले चर्चा की गई है, उद्योग की तरफ़ से आए ये सुझाव आर्टिफिशियल इंटेलिजेंस पर आधारित बाज़ार और जनता को इन तकनीकों को अपनाने के दौरान आने वाले जोखिमों से बचाने वाले नियमों को सही रूप रंग में ढाल सकें.

ऐसे में हैरानी नहीं होनी चाहिए अगर उद्योगों द्वारा ख़ुद से नियमन के विचार पर शक करने वाले वालों जैसे कि गूगल के एथिकल AI की प्रमुख मार्गरेट मिशेल ने ज़ोर देकर कहा है कि जवाबदेह आर्टिफिशियल इंटेलिजेंस को अपनाने की कारगर नियामक व्यवस्था बनाने में उद्योगों से मिलने वाले सुझाव बहुत अहम हैं: ‘… जब आप कंपनी के अंदर काम कर रहे हों, तो आर्टिफिशियल इंटेलिजेंस की नैतिकता पर अर्थपूर्ण रिसर्च करना संभव है. क्योंकि तब आपको पता होता है कि किस तरह उत्पाद तैयार किए जाते हैं. अगर आप कभी भी ये जानना चाहते हैं कि निरीक्षण की प्रक्रिया क्या होनी चाहिए, तो आपके लिए ये समझना बहुत अहम हो जाता है कि मशीन लर्निंग के सिस्टम आख़िर बनाए कैसे जाते हैं.’

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.