अलग-अलग क्षेत्रों में आर्टिफिशियल इंटेलिजेंस (AI) और मशीन लर्निंग (ML) के तेज़ विकास ने इंसान के द्वारा निर्णय लेने की क्षमता को लगातार डेटा पर आधारित एल्गोरिदम से बदल दिया है. 2022 में दुनिया भर की 42 प्रतिशत कंपनियों ने AI को अपनाने की संभावना को लेकर खोज-बीन की है. इसकी वजह से हमारी रोज़ाना की ज़िंदगी को प्रभावित करने की एल्गोरिदम की ताक़त सबसे ज़्यादा हो गई है.
स्वचालित प्रक्रिया (ऑटोमेटेड प्रोसेसिंग) को अपनाने का मतलब है तेज़ और ज़्यादा सक्षम निर्णय लेना जो लागत कम करते हुए नतीजे के सटीक होने की संभावना को बढ़ा सकता है. लेकिन ये फ़ायदे पक्षपात और उपभोक्ताओं के नुक़सान को लेकर गंभीर चिंताओं के साथ जुड़े हुए हैं. इसमें अधूरे, प्रतिनिधित्व न करने वाले या ऐतिहासिक पक्षपात के साथ ट्रेनिंग डेटा होने पर ऐसा एल्गोरिदम बनेगा जिसमें इसी तरह के पैटर्न होंगे. एल्गोरिदम वॉच के द्वारा एक प्रयोग में दिखा कि गूगल विज़न क्लाउड ने काले रंग वाले एक व्यक्ति के साथ थर्मामीटर की तस्वीर को “गन” बताया जबकि हल्के रंग वाले एक व्यक्ति के साथ थर्मामीटर की इसी तरह की तस्वीर को “इलेक्ट्रॉनिक डिवाइस” बताया. उन्होंने अनुमान लगाया कि चूंकि ट्रेनिंग डेटा सेट में हिंसा वाले दृश्य के साथ ज़्यादातर काले रंग के लोगों को दिखाया गया होगा इसलिए कंप्यूटर ने अपने आप ये मतलब निकाल लिया होगा कि काले रंग को हिंसा के साथ जोड़ना है. अगर सार्वजनिक जगहों पर तकनीक का इस्तेमाल हथियार की पहचान जैसे उद्देश्यों के लिए किया जाए तो इस तरह की ग़लतियों का असली दुनिया में गंभीर नतीजा होगा.
एल्गोरिदम को ऐतिहासिक पक्षपातों को बढ़ाने या निर्णय लेने की प्रक्रिया में नए पक्षपातों को शामिल करने से रोकने की आवश्यकता को स्वीकार करने की वजह से रिस्पॉन्सिबल (ज़िम्मेदार) AI (RAI) की तरफ़ काम में तेज़ी आई है.
एल्गोरिदम को ऐतिहासिक पक्षपातों को बढ़ाने या निर्णय लेने की प्रक्रिया में नए पक्षपातों को शामिल करने से रोकने की आवश्यकता को स्वीकार करने की वजह से रिस्पॉन्सिबल (ज़िम्मेदार) AI (RAI) की तरफ़ काम में तेज़ी आई है. बिग टेक कंपनियों, विशेष रूप से गूगल, माइक्रोसॉफ्ट और IBM, ने आंतरिक RAI सिद्धांतों का निर्माण करने के काम का नेतृत्व किया. वैसे तो कंपनियों के द्वारा अपनाए गए सिद्धांतों की बारीकियां अलग-अलग हैं लेकिन इनमें व्यापक रूप से निष्पक्षता, पारदर्शिता, व्याख्या, निजता और सुरक्षा शामिल हैं. लेकिन मानक सिद्धांतों की अनुपस्थिति की वजह से महत्वपूर्ण रूप से लचीलेपन और स्व-नियमन पर निर्भरता बढ़ गई है[i]. इन मामलों को लेकर मार्ग-निर्देशन करने में छोटी कंपनियों को काफ़ी चुनौतियों का सामना करना पड़ता है. अध्ययन से पता चलता है कि लगभग 90 प्रतिशत कंपनियों (भारत में 85 प्रतिशत) ने नैतिक (एथिकल) AI को अपनाने में चुनौतियों का सामना किया है. अलग-अलग उद्योगों में AI को बढ़ावा देने या उसे आसान बनाने में बाहरी समर्थन की आवश्यकता है.
उपभोक्ताओं को नुक़सान से बचाने और ऊपर बताए गए सिद्धांतों को आगे बढ़ाने का एक सीधा तरीक़ा है AI में डिज़ाइन के द्वारा एक्सप्लेनेबिलिटी के दृष्टिकोण के ज़रिए सिस्टम में ज़िम्मेदारी का निर्माण करना. एक्सप्लेनेबिलिटी का अर्थ है एल्गोरिदम के निर्णय या काम करने के लिए स्पष्ट, समझने योग्य और न्यायसंगत कारण प्रदान करने की क्षमता. इसमें सिस्टम के काम-काज (स्वचालित प्रक्रिया के सामान्य संचालन के पीछे तर्क) और ख़ास फ़ैसले (किसी ख़ास फ़ैसले के पीछे दलील) शामिल होते हैं जो निर्माण करने वालों, उपयोगकर्ताओं और नियामकों को इस बात की अनुमति देते हैं कि वो निर्धारित करें कि जो फ़ैसले लिए गए हैं वो निष्पक्ष हैं या नहीं.
वैसे तो नैतिक AI के निर्माण के केंद्र में एक्सप्लेनेबिलिटी है लेकिन ये विशेष रूप से पेचीदा मानक है क्योंकि ये अपने साथ कई शर्तें और छिपी हुई लागत लेकर आती है. मुख्य चिंता है कि एक्स्प्लेनेबिलिटी की आवश्यकता किसी एल्गोरिदम के प्रदर्शन में रुकावट बनती है. एडवांस्ड मशीन लर्निंग मॉडल इनपुट डेटा और आउटपुट पूर्वानुमान के बीच जटिल, अप्रत्यक्ष संबंध को सीखकर ज़्यादा सटीक बन सकता है. हालांकि इन “ब्लैक बॉक्स” मॉडल का उनके फ़ैसलों की वैधता का पता लगाने के लिए व्याख्या करना मुश्किल हो सकता है[ii]. ज़्यादा व्याख्या वाले मॉडल की तरफ़ जाने के लिए मॉडल के नतीजों की सत्यता के साथ समझौता करना होगा. एक्सप्लेनेबिलिटी को मुख्यधारा में लाने की कोशिशों में ये प्रतिकूल संबंध एक महत्वपूर्ण चुनौती है.

रेखा-चित्र 1: : एक्यूरेसी और एक्सप्लेनेबिलिटी ट्रेड-ऑफ. स्रोत: हैकर, फिलिप एंड क्रेस्टेल, राल्फ एंड ग्रंडमैन, स्टीफन एंड नौमैन, फेलिक्स (2020). एक्सप्लेनेबल AI अंडर कॉन्ट्रैक्ट एंड टॉर्ट लॉ: लीगल इन्सेंटिव्स एंड टेक्निकल चैलेंजेज़. आर्टिफिशियल इंटेलिजेंस एंड लॉ. 28. 10.1007/s10506-020-09260-6.
कार्यक्षमता के नुक़सान के साथ अनुपालन का कंपनियों के लिए और अधिक प्रभाव हो सकता है. इसमें लोगों की तरफ़ से मांगी गई स्पष्टता प्रदान करना शामिल है. इसके अलावा व्यापार से जुड़ी गुप्त सूचनाएं और बौद्धिक संपदा से जुड़ी स्पष्टता प्रदान करने को लेकर संभावित संघर्ष भी शामिल हैं[iii]. इसका बड़ी कंपनियों, जिनके पास नये नियमों के अनुकूल ख़ुद को बदलने के लिए ज़्यादा संसाधन हैं, की तुलना में सूक्ष्म, लघु और मध्यम उद्योगों (MSME) एवं स्टार्ट-अप्स पर ज़रूरत से ज़्यादा असर पड़ सकता है. एक्सप्लेनेबिलिटी को अनिवार्य बनाना एक शुरुआती स्तर के उद्योग पर अनुपालन से जुड़ा एक अतिरिक्त बोझ होगा.
प्रदर्शन एवं नैतिकता के बीच समझौता कोई नई चीज़ नहीं है. निवेशकों ने बहुत पहले ये मान लिया था कि पर्यावरण संरक्षण आर्थिक उत्पादन की क़ीमत पर मिल सकता है.
प्रदर्शन एवं नैतिकता के बीच समझौता कोई नई चीज़ नहीं है. निवेशकों ने बहुत पहले ये मान लिया था कि पर्यावरण संरक्षण आर्थिक उत्पादन की क़ीमत पर मिल सकता है. पर्यावरण को लेकर जागरुकता बढ़ने के साथ सोच-समझकर निवेश में बढ़ोतरी हुई. 90 के दशक तक निवेशकों का ज़्यादा ध्यान सबसे ज़्यादा प्रदूषण फैलाने वालों से साफ़ तौर पर परहेज़ करना था लेकिन जल्द ही उन्होंने उन कंपनियों को सक्रिय रूप से तलाशना शुरू कर दिया जो जागरुक होकर प्रदूषण के असर को निपटाती हैं. हरित वित्त को विकसित किया गया ताकि सतत विकास की प्राथमिकता रखने वाले संगठनों के लिए वित्तीय प्रवाह के स्तर को बढ़ाया जा सके. ये आर्थिक विकास की निरंतरता पर चर्चा के केंद्र में है क्योंकि ये वित्तीय मुनाफ़े के साथ-साथ जलवायु के अनुकूल कार्यप्रणाली को बढ़ावा देता है. हरित वित्त सरकार और लोगों के लिए बाज़ार को अपनी प्राथमिकता का संकेत देने का एक तरीक़ा है. साथ ही ये उन कंपनियों के लिए मुआवज़ा भी है जो खुदाई का काम नहीं करके अपना लाभ छोड़ती हैं.
एक्सप्लेनेबिलिटी में किसी कंपनी के आर्थिक हितों और समाज पर उसके व्यापक असर के बीच इसी तरह की बातचीत शामिल है. AI सिस्टम की सुरक्षा को सुनिश्चित करने के लिए कंपनियों को लंबे समय के लिए लाभ पर समझौता और कम समय के लिए अनुपालन की लागत का भुगतान करना पड़ सकता है. हरित बॉन्ड या ESG फंड की तरह एक्सप्लेनेबल AI (XAI) को भी समर्पित वित्तीय साधनों के माध्यम से बढ़ावा दिया जा सकता है ताकि कंपनियों के नैतिक एवं जिम्मेदारी से भरे AI के लक्ष्य तक पहुंचने के लिए एक्सप्लेनेबिलिटी के निर्माण की लागत से पार पाने में समर्थन किया जा सके. XAI वित्त पोषण की शुरुआत और सफलता के लिए एक उचित नियामक रूप-रेखा की आवश्यकता होगी जिसे हरित वित्त के लिए रूप-रेखा के आधार पर बनाया जा सकता है[iv].
तालिका: XAI वित्त पोषण के लिए आदर्श नियामक रूप-रेखा

AI की शक्ति एवं विस्तार में ज़बरदस्त बढ़ोत्तरी के साथ एक्सप्लेनेबिलिटी के माध्यम से नैतिकता को इनोवेशन को लेकर बातचीत में सबसे आगे रखने की आवश्यकता है. वैसे तो एल्गोरिदम की समीक्षा के मानक में एक बढ़ता झुकाव है लेकिन मौजूदा क़ानूनी सिद्धांत एल्गोरिदम के आधार पर निर्णय लेने से निपटने के लिए ख़राब ढंग से तैयार है[v]. वर्तमान समय की नियामक व्यवस्था में कमी के माहौल में पारदर्शिता की मांग लोगों के बीच से उठनी चाहिए[vi]. यथास्थिति को बदलने के लिए संगठित एवं उद्देश्यपूर्ण वित्त पोषण की आवश्यकता होगी ताकि उद्योग की प्राथमिकता को बदला जा सके. डिजिटल अर्थव्यवस्था की गतिशीलता को देखते हुए उद्योग के शुरुआती दिनों में एक्सप्लेनेबिलिटी की एक संस्कृति को स्थापित करने की आवश्यकता है. अगर ऐसा नहीं हुआ तो बेहतर प्रदर्शन वाले एल्गोरिदम की स्थापना की दिशा में एक अपरिवर्तनीय झुकाव हो सकता है जो अपनी नैतिक बाध्यता को पूरा नहीं कर सकता है[vii].
References
[i][1] Deo, S. (2021). The Under-appreciated Regulatory Challenges posed by Algorithms in FinTech. Hertie School.
[ii] [2] Linardatos, P.; Papastefanopoulos, V.; Kotsiantis, S. Explainable AI: A Review of Machine Learning Interpretability Methods. Entropy 2021, 23, 18. https://dx.doi.org/10.3390/e23010018
[iii][3] Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation. International Data Privacy Law, 7(2).
[iv][4] Ghosh, Nath, & Ranjan. (2021, January). Green Finance in India: Progress and Challenges. RBI Bulletin.
[v][5] Gillis, T., & Spiess, J. (2019). Big Data and Discrimination. The University of Chicago Law Review, 86(2).
[vi][6] Pasquale, F. (2016). Black Box Society. Harvard University Press.
[vii][7] Deo, S. (2021). The Under-appreciated Regulatory Challenges posed by Algorithms in FinTech. Hertie School.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.