Expert Speak Raisina Debates
Published on Feb 06, 2024 Updated 22 Hours ago

ये सुनिश्चित करने के लिए कि आर्टिफिशियल इंटेलिजेंस के लाभ महसूस हों और जोख़िमों का भी समाधान हो, एल्गोरिदम ऑडिटिंग ये विश्लेषण करने में सहायता कर सकती है कि ये प्रणालियां कैसे काम करती हैं, और इस प्रक्रिया में व्यापक सामाजिक नुक़सानों की रोकथाम भी हो सकती है.

AI की ऑडिटिंग के मायने और भारत के लिए इसकी अहमियत

ये लेख हमारी श्रृंखला AI F4: फैक्ट्स, फिक्शन, फीयर्स एंड फैंटेसीज़ का हिस्सा है.


आर्टिफिशियल इंटेलिजेंस (AI विकास उपकरण और डाटासेट्स) तक बढ़ी हुई पहुंच के साथ भारत की सरकारी इकाइयां, कारोबार जगत और ग़ैर-लाभकारी संस्थाएं अभूतपूर्व रफ़्तार से AI प्रणालियों की तैनाती कर रही हैं, जिससे अक्सर करोड़ों उपयोगकर्ता प्रभावित होते हैं. अपनी शुरुआत के एक साल से भी कम अर्से में, चेहरे की पहचान करने वाले भारत सरकार के एल्गोरिदम डिजी यात्रा का उपयोग 17.4 लाख लोगों द्वारा विमानों में चढ़ने यानी हवाई यात्राओं के लिए किया जाने लगा है. हैपटिक जैसे संवादात्मक AI चैटबॉट से लेकर शेयरचैट जैसे मशीन लर्निंग-संचालित सामग्री निर्माता प्लेटफार्म तक, भारत के AI स्टार्ट अप तेज़ गति से आगे बढ़ रहे हैं और व्यक्तिगत रूप से इन्होंने 50 करोड़ से ज़्यादा उपयोगकर्ताओं को प्रभावित किया है. हालांकि इस व्यापक तैनाती के बीच, मौजूदा नुक़सानदेह सामाजिक पूर्वाग्रहों को दोहराने, मज़बूत करने या विस्तार करने को लेकर ऐसे एल्गोरिदम प्रणाली की प्रवृति के बारे में वाजिब चिंताएं सामने आती हैं. ये सुनिश्चित करने के लिए कि AI के फ़ायदे महसूस हों और उनसे जुड़े जोख़िमों का निपटारा हो, एल्गोरिदम ऑडिटिंग या लेखा परीक्षा एक अहम भूमिका निभा सकती है. इसके ज़रिए इस बात की पड़ताल हो सकती है कि ये प्रणालियां कैसे काम करती हैं, क्या वो इच्छित उद्देश्य के हिसाब से काम कर रही हैं और क्या इस प्रक्रिया में, संभावित रूप से व्यापक सामाजिक नुक़सानों की रोकथाम करती हैं. भारत की विविधतापूर्ण आबादी की डिजिटल सेवाओं तक पहुंच असमान है, जो पूर्वाग्रह से ग्रस्त यानी पक्षपातपूर्ण डेटासेट्स उत्पन्न कर सकती हैं. इस बात के मद्देनज़र कि भारत का सार्वजनिक क्षेत्र पहले से ही अपनी दक्षता बढ़ाने के लिए एल्गोरिदम निर्णय प्रक्रिया पर निर्भर रहता है, आगामी क़ानून में AI प्रणालियों की ऑडिटिंग की अहमियत पर निश्चित रूप से विचार किया जाना चाहिए. 

भारत का सार्वजनिक क्षेत्र पहले से ही अपनी दक्षता बढ़ाने के लिए एल्गोरिदम निर्णय प्रक्रिया पर निर्भर रहता है, आगामी क़ानून में AI प्रणालियों की ऑडिटिंग की अहमियत पर निश्चित रूप से विचार किया जाना चाहिए. 

एल्गोरिदम ऑडिटिंग क्या है?

स्पष्ट रूप से परिभाषित पैमानों के साथ विनियमित और पेशेवराना स्वरूप वाले वित्तीय ऑडिट (जो अच्छी तरह से स्थापित हैं) के विपरीत इस बात पर सर्वसम्मति का अभाव है कि AI एल्गोरिदम ऑडिट में क्या-क्या समाहित होते हैं. हालांकि, इन्हें आम तौर पर ऐसे मौजूदा प्रमाण को स्पष्ट रूप से पेश करने के तरीक़े के तौर पर देखा जाता है कि AI की तैनाती, प्रदर्शन के दावों से कैसे कम रह जाती हैं. एल्गोरिदम की ऑडिटिंग में इसका विभिन्न वातावरणों में परीक्षण शामिल होता है ताकि इसकी कार्यप्रणाली को समझा जा सके और कुछ पूर्व-परिभाषित निर्देशात्मक मानकों के संदर्भ में भी इसका आकलन किया जा सके. इनमें निष्पक्षता, पारदर्शिता और व्याख्यात्मकता शामिल है. इस प्रकार के ऑडिट फर्स्ट पार्टी (जैसे कंपनियों के भीतर आंतरिक दलों द्वारा संचालित), सेकेंड पार्टी (ठेकेदारों द्वारा संचालित), या थर्ड-पार्टी (ऑडिट लक्ष्य के साथ बिना किसी संविदात्मक संबंधों वाली इकाइयों या स्वतंत्र अनुसंधानकर्ताओं द्वारा संचालित) हो सकते हैं

ये क्यों अहम है?

एल्गोरिदम प्रणालियां नस्लवाद, वर्गवाद, लिंगवाद, सक्षमवाद, और भेदभाव के अन्य प्रकारों को आगे बढ़ा सकती हैं जिससे वास्तविक संसार में नुक़सान हो सकता है. चेहरे की पहचान करने में शीर्ष प्रदर्शन करने वाली प्रणालियों ने श्वेत पुरुषों की तुलना में गहरे रंग की त्वचा वाली महिलाओं की पांच से दस गुणा तक ग़लत पहचान की है. आवेदकों की साख तय करने के लिए इस्तेमाल किए जाने वाले एप्पल के क्रेडिट कार्ड एल्गोरिदम ने व्यवस्थित रूप से पुरुषों की तुलना में महिला ग्राहकों को लगभग 20 गुणा कम क्रेडिट लाइनें दी हैं. सार्वजनिक रूप से उपलब्ध 13 प्राकृतिक भाषा प्रोसेसिंग मॉडलों का परीक्षण करने वाले शोधकर्ताओं के एक समूह ने सभी मॉडलों में दिव्यांग लोगों के ख़िलाफ़ भारी अंतर्निहित पूर्वाग्रह पाया. इस प्रकार के पूर्वाग्रह मौजूदा समय की घिसी-पिटी धारणाओं को और गहरा करते हैं और विभिन्न कारणों के चलते मौजूद रहते हैं, जिनमें प्रशिक्षण डेटा में विविधता का अभाव, डेवलपर के पूर्वाग्रह और अनुपयुक्त मेट्रिक्स शामिल हैं. 

140 करोड़ की आबादी के साथ भारत हर दिन बड़ी तादाद में डेटा उत्पन्न करता है और इस तरह कल्पित रूप से AI प्रशिक्षण मॉडलों के लिए बेहतरीन प्रशिक्षण सामग्री मुहैया कराता है. 

पूर्वाग्रह से भरे एल्गोरिदम, ख़ासतौर से जब इन्हें भारत जैसे विविधता भरे देश में क्रियान्वित किया जाता है, ऐसी समस्या सामने रखते हैं जिसका समाधान किए जाने की दरकार है. 140 करोड़ की आबादी के साथ भारत हर दिन बड़ी तादाद में डेटा उत्पन्न करता है और इस तरह कल्पित रूप से AI प्रशिक्षण मॉडलों के लिए बेहतरीन प्रशिक्षण सामग्री मुहैया कराता है. हालांकि, 50 प्रतिशत से भी कम भारतीय इंटरनेट का उपयोग करते हैं, और तक़रीबन 33 प्रतिशत सोशल मीडिया का इस्तेमाल करते हैं. इंटरनेट तक पहुंच भी अनौपचारिक रूप से वितरित नहीं है और लिंग, जाति, क्षेत्र, ग्रामीण-शहरी इलाक़ों आदि में इसका वितरण असमान है. गूगल द्वारा किए गए इंटरनेट उपयोगकर्ताओं के सर्वेक्षण में संग्रहित डेटासेट में मुस्लिम और दलित आबादी का कम प्रतिनिधित्व पाया गया. इन वर्गों में इंटरनेट के प्रयोग के अभाव के चलते ऐसा नतीजा आया, जिसके चलते भारतीय संदर्भ में भविष्य के एल्गोरिदम द्वारा पूर्वाग्रह से भरे परिणाम देने की आशंका बढ़ गई है.

भारत के सार्वजनिक क्षेत्र में AI एल्गोरिदम का बढ़ता उपयोग हालात को और पेचीदा बना देता है. भारत में संसाधनों की सीमित उपलब्धता के चलते प्रशासन का यथासंभव कुशल होना आवश्यक हो जाता है; आर्टिफिशियल इंटेलिजेंस या मशीन लर्निंग (ML) का उपयोग करके प्रक्रियाओं को स्वचालित करने का ये एक और कारण है. भारत में जनसंख्या के हिसाब से पुलिस बलों का आंकड़ा विश्व के सबसे लचर अनुपातों में से एक है, ऐसे में फ़िलहाल भारत में कानून का प्रवर्तन कराने वाली एक दर्ज़न से ज़्यादा राजकीय एजेंसियां अपराधियों की पहचान के लिए चेहरे की पहचान करने वाले एल्गोरिदमों का उपयोग कर रही हैं. हालांकि गड़बड़ियों भरे AI मॉडलों में प्रशासन तंत्रों का उपयोग इष्टतम से कम या यहां तक कि प्रतिकूल तरीक़े से भी किया जाएगा, जिससे कुछ मामलों में उनके द्वारा समाधान किए जाने की बजाए और ज़्यादा समस्याएं पैदा होंगी. मिसाल के तौर पर तेलंगाना सरकार ने कल्याणकारी योजना के हज़ारों आवेदनों की प्रोसेसिंग के दौरान लोगों के बर्ताव के बारे में भविष्यवाणी करने के लिए मशीन लर्निंग प्रणालियों का उपयोग किया. इसके चलते आख़िरकार 100,000 जाली राशन कार्डों को रद्द कर दिया गया, हालांकि बाद में इनमें से 14000 को बहाल करना पड़ा.   

क्या किया जा रहा है?

भले ही सार्वजनिक क्षेत्र की जवाबदेही के लिए ऑडिट एक महत्वपूर्ण व्यवस्था है, लेकिन भारत में एल्गोरिदम प्रणाली के उपयोग पर इसे लागू नहीं किया गया है. आज तक, इस विषय के इर्द-गिर्द परिचर्चा मोटे तौर पर कुछ सरकारी एजेंसियों के व्यापक दायरे के तहत आयोजित तात्कालिक क़वायद बनी हुई है. अभी हाल ही में, भारत के नियंत्रक और महालेखा परीक्षक (CAG) ने G20 के तहत SAI20 इंगेजमेंट ग्रुप समिट के हिस्से के तौर पर AI पर ऑडिटिंग रूपरेखाएं और बारीक़ जांच सूची विकसित करने के लिए पहल किए जाने का आह्वान किया. हालांकि, देश में मौजूदा मामलों के अध्ययन पर केंद्रित ये परिचर्चा अभी अपने बेहद शुरुआती चरण में दिखाई देती है. वैसे तो इस अनिवार्यता में AI एल्गोरिदम को ऑडिट करना और ऑडिटिंग उपकरण के रूप में आर्टिफिशियल इंटेलिजेंस का उपयोग करना, दोनों शामिल है, भारत के सभी उदाहरण AI को ऑडिटिंग उपकरण के रूप में इस्तेमाल किए जाने की श्रेणी में आते हैं.

फिर भी, भारत की सभी प्रमुख सरकारी एजेंसियों में ऑडिट की अहमियत को पहले ही स्वीकार किया जा चुका है. CAG के अलावा, ज़िम्मेदार AI पर नीति आयोग के 2021 दृष्टिकोण दस्तावेज़ में भी स्वतंत्र और मान्यता प्राप्त लेखा परीक्षकों द्वारा नियमित अंतराल पर एल्गोरिदम ऑडिट करने के लिए तंत्र स्थापित करने की आवश्यकता पर ज़ोर दिया गया है. यहां तक कि डिजी यात्रा परियोजना में भी कथित तौर पर स्वतंत्र दलों और चुनिंदा सरकारी एजेंसियों द्वारा लेखा परीक्षा और मूल्यांकनों के प्रावधान हैं, हालांकि ये स्पष्ट नहीं है कि इसे कैसे लागू किया गया है. 

आगे की राह क्या है? 

जवाबदेही तंत्र के रूप में ऑडिटिंग का एक लंबा इतिहास है, लेकिन आर्टिफिशियल इंटेलिजेंस के उपयोग के मामलों में ऑडिट के अब तक सीमित उदाहरण हैं. नतीजतन, लेखा परीक्षकों के लिए रणनीतिक रूप से कुछ शुरुआती बिंदु हैं, जिनमें संभावित रूप से सीखने की कठिन अवस्था, ख़ुद ऑडिटिंग टीम के भीतर पूर्वाग्रहों से जुड़ी चिंताएं और आवश्यक डेटा तक पहुंच का अभाव शामिल हैं. AI टेक्नोलॉजी की उभरती और आम-उद्देश्य वाली प्रकृति के साथ-साथ अनिश्चित परिभाषाओं और AI प्रणालियों और समाधानों में व्यापक भिन्नता के चलते ये मसला और पेचीदा हो जाता है. इसके अलावा, AI नियामक इकोसिस्टम में आम तौर पर कुछ व्यापक रूप से अपनाए गए मानक होते हैं. AI का ऑडिट करने वाले व्यक्तियों और संगठनों के एक सर्वेक्षण में 1 प्रतिशत से भी कम प्रतिभागियों ने तमाम भौगोलिक क्षेत्रों में AI से संबंधित मौजूदा विनियमन को “पर्याप्त” क़रार दिया.

AI एल्गोरिदम को ऑडिट करना और ऑडिटिंग उपकरण के रूप में आर्टिफिशियल इंटेलिजेंस का उपयोग करना, दोनों शामिल है, भारत के सभी उदाहरण AI को ऑडिटिंग उपकरण के रूप में इस्तेमाल किए जाने की श्रेणी में आते हैं.

ऑडिट के स्पष्ट तौर-तरीक़ों के साथ-साथ मानकों और विनियामक मार्गदर्शन के बिना AI उत्पाद के ऑडिट के बारे में किसी भी दावे (चाहे फर्स्ट, सेकंड या थर्ड पार्टी के ऑडिटरों द्वारा) को सत्यापित करना कठिन होगा और इससे नुक़सान और पूर्वाग्रह की रोकथाम की बजाए उसके और बढ़ जाने की आशंका रहेगी. इस अंतर को दूर करने के लिए भारत सरकार को ऐसे क़ानून स्थापित करने चाहिए जिसके तहत AI प्रणालियों के संचालकों और विक्रेताओं के लिए स्पष्ट रूप से परिभाषित मानदंडों के आधार पर स्वतंत्र एल्गोरिदम ऑडिट में जुड़ना आवश्यक होना चाहिए. इस प्रकार, ऑडिट का आयोजन क्यों, कब और कैसे करना है, ये चुनने का अधिकार AI उत्पादों के मालिक़ों को देने की बजाए नीति निर्माता उनके लिए ऑडिट प्रस्तुत करने की आवश्यकताएं लागू कर सकते हैं और ये सुनिश्चित करने के लिए अनुपालन तंत्र भी विकसित कर सकते हैं कि ऑडिट, वास्तविक परिवर्तन की अगुवाई करे.

इसके अलावा, भारत सरकार समकक्ष स्तर से समीक्षा के लिए ऑडिट निष्कर्षों के मुख्य घटकों के ख़ुलासे को अनिवार्य बना सकती है, जिन्हें फर्स्ट और सेकंड पार्टी के ऑडिटरों द्वारा ग्राहक गोपनीयता से जुड़ी चिंताओं का हवाला देते हुए अक्सर गुप्त रखा जाता है. प्रकटीकरण की अनिवार्य मात्रा (जैसे सभी ब्योरों का ख़ुलासा बनाम मुख्य निष्कर्ष आदि) का मूल्यांकन क्षेत्र-विशिष्ट विचारों के आधार पर किया जा सकता है. प्रकट की गई सूचना को सार्वजनिक किया जा सकता है या डेटाबेस में लॉग किया जा सकता है. इन्हें केवल अनुरोधों के ज़रिए जांचे-परखे किरदारों के लिए सुलभ बनाया जा सकता है. इसके अलावा, क़ानून निर्माता, ऑडिट प्रक्रिया में वास्तविक जगत की क्षति के मात्रात्मक विचार (सिर्फ़ ढांचागत या मात्रात्मक के अलावा) को सक्षम करने के लिए एक मानकीकृत नुक़सान की घटना की रिपोर्टिंग और प्रतिक्रिया तंत्र की शुरुआत कर सकते हैं. आख़िरकार, सक्षम ऑडिटरों के प्रतिभा समूह को विकसित करने और उसमें विविधता लाने के लिए भारत सरकार एल्गोरिदम ऑडिटरों के मूल्यांकन और मान्यता को औपचारिक रूप दे सकती है. इसे ‘रबर स्टांप’ प्रक्रिया बनाए बिना और AI के हानिकारक किरदारों का पर्दाफ़ाश करने के लिए ज़रूरी अनुभव (और प्रेरणा) से लैस स्वतंत्र शोधकर्ताओं, खोजी पत्रकारों, या अन्य सिविल सोसाइटी संगठनों की तालेबंदी के बिना इस क़वायद को अंजाम दिया जाना चाहिए. इन उपायों को प्रस्तावित डिजिटल इंडिया अधिनियम में शामिल किया जा सकता है, जिसे डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023 या सूचना प्रौद्योगिकी नियम, 2021 में एल्गोरिदम की ज़्यादा जवाबदेही के लिए प्रावधानों के साथ समन्वित किया जाएगा. 

अपनी ओर से, AI उत्पादों का स्वामित्व रखने वाले और उन्हें सार्वजनिक रूप से संचालित करने वाले निगम या सरकारी इकाइयां अपनी आंतरिक प्रक्रियाओं में बेहतरीन अभ्यासों की स्थापना कर सकते हैं. इनमें ऐसे स्टेकहोल्डरों को जोड़ना शामिल है जिन्हें ऑडिट प्रक्रिया में AI प्रणालियों द्वारा नुक़सान होने की सबसे ज़्यादा आशंका है, या वो जब इसके अधीन हों तो एल्गोरिदम निर्णय निर्माण प्रणालियों के अधीन व्यक्तियों को अधिसूचित किया जाना चाहिए. 

एल्गोरिदम ऑडिटिंग इकोसिस्टम के अभ्यासकर्ताओं के बीच इन सभी प्रस्तावों को लेकर महत्वपूर्ण रूप से सर्वसम्मति है, और इन्हें पूरा करने में प्रगति भारत की नियामक इकाइयों और कारोबारों को नुक़सान को कम करने में अहम भूमिका निभाने में सक्षम बनाएगी. आर्टिफिशियल इंटेलिजेंस के विकास की मौजूदा तेज़ रफ़्तार के विपरीत लेखा परीक्षा की प्रक्रिया धीमी, बोझिल, रीतिबद्ध और सूक्ष्म हो सकती है. चूंकि एल्गोरिदम का उपयोग धड़ल्ले से उच्च जोख़िम वाले क्षेत्रों में किया जा रहा है, लिहाज़ा इस क़वायद को धीमा करना ज़्यादा फ़ायदेमंद साबित हो सकता है. 


हुसनजोत चहल जॉर्जटाउन यूनिवर्सिटी के सेंटर फॉर सिक्योरिटी एंड इमर्जिंग टेक्नोलॉजी (CSET) में रिसर्च एनालिस्ट हैं.

समन्वय हुडा सेंटर फॉर सिक्योरिटी एंड इमर्जिंग टेक्नोलॉजी (CSET) में डिफेंस एनालिसिस रिसर्च असिस्टेंट हैं.

 

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.