Published on Jul 12, 2023 Updated 0 Hours ago
बड़े पैमाने पर AI की कमियों का खुलासा: भारत के लिए क्या है ज़रूरी सबक़

पिछले कुछ वर्षों से आर्टिफिशियल इंटेलिजेंस (AI) की हर ओर ज़बरदस्त धूम मची हुई है. AI से जुड़ी नई-नई क्षमताओं का तेज़ गति से विकास हो रहा है. इनके आधार पर कहा जा सकता है कि इन रुझानों पर निकट भविष्य में विराम नहीं लगने वाला. सरकारों के लिए AI एक ऐसा अवसर मुहैया करा रहा है, जिसके ज़रिए वो मौजूदा प्रक्रियाओं को अनुकूलतम स्तर पर लाकर करोड़ों लोगों की ज़िंदगी संवार सकती हैं. कई सरकारों को भरोसा है कि अपनी जनसंख्या के बारे में विशाल पैमाने पर जानकारियां (जिसे बिग डेटा के रूप में जाना जाता है) इकट्ठी करके वो समाज की अनेक समस्याओं को दूर करने की क्षमता रखने वाले AI नेटवर्क तैयार कर सकते हैं. भारत के आधार लेखागार (registry) को लेकर ऐसी उम्मीदें थीं कि ये भारतीय नागरिकों के दूरगामी डेटाबेस हासिल करने में शुरुआती बिंदु प्रदान कर सकता है, लेकिन 2017 में आधार के अनुमति प्राप्त उपयोगों को लेकर सुप्रीम कोर्ट के आदेश ने इन उम्मीदों पर पानी फेर दिया. इस निर्णय के बाद तेलंगाना जैसे राज्यों ने इन नियमों से पिंड छुड़ाते हुए आधार पर निर्भरता दिखाए बग़ैर डेटा एकत्रित करने की भरपूर कोशिशें कीं. बिग डेटा जुटाने की क़वायद में कोर्ट के निर्णयों में ख़ामियां या जुगाड़ ढूंढने की बजाए भारत को AI के प्रति अपने दृष्टिकोण को नए-नए औज़ारों से लैस करने पर ध्यान केंद्रित करना चाहिए. इसके लिए उन विशिष्ट परिस्थितियों की पहचान करके उनका निपटारा किया जाना चाहिए जहां AI, नागरिकों के मौलिक अधिकारों पर चोट पहुंचाए बिना उपयोगी साबित हो सकता है. 

बिग डेटा जुटाने की क़वायद में कोर्ट के निर्णयों में ख़ामियां या जुगाड़ ढूंढने की बजाए भारत को AI के प्रति अपने दृष्टिकोण को नए-नए औज़ारों से लैस करने पर ध्यान केंद्रित करना चाहिए. इसके लिए उन विशिष्ट परिस्थितियों की पहचान करके उनका निपटारा किया जाना चाहिए

 

निजता को लेकर अतीत के उदाहरण

2017 में भारतीय सुप्रीम कोर्ट ने आधार केस में बहुमत के आधार पर फ़ैसला सुनाया. जस्टिस के. एस. पुत्तास्वामी बनाम भारत संघ के मामले में ये बड़ा निर्णय आया. दरअसल ये केस आधार कार्यक्रम के बारे में ढेरों शिकायतों का पुलिंदा था, ज़्यादातर मामले आधार द्वारा भारतीय संविधान के अनुच्छेद 21 के उल्लंघन की शिकायतों से जुड़े थे. इस अनुच्छेद में जीवन और निजी स्वतंत्रता की रक्षा की गारंटी दी गई है. अदालत ने फ़ैसला सुनाया कि निजता, अनुच्छेद 21 के तहत एक मौलिक अधिकार है, लेकिन उसने ये भी साफ़ कर दिया कि आधार भी संवैधानिक है. कोर्ट ने इस शर्त पर ये निर्णय सुनाया कि आधार की शुरुआत से ही इसके विचार में कुछ बचावकारी प्रावधान जुड़े हुए हैं. इनमें जनसांख्यिकी डेटा के कुछ प्रकारों पर पाबंदियां भी शामिल हैं, जिन्हें आधार निबंधन के हिस्से के तौर पर जुटाया गया होगा. साथ ही अन्य प्रणालियों के साथ ऐसे डेटा के एकीकरण पर भी सीमाएं आयद की गई हैं ताकि सरकारी निगरानी के हथकंडे के तौर पर इसके दुरुपयोग को रोका जा सके. इस फ़ैसले के साथ आधार की नींव रखे जाने को मंज़ूरी दे दी गई, लेकिन आधार के व्यापक उपयोगों को लेकर अधिकारियों की उम्मीदें अनिश्चित काल के लिए ठंडे बस्ते में चली गई. वैसे तो ये केस प्रत्यक्ष रूप से आधार कार्यक्रम के जवाब में था, लेकिन ये एक ऐतिहासिक मामला रहा, जिसने निजता को लेकर भारतीयों के अधिकारों को सतह पर उभार दिया, जिसके प्रभाव आधार से परे हैं. 

हदों को लेकर तेलंगाना में परीक्षण

आधार के उपयोग को लेकर क़ानूनी प्रतिबंधों का उल्लंघन किए बिना उच्च-स्तरीय डेटा संग्रह में जुड़ने के लिए समग्र वेदिका कार्यक्रम ने AI का उपयोग किया. AI का प्रयोग करके पहले से मौजूद डेटाबेस में सूचना को जोड़ने का काम किया गया. इस तरह हरेक व्यक्ति के लिए एक अद्वितीय प्रोफाइल तैयार किया गया. मिलते-जुलते नामों और पतों की छानबीन के लिए अधिकारियों ने ऐेसे प्रोफाइल तैयार किए जिसमें किसी व्यक्ति को उपलब्ध उपयोगी सेवाओं (utilities), संपत्ति के स्वामित्व और कल्याणकारी फ़ायदे हासिल करने के इतिहास से जुड़ी सूचना को शामिल किया गया. इसके बाद सरकार ने भावी कल्याणकारी योजनाओं को लेकर योग्यता के निर्धारण के लिए इस सूचना का उपयोग किया, जिसके नतीजतन एक लाख राशन कार्ड रद्द कर दिए गए. हालांकि आगे चलकर भारी जन विरोध के चलते रद्द किए गए 14 हज़ार राशन कार्ड दोबारा बहाल कर दिए गए. इस प्रकरण ने बिग डेटा की आचार-नीति और समग्र वेदिका मॉडल की सटीकता पर सवाल खड़े कर दिए. 

वैसे तो समग्र वेदिका, विशिष्ट रूप से आधार के उपयोग से परहेज़ करके जस्टिस के. एस. पुत्तास्वामी बनाम भारत संघ मामले के तहत स्थापित किए गए नियम-क़ायदों का अक्षरशः पालन कर रही है, लेकिन ये सुप्रीम कोर्ट द्वारा संवैधानिक निजता को लेकर सामने रखे गए फ़ैसले की मूल आत्मा का उल्लंघन करती है. तेलंगाना सरकार ने इसके विपरीत दलील पेश की है. उसका तर्क है कि समग्र वेदिका कार्यक्रम नागरिकों के निजता से जुड़े अधिकारों का उल्लंघन नहीं करता. सरकार का कहना है कि ये क़वायद उन आंकड़ों पर निर्भर करती है जिन्हें सरकार के एक-एक विभाग अपने रोज़मर्रा के कामकाज के लिए पहले से ही जुटा चुके हैं. हालांकि सुप्रीम कोर्ट के आदेश में न्यायमूर्तियों ने विशेष रूप से कहा है कि अलग-अलग डाटासेट्स (जिन्हें एकाकी स्वरूप वाला या silos कहा जाता है) का एकीकरण अपने आप में ही चिंता का विषय है:

“जब आधार को हरेक डेटाबेस में शामिल कर लिया जाता है तब ये चतुराई भरे डेटा सिलोस के आर-पार एक सेतु बन जाते हैं, जो इस सूचना तक पहुंच रखने वाले किसी भी व्यक्ति को इन सूचनाओं से किसी व्यक्ति विशेष के जीवन की प्रोफाइल नए सिरे से तैयार करने की छूट देते हैं. ये निजता के अधिकार के ठीक उलट है और संभावित निगरानी की वजह से ज़बरदस्त ख़तरे पेश करते हैं.”

संग्रहित किए गए डेटा के अलावा केंद्रीकरण वो मसला है जो निजता को लेकर नागरिकों के अधिकार का उल्लंघन है. दरअसल उनकी दैनिक गतिविधियों के बारे में राज्यसत्ता को अनुपात से ज़्यादा सूचना हासिल होती है. वैसे तो सुप्रीम कोर्ट का केस आधार की विशिष्ट योग्यता के बूते निर्धारित किया गया, लेकिन इसकी अंतर्निहित संवेदनाएं सच हैं चाहे कोई परियोजना डेटा संग्रह के लिए आधार या किसी अन्य तौर-तरीक़े का ही प्रयोग क्यों ना करते हों. इस संदर्भ में प्रशासन के लिए सर्व-समावेशी AI मॉडल की ओर किए गए किसी भी प्रयास पर दोबारा विचार किया जाना चाहिए. इस क़वायद में संवैधानिक अतिक्रमणों की समस्या अंतर्निहित है. राज्यसत्ता के निगरानी तंत्र द्वारा इसके दुरुपयोग के आंतरिक ख़तरों के मद्देनज़र ऐसा पुनर्विचार बेहद ज़रूरी है. 

बहरहाल, इसके मायने ये नहीं हैं कि प्रशासन के लिए आर्टिफिशियल इंटेलिजेंस का पूरी तरह से त्याग कर दिया जाए. इसकी बजाय भारत को उन उदाहरणों की ओर देखना चाहिए जहां AI के सीमित उपयोग से विशेष मसलों का समाधान किया गया है. ऊपर जिन व्यापक दृष्टिकोणों को रेखांकित किया गया है, उनकी तुलना में AI के सीमित इस्तेमाल से सरकारों को बेहतरी के लिए उभरती तकनीकों के उपयोग का लाभ उठाना चाहिए. हालांकि इस कड़ी में नागरिकों के जीवन के हरेक पहलू पर निगरानी रखने की दरकार नहीं है. 

छोटा AI, बड़ा प्रभाव

शिक्षा एक ऐसा ही क्षेत्र है जहां AI के सीमित उपयोग से ज्वलंत मसलों का समाधान किया जा सकता है. स्कूली शिक्षा से बाहर हो जाने (ड्रॉप आउट) का ख़तरा झेल रहे छात्रों के लिए शुरुआती दौर में जानकारी देने वाली प्रणालियों (EWS) में सुधार के लिए आर्टिफिशियल इंटेलिजेंस का उपयोग विकसित और विकासशील, दोनों प्रकार के देशों में प्रभावी साबित हुआ है. ऐसे ख़तरे की ज़द में रहने वाले छात्रों की पहचान के लिए ये व्यवस्था छात्रों के शैक्षणिक प्रदर्शन, उपस्थिति और पारिवारिक परिस्थितियों से जुड़े आंकड़े एकत्रित करती है. इसके बाद लक्षित सहायता पहुंचाने के लिए प्रशासकों को निर्देशित किया जाता है. वैसे तो EWS व्यवस्था मूल रूप से अमेरिका में शुरू हुई, जहां ड्रॉप आउट दरें अपेक्षाकृत नीची हैं, लेकिन ऊंची ड्रॉप आउट दरों वाले देशों में किए गए प्रयासों के भी उत्साहजनक परिणाम देखने को मिले हैं. ग्वाटेमाला और होंडुरास में कक्षा 6 और 7 के बीच स्कूली शिक्षा से बाहर होने वाले छात्रों की पहचान के लिए शोधकर्ताओं ने पूर्वानुमान मॉडलों का उपयोग किया. दोनों कक्षाओं के बीच का वर्ष मध्य अमेरिकी स्कूल प्रणाली में एक प्रमुख परिवर्तनकारी साल होता है. ऐसे में ऊपर बताए गए मॉडल के उपयोग से 80 फ़ीसदी छात्रों की सटीक पहचान की गई. मैक्सिको के ग्वानाजु आतो प्रदेश में भी ऐसी ही क़वायद जारी है. वैसे तो दिल्ली सरकार ने अपेक्षाकृत सफल प्रारंभिक EWS मॉडल अपनाया है, लेकिन उनके पूर्वानुमान सिर्फ़ छात्रों की उपस्थिति पर निगरानी रखने पर निर्भर करते हैं. AI को भारतीय EWS में जोड़े जाने की क़वायद स्कूलों को पहले से ज़्यादा चर कारकों का लेखा-जोखा रखने की छूट देगी. ये तमाम कारक ड्रॉपिंग आउट में योगदान देते हैं. इस तरह छात्रों के बर्ताव के बारे में पहले से ज़्यादा ठोस पूर्वानुमान लगाने में मदद मिलेगी. एक बार संग्रहित कर लिए जाने पर इन मॉडलों द्वारा उपयोग किए गए डेटा अपने “एकाकी स्वरूप या सिलो (silo)” में बरक़रार रह सकते हैं. इससे विद्यालयों को छात्रों की मदद करने की छूट मिलेगी, लेकिन कुल मिलाकर आबादी के लिए निजता की रक्षा हो सकेगी.

भारत में ये प्रलोभन और ज़्यादा है, जहां व्यापक तौर पर डेटा एकीकरण के लिए सैद्धांतिक रूप से आधार एक लाभदायक शुरुआती बिंदु उपलब्ध करा सकता है. बिग AI की तमाम संभावनाओं के बावजूद सरकार को सतर्क होकर इस बात की पड़ताल करनी चाहिए कि इससे हासिल होने वाले किसी भी तरह के संभावित लाभ किस प्रकार निजता को लेकर भारतीय नागरिकों की तार्किक उम्मीदों को तबाह कर सकते हैं.

बाक़ी स्थानों और उपयोगों में भी ऐसे उदाहरण स्पष्ट हैं. सिंगापुर में वहां की सार्वजनिक परिवहन सेवाओं ने जापानी इकाई NEC के साथ मिलकर इस बात का पूर्वानुमान लगाया है कि क्या कोई बस ड्राइवर अगले तीन महीनों में हादसे का शिकार होगा या नहीं. इसके बाद उनके लिए अतिरिक्त प्रशिक्षण सत्रों की सिफ़ारिश की जाती है. अमेरिका में श्रम सांख्यिकी ब्यूरो व्यावसायिक आघातों (occupational injury) से जुड़े रिपोर्टों के विश्लेषण के लिए AI का उपयोग करता है. थकाऊ कामों का बोझ कम करने और ज़्यादा पेचीदा समस्याओं की ओर कर्मचारियों को नए सिरे से नियत करने के लिए ये क़वायद की जाती है. ये परिदृश्य दिखावटी, सर्व-ज्ञानी आर्टिफिशियल इंटेलिजेंस नहीं हैं, जिसकी लोग अक्सर विज्ञान संबंधी काल्पनिक फ़िल्मों और लुभावने समाचारों या सुर्ख़ियों में उम्मीद करते हैं. इसकी बजाए ये कार्यक्रम सौंदर्य से जुड़े पहलू को परे करके समस्याग्रस्त क्षेत्रों को लक्षित करने और प्रभावी समाधान उपलब्ध कराने पर ध्यान केंद्रित करता है.  

भविष्य पर नज़र

हरेक तंत्रिका नेटवर्क को पिछले नेटवर्क की तुलना में बड़ा बनाने की कोशिश करना और आगे चलकर उन्हें बड़ा स्वरूप देना काफ़ी लुभावना होता है. आर्टिफिशियल इंटेलिजेंस प्रशासन के लिए गरमा गरम विषय है. अच्छे इरादों के साथ आगे बढ़ने वाले अधिकारियों के लिए ऐसी टेक्नोलॉजी से अभिभूत होना आसान है, जिनकी वो पूरी तरह से समझ नहीं रखते. भारत में ये प्रलोभन और ज़्यादा है, जहां व्यापक तौर पर डेटा एकीकरण के लिए सैद्धांतिक रूप से आधार एक लाभदायक शुरुआती बिंदु उपलब्ध करा सकता है. बिग AI की तमाम संभावनाओं के बावजूद सरकार को सतर्क होकर इस बात की पड़ताल करनी चाहिए कि इससे हासिल होने वाले किसी भी तरह के संभावित लाभ किस प्रकार निजता को लेकर भारतीय नागरिकों की तार्किक उम्मीदों को तबाह कर सकते हैं. निजता की ऐसी उम्मीद स्वस्थ लोकतंत्र को बनाए रखने की क़वायद से अटूट रूप से जुड़ी हुई है. स्थापित और लक्षित तौर-तरीक़ों से सरकारें AI के फ़ायदे उठा सकती है. इससे संपूर्ण निगरानी की ज़रूरत के बग़ैर नागरिकों के जीवन में सुधार लाया जा सकता है. इसके लिए AI के उपयोग का पैमाना बढ़ाने की बजाए इसमें कटौती करने की दरकार पड़ेगी. 


जेना स्टीफेन्सन ऑब्ज़र्वर रिसर्च फाउंडेशन के जियो इकोनॉमिक्स प्रोग्राम में इंटर्न हैं. 

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.