Published on Jul 03, 2023 Updated 0 Hours ago
AI, आधार और प्रशासन के बीच सही संतुलन कैसे बने?

आर्टिफ़िशियल इंटेलिजेंस और डेटा का विशाल भंडार एक दूसरे से नज़दीकी से जुड़े हुए हैंक्योंकि, AI को कुछ सीखनेतरतीब का विश्लेषण करने और सटीक पूर्वानुमान लगाने के लिए भारी मात्रा में डेटा की ज़रूरत होती हैडिजिटल पब्लिक इन्फ्रास्ट्रक्चर में सहयोग करने वाली सेवाओं जैसे कि आधार और UPI की आमद के साथ ही भारतप्रशासन को बेहतर बनाने के लिए बड़ी तेज़ी से डेटा के इस्तेमाल की संभावनाओं की पड़ताल कर रहा हैये सेवाएं तमाम तरह के आंकड़ों का विशाल भंडार पैदा करती हैंजो भारत की आबादी समृद्ध विविधता को जुटाते हैंइसलिएइस सवाल को लेकर मन में सवाल उठते हैं कि क्या इन आंकड़ों के विशाल भंडार से निष्कर्ष निकालने के लिए डेटा के इस भंडार को AI से जोड़ना चाहिए.

अगर AI के एल्गोरिद्म में पहले से मौजूद पूर्वाग्रह दोहराए गए तो, बिना इरादे के समाज के कमज़ोर तबक़ों को निशाना बनाए जाने और सामाजिक प्रगति को बाधित करने का डर पैदा हो सकता है.

आर्टिफ़िशियल इंटेलिजेंस (AI) को आधार जैसे डेटा के विशाल भंडार की मदद से प्रशिक्षित होने की इजाज़त देने से जुड़ी कई चिंताएं साफ़ दिखती हैंचूंकि आधार का डेटा केंद्रीकृत हैतो इससे निजता की चिंताएं पैदा होती हैंक्योंकि इन संवेदनशील आंकड़ों के बदनीयती से इसमें सेंध लगाने का शिकार बनने की आशंकाएं पैदा होती हैंइसके अलावाअगर AI के एल्गोरिद्म में पहले से मौजूद पूर्वाग्रह दोहराए गए तोबिना इरादे के समाज के कमज़ोर तबक़ों को निशाना बनाए जाने और सामाजिक प्रगति को बाधित करने का डर पैदा हो सकता है. इन चुनौतियों से पार पाने के लिए भारत को AI से जुड़े कुछ बुनियादी अधिकार स्थापित करने के बारे में विचार करना चाहिएजिससे वो AI की ताक़त और नागरिकों की निजता की रक्षा के बीच संतुलन बना सकेइन बातों से इतरये महत्वपूर्ण है कि हम इन मुद्दों पर गहराई से पड़ताल करें और तमाम संभावनाओं को तलाशें.

संभावित उपयोग

संभावित लाभों पर ध्यान केंद्रित करेंतो आधार का डेटाबेसकेंद्र और राज्यों की सरकारों के लिए बेहद मूल्यवान और अनूठा स्रोत हो सकता हैजो भारत की आबादी के चलन को समझना चाहते हैंडेटा भंडार के आकार और आर्टिफिशियल इंटेलिजेंस के सटीक होने के बीचहमेशा ही कोई सीधा संबंध नहीं होतालेकिनआम तौर पर ये देखा गया है कि डेटा के विशाल भंडारों से AI के सटीक पूर्वानुमान लगाने की क्षमता बेहतर होती हैउल्लेखनीय है कि आधार के डेटाबेस में एक अरब से ज़्यादा एंट्री हैंजिससे ये आर्टिफ़िशियल इंटेलिजेंस को ट्रेनिंग देने का एक व्यापक स्रोत बन सकता हैआधार का डेटा सरकार द्वारा तय किए गए वर्गों और मानकों के अनुसार लोगों के नामांकन से तैयार होता हैआधार के एकरूपता वाले आंकड़ेइसके विश्लेषण को सरल बना देते हैंये उन डेटाबेस से अलग हैजिन्हें अलग अलग स्रोतों से जुटाकर तैयार किया जाता है.

आधार के आंकड़ों से प्रशिक्षित AI के कुछ उपयोग तो पहले ही प्रस्तावित किए जा चुके हैंकेंद्र और राज्यों की सरकारें आधार का इस्तेमालकल्याणकारी योजनाओं का लाभ वितरित करने और संसाधनों को उन जगहों पर भेजने के लिए कर सकते हैंजहां उनकी सबसे ज़्यादा ज़रूरत हो. पंजाब में पुलिस अपने AI आधारित फेशियल रिकॉग्निशन के सॉफ्टवेयर को आधार के डेटा से जोड़ना चाहेगीजिससे अपराधियों को पकड़ने में उसे और मदद मिलेइस्तेमाल कोई भी होइन संभावित कार्यक्रमों के लाभ कोलोगों की निजी ज़िंदगी में दख़लंदाज़ी के पैमाने पर कसकर देखा जाना चाहिए.

निजता का अधिकार

जब भारत सरकार आधार व्यवस्था बना रही थी तब उसे एक जैसी पहचान के पंजीकरण के भारत के संविधान में दर्ज निजता के अधिकार पर असर को लेकर भी सोचविचार करना पड़ा था. 2017 के जस्टिस केएसपुट्टुस्वामी बनाम भारत सरकार के मुक़दमे में सुप्रीम कोर्ट ने फ़ैसला दिया था कि निजता एक बुनियादी अधिकार हैक्योंकि ये किसी के व्यक्तिगत स्वतंत्रता के हक़ को इस्तेमाल करने की पहली शर्त हैसुप्रीम कोर्ट की उस बेंच के सभी जजों ने एकमत से कहा था कि जैसे जैसे तकनीकी तरक़्क़ी से लोगों की निजी ज़िंदगी की निगरानी बढ़ रही हैवैसे वैसेसरकार के हितों और निजता के अधिकार के बीच संतुलन बनाना और भी ज़रूरी होता जा रहा है.

केंद्र और राज्यों की सरकारें आधार का इस्तेमाल, कल्याणकारी योजनाओं का लाभ वितरित करने और संसाधनों को उन जगहों पर भेजने के लिए कर सकते हैं, जहां उनकी सबसे ज़्यादा ज़रूरत हो.

निज़ता के मज़बूत कवच के बिना AI के मॉडलों को आधार के डेटाबेस तक पहुंच देने से ये संतुलन नहीं बन सकता हैमशीन लर्निंग के मॉडल को जनता से जुड़ी बुनियादी जानकारी जैसे कि नामउम्रसेक्स और पते के आधार पर ट्रेनिंग देने से निजता के अधिकार में दख़लंदाज़ी का नैतिक रूप से सवालिया निशान लगता हैये चिंताएं तब और बढ़ जाती हैंजब आधार के नंबर को बैंक खातों और सिम कार्ड जैसी संवेदनशील निजी जानकारियों से जोड़ दिया जाता हैइसके अलावा इस वक़्त आधार में दर्ज किसी भी इंसान ने अपने रजिस्ट्रेशन के समय अपनी जानकारियों को AI को ट्रेनिंग देने के लिए इस्तेमाल करने की इजाज़त नहीं दी थीचूंकि आज आधार का जीवन में बड़े पैमाने पर इस्तेमाल हो रहा हैऐसे में नागरिकों के लिए अपनी निजता की फ़िक्र करते हुएआधार के आंकड़ों से अपनी जानकारियां मिटा पाना लगभग नामुमकिन होगा. आधार में दर्ज नागरिकों की जानकारी से जुड़ी निजता की सुरक्षा की गारंटी देने की भारत सरकार की क्षमताआधार डेटाबेस की कमज़ोर साइबर सुरक्षा के कारण और भी कमज़ोर हो जाती है

पूर्वाग्रहों के शिकार होने की आशंका

वैसे तो आम तौर पर यही माना जाता है कि कंप्यूटर पूर्वाग्रह के शिकार नहीं होतेलेकिन, AI की व्यवस्थाओं के बारे में आम तौर पर यही माना जाता है कि वो डेटासेट में मौजूदा पूर्वाग्रहों की नक़ल करते हैंमशीन लर्निंग असल में भविष्य के पूर्वानुमान लगाने के लिए पुराने डेटा को आधार बनाती हैलेकिनपक्षपातपूर्ण आंकड़ों के आधार पर मॉडल को ट्रेनिंग देने से उन पूर्वाग्रहों के मशीन द्वारा दोहराए जाने का डर पैदा हो जाता हैउदाहरण के तौर परअमेरिका में प्रेडिक्टिव पोलिसिंग कार्यक्रमों में अक्सर अश्वेत लोगों के समुदायों को पक्षपातपूर्ण तरीक़े से निशाना बनाया जाता है

अमेरिका में पुलिस से अफ्रीकी मूल के लोगों की शिकायत करने की संभावना अधिक होती हैऐसे में AI मॉडल के बारे में माना जाता है कि वो अफ्रीकी अमेरिकी समुदायों के बारे में यही पूर्वानुमान देंगे कि उनकी बस्तियों में अधिक जोखिम हैफिर चाहे उस इलाक़े में अपराध की कोई भी दर क्यों  होभारत में समाज के वर्गीकरण के ऐतिहासिक आधारयहां पर भी पूर्वाग्रहों को जन्म दे सकते हैं.

AI की ट्रेनिंग के लिए कंपनियों को आधार के आंकड़ों तक पहुंच देने से पहुंच का दायरा बढ़ता है और थर्ड पार्टी द्वारा घुसपैठ करके पूरी व्यवस्था की सुरक्षा को ख़तरा पैदा करने का जोखिम बढ़ जाता है.

आधार और AI को एक साथ लाने से निजता और सुरक्षा की जटिल चुनौतियां तो पैदा होती ही हैंइसके अलावा आधार के डेटा के आधार पर तैयार मशीन लर्निंग के कार्यक्रम में मौजूद पूर्वाग्रहों की पहचान करके उसने निपटने में भी सक्षमता का अभाव हैसंवेदनशील आंकड़ों से आर्टिफिशियल इंटेलिजेंस को जोड़ने से पहले  जातिधर्म या आमदनी के आधार पर भेदभाव की आशंकाओं से निपट लेना होगा. AI द्वारा असमानता को स्थानीय बनाने से रोकने के लिए रोकथाम की व्यवस्था बनाना ज़रूरी हैमशीन लर्निंग के दौरान ‘ब्लै बॉक्स’ का नज़रिया अपनानाजहां AI के रचनाकारो को भी फ़ैसलों के पीछे का तर्क नहीं पता होताउससे ये मसला और बढ़ जाता है. 2019 में एप्पल ये नहीं बता पाया था कि उसका क्रेडिट कार्ड का नया कार्यक्रममहिलाओं से ज़्यादा पुरुषों को क़र्ज़ लेने का विकल्प ज़्यादा क्यों उपलब्ध कराता हैऔरयहां तक कि गूगल के अपने इंजीनियर भी एक वेबसाइट के एक ख़ास पहलू के बारे में नहीं बता पाए थेजिसका इस्तेमाल करते हुए गूगल का एल्गोरिद्म सर्च के नतीजे दिखाता है.

सुरक्षा की चिंताएं

आधार डेटाबेस जैसे आंकड़ों की ईमानदारी की रक्षा करनाहैकर्स और सेंध लगाने वालों से नागरिकों की निजता की हिफ़ाज़त करना हैचूंकि आधार के आंकड़े केंद्रीकृत हैंइसलिएआधार से जुड़ा आंकड़ों का विशाल भंडार सुरक्षित बनाना पहले ही बड़ा चुनौती वाला काम हैहाल के वर्षों में आधार की जानकारियां कई बार लीक हो चुकी हैं और 2018 में  ट्रिब्यून ने व्हाट्सऐप पर एक समूह को 500 रुपए देकरआधार नंबर के ज़रिए निजी जानकारियां हासिल की थीये चिंताएं तो तभी जन्म ले चुकी थीजब AI और आधार के एकीकरण की चर्चा नहीं हुई थीआधार के अंदरूनी कामकाज की सबसे ज़्यादा जानकारी तो भारत सरकार के पास ही होती है.

इस प्रक्रिया में आर्टिफ़िशियल इंटेलिजेंस को शामिल करने से आधार की जानकारी को सुरक्षित बनाए रखने की चिंताएं और बढ़ जाएंगी. AI की एकीकृत तकनीकें विकसित करने के लिए भारत सरकार अक्सर तीसरे पक्ष वाली कंपनियों पर भरोसा करती हैAI की ट्रेनिंग के लिए कंपनियों को आधार के आंकड़ों तक पहुंच देने से पहुंच का दायरा बढ़ता है और थर्ड पार्टी द्वारा घुसपैठ करके पूरी व्यवस्था की सुरक्षा को ख़तरा पैदा करने का जोखिम बढ़ जाता है. अमेरिका ने 2020 में ऐसी ही चुनौती का सामना किया थाजब वहां की संघीय सरकार की व्यवस्थाओं की सार्वजनिक सुरक्षा में तब सेंध लग गई थीजब उस नेटवर्क तक पहुंच रखने वाले एक छोटे ठेकेदार ने ऐसा किया थाअगर आधार व्यवस्था की मौजूदा चुनौतियों को दूर भी कर लिया जाता हैतो भी भारत सरकार को संभावित ठेकेदारों की पड़ताल की व्यवस्था बनानी होगीताकि व्यवस्था में किसी कमज़ोरी की घुसपैठ नहीं करा पाना सुनिश्चित हो सके.

आर्टिफ़िशियल इंटेलिजेंस के दौर में निजता का संरक्षण

AI के फ़ायदों और निजता की चिंताओं के बीच संतुलन बनाने के लिए भारत को चाहिए कि वो AI के लिए बुनियादी अधिकारों का एक प्रस्ताव तैयार करेजिसमें डेटा का ज़िम्मेदारी से इस्तेमाल करने के दिशा निर्देश दिए जा सकेंहालांकिभारत के नियामकों को चाहिए कि वो नैतिक आर्टिफ़िशियल इंटेलिजेंस और ख़ास तौर से आधार से जुड़ी चिंताओं को दूर करेवैसे तो भारत सरकार ने 2018 में नीति आयोग द्वारा प्रकाशित नेशनल स्ट्रेटेजी फॉर AI की रिपोर्ट में जताई गई चिंताओं का समर्थन किया था और कहा था कि AI कंपनियों को आने वाले डिजिटल पर्सनल डेटा प्रोटेक्शन बिल के तहत डेटा की निजता के नियमों का पालन करना होगालेकिनइलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने कहा है कि फिलहाल ख़ास आर्टिफ़िशियल इंटेलिजेंस को लेकर नियम बनाने उसकी कोई योजना नहीं है, क्योंकि सरकार का मानना है कि ज़रूरत से ज़्यादा नियमन से आविष्कारों का गला घोंट जाता है. AI की प्रगति को बढ़ावा देने वाली सोच तो समझ में आती हैलेकिनउद्योग को पूरी तरह से नियमों के दायरे से अलग रखने पर नैतिकता के नियमों के उल्लंघन का जोखिम पैदा होता हैइसके बजायभारत को चाहिए कि वो अपने इस नई तकनीक का गला घोंटने के बजायअंतरराष्ट्रीय साझेदारों द्वारा AI के नियमन के उदाहरण को अपनाए.

AI कंपनियों को आने वाले डिजिटल पर्सनल डेटा प्रोटेक्शन बिल के तहत डेटा की निजता के नियमों का पालन करना होगा. लेकिन, इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने कहा है कि फिलहाल ख़ास आर्टिफ़िशियल इंटेलिजेंस को लेकर नियम बनाने उसकी कोई योजना नहीं है

2019 में G20 ने भरोसेमंद आर्टिफिशियल इंटेलिजेंस को ज़िम्मेदारी से इस्तेमाल करने के सिद्धांतों को अपनाया थाये सिद्धांत AI से जुड़ी संस्थाओं के लिए समावेशपारदर्शितासुरक्षा और जवाबदेही को बढ़ावा देना ज़रूरी बनाते हैंयूरोपीय संघ (EU) और अमेरिका ने भी आर्टिफ़िशियल इंटेलिजेंस के नैतिक इस्तेमाल के लिए अपने दिशानिर्देशों का प्रस्ताव रखा हैइन व्यापक सिद्धांतों को और आगे बढ़ाते हुए भारत AI के क्षेत्र में अपने हितों के हिसाब से राष्ट्रीय दिशा निर्देश तैयार कर सकता हैख़ास तौर से आधार के साथ एकीकरण के मामले मेंइसमें कोई दो राय नहीं कि आर्टिफिशियल इंटेलिजेंस में भारतीय नागरिकों के कल्याण की अपार संभावनाएं हैंभारत को चाहिए कि वो बेहतर भविष्य के निर्माण के लिए AI की ताक़त और उभरती हुई तकनीकों का इस्तेमाल करने के लिएआर्टिफिशियल इंटेलिजेंस के संभावित नियमों की पड़ताल करें.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.