आर्टिफ़िशियल इंटेलिजेंस और डेटा का विशाल भंडार एक दूसरे से नज़दीकी से जुड़े हुए हैं. क्योंकि, AI को कुछ सीखने, तरतीब का विश्लेषण करने और सटीक पूर्वानुमान लगाने के लिए भारी मात्रा में डेटा की ज़रूरत होती है. डिजिटल पब्लिक इन्फ्रास्ट्रक्चर में सहयोग करने वाली सेवाओं जैसे कि आधार और UPI की आमद के साथ ही भारत, प्रशासन को बेहतर बनाने के लिए बड़ी तेज़ी से डेटा के इस्तेमाल की संभावनाओं की पड़ताल कर रहा है. ये सेवाएं तमाम तरह के आंकड़ों का विशाल भंडार पैदा करती हैं, जो भारत की आबादी समृद्ध विविधता को जुटाते हैं. इसलिए, इस सवाल को लेकर मन में सवाल उठते हैं कि क्या इन आंकड़ों के विशाल भंडार से निष्कर्ष निकालने के लिए डेटा के इस भंडार को AI से जोड़ना चाहिए.
अगर AI के एल्गोरिद्म में पहले से मौजूद पूर्वाग्रह दोहराए गए तो, बिना इरादे के समाज के कमज़ोर तबक़ों को निशाना बनाए जाने और सामाजिक प्रगति को बाधित करने का डर पैदा हो सकता है.
आर्टिफ़िशियल इंटेलिजेंस (AI) को आधार जैसे डेटा के विशाल भंडार की मदद से प्रशिक्षित होने की इजाज़त देने से जुड़ी कई चिंताएं साफ़ दिखती हैं. चूंकि आधार का डेटा केंद्रीकृत है, तो इससे निजता की चिंताएं पैदा होती हैं. क्योंकि इन संवेदनशील आंकड़ों के बदनीयती से इसमें सेंध लगाने का शिकार बनने की आशंकाएं पैदा होती हैं. इसके अलावा, अगर AI के एल्गोरिद्म में पहले से मौजूद पूर्वाग्रह दोहराए गए तो, बिना इरादे के समाज के कमज़ोर तबक़ों को निशाना बनाए जाने और सामाजिक प्रगति को बाधित करने का डर पैदा हो सकता है. इन चुनौतियों से पार पाने के लिए भारत को AI से जुड़े कुछ बुनियादी अधिकार स्थापित करने के बारे में विचार करना चाहिए, जिससे वो AI की ताक़त और नागरिकों की निजता की रक्षा के बीच संतुलन बना सके. इन बातों से इतर, ये महत्वपूर्ण है कि हम इन मुद्दों पर गहराई से पड़ताल करें और तमाम संभावनाओं को तलाशें.
संभावित उपयोग
संभावित लाभों पर ध्यान केंद्रित करें, तो आधार का डेटाबेस, केंद्र और राज्यों की सरकारों के लिए बेहद मूल्यवान और अनूठा स्रोत हो सकता है, जो भारत की आबादी के चलन को समझना चाहते हैं. डेटा भंडार के आकार और आर्टिफिशियल इंटेलिजेंस के सटीक होने के बीच, हमेशा ही कोई सीधा संबंध नहीं होता. लेकिन, आम तौर पर ये देखा गया है कि डेटा के विशाल भंडारों से AI के सटीक पूर्वानुमान लगाने की क्षमता बेहतर होती है. उल्लेखनीय है कि आधार के डेटाबेस में एक अरब से ज़्यादा एंट्री हैं, जिससे ये आर्टिफ़िशियल इंटेलिजेंस को ट्रेनिंग देने का एक व्यापक स्रोत बन सकता है. आधार का डेटा सरकार द्वारा तय किए गए वर्गों और मानकों के अनुसार लोगों के नामांकन से तैयार होता है. आधार के एकरूपता वाले आंकड़े, इसके विश्लेषण को सरल बना देते हैं. ये उन डेटाबेस से अलग है, जिन्हें अलग अलग स्रोतों से जुटाकर तैयार किया जाता है.
आधार के आंकड़ों से प्रशिक्षित AI के कुछ उपयोग तो पहले ही प्रस्तावित किए जा चुके हैं. केंद्र और राज्यों की सरकारें आधार का इस्तेमाल, कल्याणकारी योजनाओं का लाभ वितरित करने और संसाधनों को उन जगहों पर भेजने के लिए कर सकते हैं, जहां उनकी सबसे ज़्यादा ज़रूरत हो. पंजाब में पुलिस अपने AI आधारित फेशियल रिकॉग्निशन के सॉफ्टवेयर को आधार के डेटा से जोड़ना चाहेगी, जिससे अपराधियों को पकड़ने में उसे और मदद मिले. इस्तेमाल कोई भी हो, इन संभावित कार्यक्रमों के लाभ को, लोगों की निजी ज़िंदगी में दख़लंदाज़ी के पैमाने पर कसकर देखा जाना चाहिए.
निजता का अधिकार
जब भारत सरकार आधार व्यवस्था बना रही थी तब उसे एक जैसी पहचान के पंजीकरण के भारत के संविधान में दर्ज निजता के अधिकार पर असर को लेकर भी सोच–विचार करना पड़ा था. 2017 के जस्टिस के. एस. पुट्टुस्वामी बनाम भारत सरकार के मुक़दमे में सुप्रीम कोर्ट ने फ़ैसला दिया था कि निजता एक बुनियादी अधिकार है, क्योंकि ये किसी के व्यक्तिगत स्वतंत्रता के हक़ को इस्तेमाल करने की पहली शर्त है. सुप्रीम कोर्ट की उस बेंच के सभी जजों ने एकमत से कहा था कि जैसे जैसे तकनीकी तरक़्क़ी से लोगों की निजी ज़िंदगी की निगरानी बढ़ रही है, वैसे वैसे, सरकार के हितों और निजता के अधिकार के बीच संतुलन बनाना और भी ज़रूरी होता जा रहा है.
केंद्र और राज्यों की सरकारें आधार का इस्तेमाल, कल्याणकारी योजनाओं का लाभ वितरित करने और संसाधनों को उन जगहों पर भेजने के लिए कर सकते हैं, जहां उनकी सबसे ज़्यादा ज़रूरत हो.
निज़ता के मज़बूत कवच के बिना AI के मॉडलों को आधार के डेटाबेस तक पहुंच देने से ये संतुलन नहीं बन सकता है. मशीन लर्निंग के मॉडल को जनता से जुड़ी बुनियादी जानकारी जैसे कि नाम, उम्र, सेक्स और पते के आधार पर ट्रेनिंग देने से निजता के अधिकार में दख़लंदाज़ी का नैतिक रूप से सवालिया निशान लगता है. ये चिंताएं तब और बढ़ जाती हैं, जब आधार के नंबर को बैंक खातों और सिम कार्ड जैसी संवेदनशील निजी जानकारियों से जोड़ दिया जाता है. इसके अलावा इस वक़्त आधार में दर्ज किसी भी इंसान ने अपने रजिस्ट्रेशन के समय अपनी जानकारियों को AI को ट्रेनिंग देने के लिए इस्तेमाल करने की इजाज़त नहीं दी थी. चूंकि आज आधार का जीवन में बड़े पैमाने पर इस्तेमाल हो रहा है, ऐसे में नागरिकों के लिए अपनी निजता की फ़िक्र करते हुए, आधार के आंकड़ों से अपनी जानकारियां मिटा पाना लगभग नामुमकिन होगा. आधार में दर्ज नागरिकों की जानकारी से जुड़ी निजता की सुरक्षा की गारंटी देने की भारत सरकार की क्षमता, आधार डेटाबेस की कमज़ोर साइबर सुरक्षा के कारण और भी कमज़ोर हो जाती है.
पूर्वाग्रहों के शिकार होने की आशंका
वैसे तो आम तौर पर यही माना जाता है कि कंप्यूटर पूर्वाग्रह के शिकार नहीं होते. लेकिन, AI की व्यवस्थाओं के बारे में आम तौर पर यही माना जाता है कि वो डेटासेट में मौजूदा पूर्वाग्रहों की नक़ल करते हैं. मशीन लर्निंग असल में भविष्य के पूर्वानुमान लगाने के लिए पुराने डेटा को आधार बनाती है. लेकिन, पक्षपातपूर्ण आंकड़ों के आधार पर मॉडल को ट्रेनिंग देने से उन पूर्वाग्रहों के मशीन द्वारा दोहराए जाने का डर पैदा हो जाता है. उदाहरण के तौर पर, अमेरिका में प्रेडिक्टिव पोलिसिंग कार्यक्रमों में अक्सर अश्वेत लोगों के समुदायों को पक्षपातपूर्ण तरीक़े से निशाना बनाया जाता है.
अमेरिका में पुलिस से अफ्रीकी मूल के लोगों की शिकायत करने की संभावना अधिक होती है. ऐसे में AI मॉडल के बारे में माना जाता है कि वो अफ्रीकी अमेरिकी समुदायों के बारे में यही पूर्वानुमान देंगे कि उनकी बस्तियों में अधिक जोखिम है. फिर चाहे उस इलाक़े में अपराध की कोई भी दर क्यों न हो. भारत में समाज के वर्गीकरण के ऐतिहासिक आधार, यहां पर भी पूर्वाग्रहों को जन्म दे सकते हैं.
AI की ट्रेनिंग के लिए कंपनियों को आधार के आंकड़ों तक पहुंच देने से पहुंच का दायरा बढ़ता है और थर्ड पार्टी द्वारा घुसपैठ करके पूरी व्यवस्था की सुरक्षा को ख़तरा पैदा करने का जोखिम बढ़ जाता है.
आधार और AI को एक साथ लाने से निजता और सुरक्षा की जटिल चुनौतियां तो पैदा होती ही हैं. इसके अलावा आधार के डेटा के आधार पर तैयार मशीन लर्निंग के कार्यक्रम में मौजूद पूर्वाग्रहों की पहचान करके उसने निपटने में भी सक्षमता का अभाव है. संवेदनशील आंकड़ों से आर्टिफिशियल इंटेलिजेंस को जोड़ने से पहले जाति, धर्म या आमदनी के आधार पर भेदभाव की आशंकाओं से निपट लेना होगा. AI द्वारा असमानता को स्थानीय बनाने से रोकने के लिए रोकथाम की व्यवस्था बनाना ज़रूरी है. मशीन लर्निंग के दौरान ‘ब्लैक बॉक्स’ का नज़रिया अपनाना, जहां AI के रचनाकारो को भी फ़ैसलों के पीछे का तर्क नहीं पता होता, उससे ये मसला और बढ़ जाता है. 2019 में एप्पल ये नहीं बता पाया था कि उसका क्रेडिट कार्ड का नया कार्यक्रम, महिलाओं से ज़्यादा पुरुषों को क़र्ज़ लेने का विकल्प ज़्यादा क्यों उपलब्ध कराता है. और, यहां तक कि गूगल के अपने इंजीनियर भी एक वेबसाइट के एक ख़ास पहलू के बारे में नहीं बता पाए थे, जिसका इस्तेमाल करते हुए गूगल का एल्गोरिद्म सर्च के नतीजे दिखाता है.
सुरक्षा की चिंताएं
आधार डेटाबेस जैसे आंकड़ों की ईमानदारी की रक्षा करना, हैकर्स और सेंध लगाने वालों से नागरिकों की निजता की हिफ़ाज़त करना है. चूंकि आधार के आंकड़े केंद्रीकृत हैं. इसलिए, आधार से जुड़ा आंकड़ों का विशाल भंडार सुरक्षित बनाना पहले ही बड़ा चुनौती वाला काम है: हाल के वर्षों में आधार की जानकारियां कई बार लीक हो चुकी हैं और 2018 में द ट्रिब्यून ने व्हाट्सऐप पर एक समूह को 500 रुपए देकर, आधार नंबर के ज़रिए निजी जानकारियां हासिल की थी. ये चिंताएं तो तभी जन्म ले चुकी थी, जब AI और आधार के एकीकरण की चर्चा नहीं हुई थी. आधार के अंदरूनी कामकाज की सबसे ज़्यादा जानकारी तो भारत सरकार के पास ही होती है.
इस प्रक्रिया में आर्टिफ़िशियल इंटेलिजेंस को शामिल करने से आधार की जानकारी को सुरक्षित बनाए रखने की चिंताएं और बढ़ जाएंगी. AI की एकीकृत तकनीकें विकसित करने के लिए भारत सरकार अक्सर तीसरे पक्ष वाली कंपनियों पर भरोसा करती है. AI की ट्रेनिंग के लिए कंपनियों को आधार के आंकड़ों तक पहुंच देने से पहुंच का दायरा बढ़ता है और थर्ड पार्टी द्वारा घुसपैठ करके पूरी व्यवस्था की सुरक्षा को ख़तरा पैदा करने का जोखिम बढ़ जाता है. अमेरिका ने 2020 में ऐसी ही चुनौती का सामना किया था, जब वहां की संघीय सरकार की व्यवस्थाओं की सार्वजनिक सुरक्षा में तब सेंध लग गई थी, जब उस नेटवर्क तक पहुंच रखने वाले एक छोटे ठेकेदार ने ऐसा किया था. अगर आधार व्यवस्था की मौजूदा चुनौतियों को दूर भी कर लिया जाता है, तो भी भारत सरकार को संभावित ठेकेदारों की पड़ताल की व्यवस्था बनानी होगी, ताकि व्यवस्था में किसी कमज़ोरी की घुसपैठ नहीं करा पाना सुनिश्चित हो सके.
आर्टिफ़िशियल इंटेलिजेंस के दौर में निजता का संरक्षण
AI के फ़ायदों और निजता की चिंताओं के बीच संतुलन बनाने के लिए भारत को चाहिए कि वो AI के लिए बुनियादी अधिकारों का एक प्रस्ताव तैयार करे, जिसमें डेटा का ज़िम्मेदारी से इस्तेमाल करने के दिशा निर्देश दिए जा सकें. हालांकि, भारत के नियामकों को चाहिए कि वो नैतिक आर्टिफ़िशियल इंटेलिजेंस और ख़ास तौर से आधार से जुड़ी चिंताओं को दूर करे. वैसे तो भारत सरकार ने 2018 में नीति आयोग द्वारा प्रकाशित नेशनल स्ट्रेटेजी फॉर AI की रिपोर्ट में जताई गई चिंताओं का समर्थन किया था और कहा था कि AI कंपनियों को आने वाले डिजिटल पर्सनल डेटा प्रोटेक्शन बिल के तहत डेटा की निजता के नियमों का पालन करना होगा. लेकिन, इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने कहा है कि फिलहाल ख़ास आर्टिफ़िशियल इंटेलिजेंस को लेकर नियम बनाने उसकी कोई योजना नहीं है, क्योंकि सरकार का मानना है कि ज़रूरत से ज़्यादा नियमन से आविष्कारों का गला घोंट जाता है. AI की प्रगति को बढ़ावा देने वाली सोच तो समझ में आती है. लेकिन, उद्योग को पूरी तरह से नियमों के दायरे से अलग रखने पर नैतिकता के नियमों के उल्लंघन का जोखिम पैदा होता है. इसके बजाय, भारत को चाहिए कि वो अपने इस नई तकनीक का गला घोंटने के बजाय, अंतरराष्ट्रीय साझेदारों द्वारा AI के नियमन के उदाहरण को अपनाए.
AI कंपनियों को आने वाले डिजिटल पर्सनल डेटा प्रोटेक्शन बिल के तहत डेटा की निजता के नियमों का पालन करना होगा. लेकिन, इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय ने कहा है कि फिलहाल ख़ास आर्टिफ़िशियल इंटेलिजेंस को लेकर नियम बनाने उसकी कोई योजना नहीं है
2019 में G20 ने भरोसेमंद आर्टिफिशियल इंटेलिजेंस को ज़िम्मेदारी से इस्तेमाल करने के सिद्धांतों को अपनाया था. ये सिद्धांत AI से जुड़ी संस्थाओं के लिए समावेश, पारदर्शिता, सुरक्षा और जवाबदेही को बढ़ावा देना ज़रूरी बनाते हैं. यूरोपीय संघ (EU) और अमेरिका ने भी आर्टिफ़िशियल इंटेलिजेंस के नैतिक इस्तेमाल के लिए अपने दिशानिर्देशों का प्रस्ताव रखा है. इन व्यापक सिद्धांतों को और आगे बढ़ाते हुए भारत AI के क्षेत्र में अपने हितों के हिसाब से राष्ट्रीय दिशा निर्देश तैयार कर सकता है, ख़ास तौर से आधार के साथ एकीकरण के मामले में. इसमें कोई दो राय नहीं कि आर्टिफिशियल इंटेलिजेंस में भारतीय नागरिकों के कल्याण की अपार संभावनाएं हैं. भारत को चाहिए कि वो बेहतर भविष्य के निर्माण के लिए AI की ताक़त और उभरती हुई तकनीकों का इस्तेमाल करने के लिए, आर्टिफिशियल इंटेलिजेंस के संभावित नियमों की पड़ताल करें.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.