भारतातील 'विस्मरणाचा अधिकार' (Right to Be Forgotten) आता केवळ डेटा हटवण्यापलीकडे विकसित होणे गरजेचे आहे. एआय (AI) प्रणाली वैयक्तिक डेटा कशा प्रकारे आत्मसात करतात, तो कसा लक्षात ठेवतात आणि त्या आधारे इतर माहितीचे अनुमान कसे लावतात, या महत्त्वाच्या मुद्द्यांचा विचार करणे आता आवश्यक झाले आहे.
राईट टू बी फरगॉटन (RTBF) अर्थात विसरण्याचा अधिकार ही संकल्पना व्यक्तीचे तिच्या वैयक्तिक डेटावर नियंत्रण असावे या समजुतीतून निर्माण झाली आहे. डिजिटल जगात हा अधिकार माणसांच्या गोपनीयतेच्या अधिकाराचे संरक्षण करण्याचा प्रयत्न करतो. डिजिटल स्पेसमध्ये विसरण्याच्या अधिकाराला अत्यंत महत्त्व आले असले तरी कृत्रिम बुद्धीमत्तेच्या म्हणजे आर्टिफिशिअर इंटेलिजन्सच्या (AI) उदयानंतर शिकणे, ऑप्टिमाईज करणे आणि सातत्याने विकसित होत राहाणे या प्रक्रियांसाठी ‘AI’ हे प्रचंड डेटासेट्सवर अवलंबून आहे. त्यामुळे डेटा नष्ट करणे ही प्रक्रिया गुंतागुंतीची आणि काही बाबतीत तर तांत्रिकदृष्ट्या अशक्य झाली आहे.
विसरण्याच्या अधिकाराच्या निमित्ताने होणाऱ्या बहुतेक कायदेशीर चर्चा या प्रामुख्याने डेटा नष्ट करणे याच मुद्द्याला केंद्रस्थानी ठेवून होताना दिसतात. डेटा नष्ट करणे ही वरवर पाहता अत्यंत सोपी प्रक्रिया वाटत असेल तरी मशीन लर्निंगच्या काळात मात्र त्यात अनेक व्यावहारिक अडचणी आणि आव्हाने आहेत. ‘AI’ ची प्रचंड वेगाने होणारी प्रगती आणि त्यामुळे निर्माण होत असलेल्या गोपनीयतेच्या चिंता या पार्श्वभूमीवर विसरण्याचा अधिकार कसा विकसित व्हायला हवा याची चर्चा करणे महत्त्वाचे आहे.
डेटा काढून टाकल्यानंतरही त्याचा प्रभाव वर्तनावर राहू शकतो. त्यामुळे सूक्ष्म किंवा अप्रत्यक्ष मार्गाने वैयक्तिक माहितीचा पुन्हा माग काढता येणे शक्य आहे. म्हणूनच एखादी गोष्ट नष्ट करण्याचा ‘AI’ च्या युगातील अर्थ काय याचा पुनर्विचार करण्याची गरज आहे.
‘AI’ सिस्टिम्स तुमचा पर्सनल डेटा जतन करतात की नाही हा आता चर्चेचा मुद्दा नाही, त्या तो कसा इंटर्नलाईज करतात हा खरा कळीचा मुद्दा आहे, असा युक्तीवाद हा लेख करतो. ‘AI’ च्या युगात विसरणे हे साधे डिलीट करण्यापुरते मर्यादित राहिलेले नाही. डेटा काढून टाकल्यानंतरही त्याचा प्रभाव वर्तनावर राहू शकतो. त्यामुळे सूक्ष्म किंवा अप्रत्यक्ष मार्गाने वैयक्तिक माहितीचा पुन्हा माग काढता येणे शक्य आहे. म्हणूनच एखादी गोष्ट नष्ट करण्याचा ‘AI’ च्या युगातील अर्थ काय याचा पुनर्विचार करण्याची गरज आहे.
विसरण्याचा अधिकार हा दोन भागात मोडतो. त्यातला एक भाग म्हणजे विसरण्याचा अधिकार आणि दुसरा भाग म्हणजे (आक्षेप घेण्याच्या अधिकारासह) नष्ट करण्याचा अधिकार. यापैकी विसरण्याच्या अधिकारात व्यक्ती या कायमस्वरुपी त्यांच्या भूतकाळाशी बांधील नसल्याचे लक्षात ठेवून, विसरण्याची शक्यता स्विकारुन त्या व्यक्तीच्या वैयक्तिक प्रतिष्ठेचे संरक्षण करणे समाविष्ट आहे. जिथे एखाद्या व्यक्तीला (डेटा सब्जेक्ट) आपल्या वैयक्तिक डेटावर डेटा कंट्रोलरद्वारे कुठलीही प्रक्रिया व्हावी, तो संग्रही असावा असे वाटत नसते तिथे तसेच वैध कारण नसताना तो डेटा जनतेसाठी उपलब्ध नसावा.
डिजिटल युगात विसरण्याच्या अधिकाराला युरोपिअन न्यायशास्त्राद्वारे, विशेषतः गूगल स्पेन विरुद्ध गोन्झालेझ या खटल्यामुळे महत्त्व प्राप्त झाले. युरोपियन युनियनच्या न्यायालयाने तिथे असा निकाल दिला की सर्च इंजिन्सनी जुनी किंवा असंबद्ध व्यक्तीगत माहिती हटवणं आवश्यक असू शकतं. या निकालाची नंतर जनरल डेटा प्रोटेक्शन रेग्युलेशन (जीडीपीआर) च्या सतराव्या कलमामध्ये नोंद करण्यात आली. त्यामुळे डेटा नष्ट करणे, मिटवणे, खोडणे, पुसणे या प्रक्रियेला कायदेशीररित्या लागू करण्याचा अधिकार म्हणून मान्यता मिळाली.
भारताची विसरण्याच्या अधिकारावरील चर्चा ही आता केवळ सैद्धांतिक, तात्विक पातळीवर राहिलेली नाही. डिजिटल पर्सनल डेटा प्रोटेक्शन ॲक्ट 2023 लागू झाल्यानंतर खोडण्याचा अधिकार हा वैधानिक प्रक्रियेत ठळकपणे समाविष्ट झाला आहे. या कायद्याच्या कलम 12 (3) नुसार डेटा प्रिन्सिपल्सना वैयक्तिक डेटा हा प्रकिया केलेल्या उद्देशासाठी गरज नसताना किंवा मिळालेली संमती मागे घेतली गेली असता तो खोडण्याची विनंती करता येते. तसा अधिकार मिळतो. कागदोपत्री पाहिले तर हा अधिकार स्पष्ट दिसतो. गोळा केलेला डेटा विनंती करण्यात आली तर खोडला, पुसला, मिटवला गेला पाहिजे.
प्रत्यक्षात मात्र मशीन लर्निंग किंवा ‘AI’ ला हे तत्व लागू केले असता या मार्गातील अडथळा केवळ आदेशाचे कायदेशीर पालन एवढेच नसून पॉलिसी डिझाईन हे आहे. कारण ‘AI’ यंत्रणा या पारंपरिक पद्धतीने डेटा साठवून ठेवत नाहीत. उलट, डेटाचा वापर त्या शिकण्यासाठी करतात. त्याद्वारे भविष्यातील आउटपुट्स आकाराला येतात. एकदा एखादी गोष्ट शिकून झाली की या ‘AI’ सिस्टिम्स मूळ डेटाबेसवर पुन्हा अवलंबून राहाताना दिसत नाहीत, त्यामुळे ते डिलीट करण्याचा पर्यायही राहात नाही. त्यामुळे खोडून टाकणे या प्रक्रियेतील धोरणात्मक अपेक्षा आणि ‘AI’ मॉडेल्स कसे काम करतात इथे संघर्ष सुरु होतो.
एकदा एखादी गोष्ट शिकून झाली की या ‘AI’ सिस्टिम्स मूळ डेटाबेसवर पुन्हा अवलंबून राहाताना दिसत नाहीत, त्यामुळे ते डिलीट करण्याचा पर्यायही राहात नाही. त्यामुळे खोडून टाकणे या प्रक्रियेतील धोरणात्मक अपेक्षा आणि ‘AI’ मॉडेल्स कसे काम करतात इथे संघर्ष सुरु होतो.
साहजिकच नियामक अपेक्षा आणि तांत्रिक व्यवहार्यता यांच्यातील दरी वाढत आहे. याकडे दुर्लक्ष केले तर गोपनीयतेचे संरक्षण कमकुवत होईल किंवा भारतातील जबाबदार ‘AI’ विकासावर त्याचा परिणाम होईल, अशी शक्यता आहे.
मशीन अनलर्निंग ही एक उदयोन्मुख संकल्पना आहे. कायदेशीर-तांत्रिक दोष रेषा याच नेमक्या मुद्द्यावर ही संकल्पना समर्पक ठरते. मशीन अनलर्निंमुळे मशीन लर्निंग मॉडेल्सना, प्रशिक्षित ‘AI’ मॉडेल्समधील समर्पक नसलेली काही विशिष्ट माहिती विसरता येणे शक्य होते. जी माहिती आता समर्पक नाही किंवा पक्षपाती वाटेल अशी माहिती त्यात समाविष्ट असू शकते. याकडे अधिक व्यापकपणे पाहिल्यास दोन दृष्टीकोन समोर येतात. त्यातला पहिला हा एक्झॅक्ट अनलर्निंगचा आहे. त्यात उपलब्ध डेटा पुसून ‘AI’ मॉडेलला पुन्हा पहिल्यापासून सगळे शिकवणे आवश्यक आहे. हे कायद्याच्या दृष्टीने उपयुक्त वाटत असले तरी व्यावहारिकदृष्ट्या अव्यवहार्य आहे. एक्झॅक्ट अनलर्निंगनंतर एलएलएम्स सारख्या मोठ्या भाषा प्रणालींना पुन्हा नव्याने शिकवणे हे संगणकीय दृष्टीने प्रचंड महाग आहे. पर्यावरणदृष्ट्या अशाश्वतही आहे. डेटा नष्ट करण्याच्या प्रत्येक विनंतीनुसार एक्झॅक्ट अनलर्निंगची गरज असेल तर ते कायदेशीरदृष्टीने जिकिरीचे आणि अंमलबजावणीच्या दृष्टीने अशक्य होईल.
दुसरा दृष्टीकोन ॲप्रॉक्झिमेट अनलर्निंग हा आहे. त्यात अल्गोरिदम्स हे विशिष्ट डेटाचा प्रभाव कमी करण्यासाठी विशिष्ट मॉडेलवर आंतर्गत काम करतात. ही व्यवस्था अधिक व्यवहार्य वाटत असली तरी त्यात विशिष्ट डेटा नष्ट होण्याची खात्री नाही. यात त्यातल्या त्यात होणारी सर्वोत्तम गोष्ट म्हणजे या पद्धतीमध्ये ते मॉडेल नष्ट केलेला डेटा पुन्हा शोधून काढेल किंवा त्याच्या वापरावर अवलंबून राहील ही शक्यता जवळजवळ नसते.
धोरणदृष्ट्या यातून एक महत्त्वाचा प्रश्न उपस्थित होतो तो म्हणजे रेग्युलेटरी कंप्लायन्ससाठी आवश्यक ती तांत्रिक अचूकता परिणामकारक ठरु शकेल का?
मशीन अनलर्निंगमुळे AI डेटा नष्ट करण्याच्या आदेशांचा भडिमार झाला असता काही अडचणीही संभवतात. त्यातली पहिली अडचण ही ओव्हरकरेक्शन अर्थात अतिरिक्त सुधारणांची आहे. ‘AI’ डेव्हलपर्सवर डेटा नष्ट करण्यासाठी अतिरेकी दबाव आला असता त्यातून त्या मॉडेल्सच्या कार्यक्षमतेवर परिणाम होऊ शकतो, पक्षपातीपणा होऊ शकतो, त्या मॉडेलची ग्राहकांमध्ये असलेली विश्वासार्हताही कमी होऊ शकते. प्रशासकीय दृष्टीने वैयक्तिक अधिकार आणि कार्यक्षमता यांच्यातील पॉलिसी ट्रेड ऑफचं हे एक उदाहरण ठरु शकतं.
‘AI’ डेव्हलपर्सवर डेटा नष्ट करण्यासाठी अतिरेकी दबाव आला असता त्यातून त्या मॉडेल्सच्या कार्यक्षमतेवर परिणाम होऊ शकतो, पक्षपातीपणा होऊ शकतो, त्या मॉडेलची ग्राहकांमध्ये असलेली विश्वासार्हताही कमी होऊ शकते. प्रशासकीय दृष्टीने वैयक्तिक अधिकार आणि कार्यक्षमता यांच्यातील पॉलिसी ट्रेड ऑफचं हे एक उदाहरण ठरु शकतं.
पडताळणी करणंही अडचणीचं ठरु शकतं. काही डेटा विस्मरणात गेला आहे हे दाखवण्यासाठी चाचणी स्वरुपात काही माहिती राखून ठेवण्याची गरज भासू शकते. त्यामुळे डेटा मिनिमायजेशन पॉलिसीची तत्व कमकुवत होऊ शकतात. थोडक्यात, डेटा नष्ट करण्याची सक्ती गोपनीयतेला बळकटी देण्याऐवजी कदाचित कमकुवतच करण्याची शक्यता जास्त असू शकते.
म्हणजेच डेटा इरेजरचा आग्रह हा ‘AI’ ला अस्थिर करणारा ठरु शकतो याचा विचार कायदा किंवा धोरण अद्याप करत नाहीत, असं दिसतं.
भारतापुरतं बोलायचं झालं तर या तांत्रिक वास्तवामध्ये काही संकल्पनात्मक बदल आवश्यक आहेत. डीपीडीपी कायद्यांतर्गत इरेजरचा अर्थ वैयक्तिक डेटाचा प्रत्येक गणितीय ट्रेस नष्ट करणे असा लावला गेला तर बहुतेक ‘AI’ यंत्रणा या कायमस्वरुपी नॉन कंप्लायंट ठरतील. तसे केल्यास सिंगल डेटा प्रिन्सिपलने आपले अधिकार वापरल्यामुळे अर्थपूर्ण ‘AI’ निर्मितीवर वर कायमचे प्रतिबंध येतील.
फंक्शनल इरेजरची ही संकल्पना गोपनीयतेचे संरक्षण करण्याच्या मूल्याचं जतन करत तांत्रिक व्यवहार्यताही साध्य करणारी आहे.
त्यामुळेच अधिक व्यवहार्य आणि भविष्याभिमुख करण्यासाठी डेटा इरेजर म्हणजे डेटा शब्दशः नष्ट करण्याऐवजी त्याचा प्रभाव कमी करणे हा होय. या चौकटीत मॉडेल्समधून डेटा पूर्णपणे काढून टाकण्याची गरज राहणार नाही. त्याऐवजी त्याचे परिणाम काय होत आहेत यांवर लक्ष केंद्रित करणे पुरेसे ठरेल. व्यक्तीचा वैयक्तिक डेटा प्रशिक्षण देणाऱ्या डेटासेट्समधून वगळला जाईल, त्या डेटाची पुनर्प्राप्ती रोखली जाईल आणि त्यामुळे जुन्या, वगळलेल्या डेटाच्या आधारे त्या व्यक्तीबद्दल कोणतेही निर्णय घेतले जाणार नाहीत.
फंक्शनल इरेजरची ही संकल्पना गोपनीयतेचे संरक्षण करण्याच्या मूल्याचं जतन करत तांत्रिक व्यवहार्यताही साध्य करणारी आहे.
भारताबाहेरील न्यायक्षेत्रांमध्येही याच अडचणीवर चर्चा सुरु आहेत. युरोपियन युनियनने जीडीपीआर अंतर्गत आरटीबीएफच्या चौकटीत असूनही प्रशिक्षित AI मॉडेल्सना इरेजर कसे लागू पडू शकते याचे मार्गदर्शन केलेले नाही. मात्र, संदर्भ-संवेदनशील अर्थ न लावताच डेटा नष्ट करणे हे AI मॉडेल्सना सरसकट लागू पडणारे नाही यावर न्यायालये आणि नियामक यांचे सहमत असणे वाढत आहे.
या आघाडीवर भारताला एक जागरुक आणि व्यावहारिक दृष्टिकोन स्विकारुन नेतृत्व करण्याची संधी आहे. गोपनीयतेची काळजी घेत, तांत्रिक व्यवहार्यता यांचा तोल जपत हे करणे भारतासाठी महत्त्वाचे आहे कारण भारत आज स्वतःची देशांतर्गत AI क्षमता विस्तारण्याच्या प्रयत्नात आहे. AI गव्हर्नन्स गाईडलाईन्स तयार करुन भारताने त्या दिशेने आपला प्रवासही सुरु केला आहे. या AI मॉडेल्सचा पाया विश्वास, मानवतेला केंद्रस्थानी ठेवणे, निष्पक्षपाती, जबाबदार, सुरक्षित, लवचिकपणा या आधारावर रचलेला असावा असे या गाईडलाईन्समध्ये नमुद करण्यात आले आहे. या मूळ मुद्द्यांवर भर देत, गोपनीयतेची कास न सोडता, AI उपक्रम आणि बदल या मार्गावर स्वतःला पुढे देऊ शकत नाही.
विसरण्याचा अधिकार हा स्मृती पुसुन टाकता येतात असे गृहित धरणाऱ्या डिजिटल जगासाठी तयार करण्यात आलेली संकल्पना होती. मात्र ‘AI’ मुळे त्याच्या मर्यादा उघड होतात. विसरण्याचा अधिकार AI ला लागू करावा की नाही हे भारतापुढील आव्हान नाही, कारण ते करणे आवश्यकच आहे, मात्र कायदेशीर AI डेव्हलपमेंट करताना हा समतोल कसा साधायचा हे भारतापुढील खरे आव्हान आहे.
मशीन अनलर्निंगमधून हे स्पष्ट होते की AI मध्ये विसरणे ही दुहेरी कृती नाही, तर प्रभाव हळूहळू कमी करणे हे आहे. हे ओळखल्याने गोपनीयतेचा अधिकार कमकुवत होत नाही तर तांत्रिक सत्याच्या काळात त्याला बळकटीच देते. थोडक्यात, विसरण्याच्या अधिकाराचे भवितव्य हे मशीन्सनी पूर्णपणे विसरावे अशी अपेक्षा करण्यात नाही तर जे महत्त्वाचे आहे तेच मशीन्स लक्षात ठेवतील याची खबरदारी घेण्यात आहे.
तनुशा त्यागी या ऑब्झर्वर रिसर्च फाउंडेशनच्या सेंटर फॉर डिजिटल सोसायटीजमध्ये रिसर्च असिस्टंट आहेत.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.
Tanusha Tyagi is a research assistant with the Centre for Digital Societies at ORF. Her research focuses on issues of emerging technologies, data protection and ...
Read More +