Author : Tanusha Tyagi

Expert Speak Raisina Debates
Published on Jan 21, 2026 Updated 0 Hours ago

भारतातील 'विस्मरणाचा अधिकार' (Right to Be Forgotten) आता केवळ डेटा हटवण्यापलीकडे विकसित होणे गरजेचे आहे. एआय (AI) प्रणाली वैयक्तिक डेटा कशा प्रकारे आत्मसात करतात, तो कसा लक्षात ठेवतात आणि त्या आधारे इतर माहितीचे अनुमान कसे लावतात, या महत्त्वाच्या मुद्द्यांचा विचार करणे आता आवश्यक झाले आहे.

AI विसरत नाही! ‘राइट टू बी फॉरगॉटन’समोरील नवं आव्हान

राईट टू बी फरगॉटन (RTBF) अर्थात विसरण्याचा अधिकार ही संकल्पना व्यक्तीचे तिच्या वैयक्तिक डेटावर नियंत्रण असावे या समजुतीतून निर्माण झाली आहे. डिजिटल जगात हा अधिकार माणसांच्या गोपनीयतेच्या अधिकाराचे संरक्षण करण्याचा प्रयत्न करतो. डिजिटल स्पेसमध्ये विसरण्याच्या अधिकाराला अत्यंत महत्त्व आले असले तरी कृत्रिम बुद्धीमत्तेच्या म्हणजे आर्टिफिशिअर इंटेलिजन्सच्या (AI) उदयानंतर शिकणे, ऑप्टिमाईज करणे आणि सातत्याने विकसित होत राहाणे या प्रक्रियांसाठी ‘AI’ हे प्रचंड डेटासेट्सवर अवलंबून आहे. त्यामुळे डेटा नष्ट करणे ही प्रक्रिया गुंतागुंतीची आणि काही बाबतीत तर तांत्रिकदृष्ट्या अशक्य झाली आहे.

विसरण्याच्या अधिकाराच्या निमित्ताने होणाऱ्या बहुतेक कायदेशीर चर्चा या प्रामुख्याने डेटा नष्ट करणे याच मुद्द्याला केंद्रस्थानी ठेवून होताना दिसतात. डेटा नष्ट करणे ही वरवर पाहता अत्यंत सोपी प्रक्रिया वाटत असेल तरी मशीन लर्निंगच्या काळात मात्र त्यात अनेक व्यावहारिक अडचणी आणि आव्हाने आहेत. ‘AI’ ची प्रचंड वेगाने होणारी प्रगती आणि त्यामुळे निर्माण होत असलेल्या गोपनीयतेच्या चिंता या पार्श्वभूमीवर विसरण्याचा अधिकार कसा विकसित व्हायला हवा याची चर्चा करणे महत्त्वाचे आहे.  

डेटा काढून टाकल्यानंतरही त्याचा प्रभाव वर्तनावर राहू शकतो. त्यामुळे सूक्ष्म किंवा अप्रत्यक्ष मार्गाने वैयक्तिक माहितीचा पुन्हा माग काढता येणे शक्य आहे. म्हणूनच एखादी गोष्ट नष्ट करण्याचा ‘AI’ च्या युगातील अर्थ काय याचा पुनर्विचार करण्याची गरज आहे.

‘AI’ सिस्टिम्स तुमचा पर्सनल डेटा जतन करतात की नाही हा आता चर्चेचा मुद्दा नाही, त्या तो कसा इंटर्नलाईज करतात हा खरा कळीचा मुद्दा आहे, असा युक्तीवाद हा लेख करतो. ‘AI’ च्या युगात विसरणे हे साधे डिलीट करण्यापुरते मर्यादित राहिलेले नाही. डेटा काढून टाकल्यानंतरही त्याचा प्रभाव वर्तनावर राहू शकतो. त्यामुळे सूक्ष्म किंवा अप्रत्यक्ष मार्गाने वैयक्तिक माहितीचा पुन्हा माग काढता येणे शक्य आहे. म्हणूनच एखादी गोष्ट नष्ट करण्याचा ‘AI’ च्या युगातील अर्थ काय याचा पुनर्विचार करण्याची गरज आहे.   

विसरण्याच्या अधिकाराचा संकल्पनात्मक पाया - भारताच्या डीपीडीपी कायद्यांतर्गत नष्ट करण्याचा अधिकार

विसरण्याचा अधिकार हा दोन भागात मोडतो. त्यातला एक भाग म्हणजे विसरण्याचा अधिकार आणि दुसरा भाग म्हणजे (आक्षेप घेण्याच्या अधिकारासह) नष्ट करण्याचा अधिकार. यापैकी विसरण्याच्या अधिकारात व्यक्ती या कायमस्वरुपी त्यांच्या भूतकाळाशी बांधील नसल्याचे लक्षात ठेवून, विसरण्याची शक्यता स्विकारुन त्या व्यक्तीच्या वैयक्तिक प्रतिष्ठेचे संरक्षण करणे समाविष्ट आहे. जिथे एखाद्या व्यक्तीला (डेटा सब्जेक्ट) आपल्या वैयक्तिक डेटावर डेटा कंट्रोलरद्वारे कुठलीही प्रक्रिया व्हावी, तो संग्रही असावा असे वाटत नसते तिथे तसेच वैध कारण नसताना तो डेटा जनतेसाठी उपलब्ध नसावा.   

डिजिटल युगात विसरण्याच्या अधिकाराला युरोपिअन न्यायशास्त्राद्वारे, विशेषतः गूगल स्पेन विरुद्ध गोन्झालेझ या खटल्यामुळे महत्त्व प्राप्त झाले. युरोपियन युनियनच्या न्यायालयाने तिथे असा निकाल दिला की सर्च इंजिन्सनी जुनी किंवा असंबद्ध व्यक्तीगत माहिती हटवणं आवश्यक असू शकतं. या निकालाची नंतर जनरल डेटा प्रोटेक्शन रेग्युलेशन (जीडीपीआर) च्या सतराव्या कलमामध्ये नोंद करण्यात आली. त्यामुळे डेटा नष्ट करणे, मिटवणे, खोडणे, पुसणे या प्रक्रियेला कायदेशीररित्या लागू करण्याचा अधिकार म्हणून मान्यता मिळाली. 

भारताच्या डीपीडीपी कायद्यांतर्गत खोडण्याचा, पुसण्याचा, मिटवण्याचा अधिकार

भारताची विसरण्याच्या अधिकारावरील चर्चा ही आता केवळ सैद्धांतिक, तात्विक पातळीवर राहिलेली नाही. डिजिटल पर्सनल डेटा प्रोटेक्शन ॲक्ट 2023 लागू झाल्यानंतर खोडण्याचा अधिकार हा वैधानिक प्रक्रियेत ठळकपणे समाविष्ट झाला आहे. या कायद्याच्या कलम 12 (3) नुसार डेटा प्रिन्सिपल्सना वैयक्तिक डेटा हा प्रकिया केलेल्या उद्देशासाठी गरज नसताना किंवा मिळालेली संमती मागे घेतली गेली असता तो खोडण्याची विनंती करता येते. तसा अधिकार मिळतो. कागदोपत्री पाहिले तर हा अधिकार स्पष्ट दिसतो. गोळा केलेला डेटा विनंती करण्यात आली तर खोडला, पुसला, मिटवला गेला पाहिजे.   

प्रत्यक्षात मात्र मशीन लर्निंग किंवा ‘AI’ ला हे तत्व लागू केले असता या मार्गातील अडथळा केवळ आदेशाचे कायदेशीर पालन एवढेच नसून पॉलिसी डिझाईन हे आहे. कारण ‘AI’ यंत्रणा या पारंपरिक पद्धतीने डेटा साठवून ठेवत नाहीत. उलट, डेटाचा वापर त्या शिकण्यासाठी करतात. त्याद्वारे भविष्यातील आउटपुट्स आकाराला येतात. एकदा एखादी गोष्ट शिकून झाली की या ‘AI’ सिस्टिम्स मूळ डेटाबेसवर पुन्हा अवलंबून राहाताना दिसत नाहीत, त्यामुळे ते डिलीट करण्याचा पर्यायही राहात नाही. त्यामुळे खोडून टाकणे या प्रक्रियेतील धोरणात्मक अपेक्षा आणि ‘AI’ मॉडेल्स कसे काम करतात इथे संघर्ष सुरु होतो.

एकदा एखादी गोष्ट शिकून झाली की या ‘AI’ सिस्टिम्स मूळ डेटाबेसवर पुन्हा अवलंबून राहाताना दिसत नाहीत, त्यामुळे ते डिलीट करण्याचा पर्यायही राहात नाही. त्यामुळे खोडून टाकणे या प्रक्रियेतील धोरणात्मक अपेक्षा आणि ‘AI’ मॉडेल्स कसे काम करतात इथे संघर्ष सुरु होतो.

साहजिकच नियामक अपेक्षा आणि तांत्रिक व्यवहार्यता यांच्यातील दरी वाढत आहे. याकडे दुर्लक्ष केले तर गोपनीयतेचे संरक्षण कमकुवत होईल किंवा भारतातील जबाबदार ‘AI’ विकासावर त्याचा परिणाम होईल, अशी शक्यता आहे. 

मशिन अनलर्निंग - कायदेशीर-तांत्रिक दोषाची रेषा 

मशीन अनलर्निंग ही एक उदयोन्मुख संकल्पना आहे. कायदेशीर-तांत्रिक दोष रेषा याच नेमक्या मुद्द्यावर ही संकल्पना समर्पक ठरते. मशीन अनलर्निंमुळे मशीन लर्निंग मॉडेल्सना, प्रशिक्षित ‘AI’ मॉडेल्समधील समर्पक नसलेली काही विशिष्ट माहिती विसरता येणे शक्य होते. जी माहिती आता समर्पक नाही किंवा पक्षपाती वाटेल अशी माहिती त्यात समाविष्ट असू शकते. याकडे अधिक व्यापकपणे पाहिल्यास दोन दृष्टीकोन समोर येतात. त्यातला पहिला हा एक्झॅक्ट अनलर्निंगचा आहे. त्यात उपलब्ध डेटा पुसून ‘AI’ मॉडेलला पुन्हा पहिल्यापासून सगळे शिकवणे आवश्यक आहे. हे कायद्याच्या दृष्टीने उपयुक्त वाटत असले तरी व्यावहारिकदृष्ट्या अव्यवहार्य आहे. एक्झॅक्ट अनलर्निंगनंतर एलएलएम्स सारख्या मोठ्या भाषा प्रणालींना पुन्हा नव्याने शिकवणे हे संगणकीय दृष्टीने प्रचंड महाग आहे. पर्यावरणदृष्ट्या अशाश्वतही आहे. डेटा नष्ट करण्याच्या प्रत्येक विनंतीनुसार एक्झॅक्ट अनलर्निंगची गरज असेल तर ते कायदेशीरदृष्टीने जिकिरीचे आणि अंमलबजावणीच्या दृष्टीने अशक्य होईल.

दुसरा दृष्टीकोन ॲप्रॉक्झिमेट अनलर्निंग हा आहे. त्यात अल्गोरिदम्स हे विशिष्ट डेटाचा प्रभाव कमी करण्यासाठी विशिष्ट मॉडेलवर आंतर्गत काम करतात. ही व्यवस्था अधिक व्यवहार्य वाटत असली तरी त्यात विशिष्ट डेटा नष्ट होण्याची खात्री नाही. यात त्यातल्या त्यात होणारी सर्वोत्तम गोष्ट म्हणजे या पद्धतीमध्ये ते मॉडेल नष्ट केलेला डेटा पुन्हा शोधून काढेल किंवा त्याच्या वापरावर अवलंबून राहील ही शक्यता जवळजवळ नसते.   

धोरणदृष्ट्या यातून एक महत्त्वाचा प्रश्न उपस्थित होतो तो म्हणजे रेग्युलेटरी कंप्लायन्ससाठी आवश्यक ती तांत्रिक अचूकता परिणामकारक ठरु शकेल का? 

AI इरेजरमधील आव्हाने

मशीन अनलर्निंगमुळे AI डेटा नष्ट करण्याच्या आदेशांचा भडिमार झाला असता काही अडचणीही संभवतात. त्यातली पहिली अडचण ही ओव्हरकरेक्शन अर्थात अतिरिक्त सुधारणांची आहे. ‘AI’ डेव्हलपर्सवर डेटा नष्ट करण्यासाठी अतिरेकी दबाव आला असता त्यातून त्या मॉडेल्सच्या कार्यक्षमतेवर परिणाम होऊ शकतो, पक्षपातीपणा होऊ शकतो, त्या मॉडेलची ग्राहकांमध्ये असलेली विश्वासार्हताही कमी होऊ शकते. प्रशासकीय दृष्टीने वैयक्तिक अधिकार आणि कार्यक्षमता यांच्यातील पॉलिसी ट्रेड ऑफचं हे एक उदाहरण ठरु शकतं.

‘AI’ डेव्हलपर्सवर डेटा नष्ट करण्यासाठी अतिरेकी दबाव आला असता त्यातून त्या मॉडेल्सच्या कार्यक्षमतेवर परिणाम होऊ शकतो, पक्षपातीपणा होऊ शकतो, त्या मॉडेलची ग्राहकांमध्ये असलेली विश्वासार्हताही कमी होऊ शकते. प्रशासकीय दृष्टीने वैयक्तिक अधिकार आणि कार्यक्षमता यांच्यातील पॉलिसी ट्रेड ऑफचं हे एक उदाहरण ठरु शकतं.

पडताळणी करणंही अडचणीचं ठरु शकतं. काही डेटा विस्मरणात गेला आहे हे दाखवण्यासाठी चाचणी स्वरुपात काही माहिती राखून ठेवण्याची गरज भासू शकते. त्यामुळे डेटा मिनिमायजेशन पॉलिसीची तत्व कमकुवत होऊ शकतात. थोडक्यात, डेटा नष्ट करण्याची सक्ती गोपनीयतेला बळकटी देण्याऐवजी कदाचित कमकुवतच करण्याची शक्यता जास्त असू शकते.

म्हणजेच डेटा इरेजरचा आग्रह हा ‘AI’ ला अस्थिर करणारा ठरु शकतो याचा विचार कायदा किंवा धोरण अद्याप करत नाहीत, असं दिसतं.   

AI सिस्टिम्स इरेजरची व्याख्येचा पुनर्विचार

भारतापुरतं बोलायचं झालं तर या तांत्रिक वास्तवामध्ये काही संकल्पनात्मक बदल आवश्यक आहेत. डीपीडीपी कायद्यांतर्गत इरेजरचा अर्थ वैयक्तिक डेटाचा प्रत्येक गणितीय ट्रेस नष्ट करणे असा लावला गेला तर बहुतेक ‘AI’ यंत्रणा या कायमस्वरुपी नॉन कंप्लायंट ठरतील. तसे केल्यास सिंगल डेटा प्रिन्सिपलने आपले अधिकार वापरल्यामुळे अर्थपूर्ण ‘AI’ निर्मितीवर वर कायमचे प्रतिबंध येतील.

फंक्शनल इरेजरची ही संकल्पना गोपनीयतेचे संरक्षण करण्याच्या मूल्याचं जतन करत तांत्रिक व्यवहार्यताही साध्य करणारी आहे.  

त्यामुळेच अधिक व्यवहार्य आणि भविष्याभिमुख करण्यासाठी डेटा इरेजर म्हणजे डेटा शब्दशः नष्ट करण्याऐवजी त्याचा प्रभाव कमी करणे हा होय. या चौकटीत मॉडेल्समधून डेटा पूर्णपणे काढून टाकण्याची गरज राहणार नाही. त्याऐवजी त्याचे परिणाम काय होत आहेत यांवर लक्ष केंद्रित करणे पुरेसे ठरेल. व्यक्तीचा वैयक्तिक डेटा प्रशिक्षण देणाऱ्या डेटासेट्समधून वगळला जाईल, त्या डेटाची पुनर्प्राप्ती रोखली जाईल आणि त्यामुळे जुन्या, वगळलेल्या डेटाच्या आधारे त्या व्यक्तीबद्दल कोणतेही निर्णय घेतले जाणार नाहीत.

फंक्शनल इरेजरची ही संकल्पना गोपनीयतेचे संरक्षण करण्याच्या मूल्याचं जतन करत तांत्रिक व्यवहार्यताही साध्य करणारी आहे.  

‘AI’ आणि इरेजर बाबत आंतरराष्ट्रीय दृष्टीकोन

भारताबाहेरील न्यायक्षेत्रांमध्येही याच अडचणीवर चर्चा सुरु आहेत. युरोपियन युनियनने जीडीपीआर अंतर्गत आरटीबीएफच्या चौकटीत असूनही प्रशिक्षित AI मॉडेल्सना इरेजर कसे लागू पडू शकते याचे मार्गदर्शन केलेले नाही. मात्र, संदर्भ-संवेदनशील अर्थ न लावताच डेटा नष्ट करणे हे AI मॉडेल्सना सरसकट लागू पडणारे नाही यावर न्यायालये आणि नियामक यांचे सहमत असणे वाढत आहे.

या आघाडीवर भारताला एक जागरुक आणि व्यावहारिक दृष्टिकोन स्विकारुन नेतृत्व करण्याची संधी आहे. गोपनीयतेची काळजी घेत, तांत्रिक व्यवहार्यता यांचा तोल जपत हे करणे भारतासाठी महत्त्वाचे आहे कारण भारत आज स्वतःची देशांतर्गत AI क्षमता विस्तारण्याच्या प्रयत्नात आहे. AI गव्हर्नन्स गाईडलाईन्स तयार करुन भारताने त्या दिशेने आपला प्रवासही सुरु केला आहे. या AI मॉडेल्सचा पाया विश्वास, मानवतेला केंद्रस्थानी ठेवणे, निष्पक्षपाती, जबाबदार, सुरक्षित, लवचिकपणा या आधारावर रचलेला असावा असे या गाईडलाईन्समध्ये नमुद करण्यात आले आहे. या मूळ मुद्द्यांवर भर देत, गोपनीयतेची कास न सोडता, AI उपक्रम आणि बदल या मार्गावर स्वतःला पुढे देऊ शकत नाही.

निष्कर्ष 

विसरण्याचा अधिकार हा स्मृती पुसुन टाकता येतात असे गृहित धरणाऱ्या डिजिटल जगासाठी तयार करण्यात आलेली संकल्पना होती. मात्र ‘AI’ मुळे त्याच्या मर्यादा उघड होतात. विसरण्याचा अधिकार AI ला लागू करावा की नाही हे भारतापुढील आव्हान नाही, कारण ते करणे आवश्यकच आहे, मात्र कायदेशीर AI डेव्हलपमेंट करताना हा समतोल कसा साधायचा हे भारतापुढील खरे आव्हान आहे. 

मशीन अनलर्निंगमधून हे स्पष्ट होते की AI मध्ये विसरणे ही दुहेरी कृती नाही, तर प्रभाव हळूहळू कमी करणे हे आहे. हे ओळखल्याने गोपनीयतेचा अधिकार कमकुवत होत नाही तर तांत्रिक सत्याच्या काळात त्याला बळकटीच देते. थोडक्यात, विसरण्याच्या अधिकाराचे भवितव्य हे मशीन्सनी पूर्णपणे विसरावे अशी अपेक्षा करण्यात नाही तर जे महत्त्वाचे आहे तेच मशीन्स लक्षात ठेवतील याची खबरदारी घेण्यात आहे.


तनुशा त्यागी या ऑब्झर्वर रिसर्च फाउंडेशनच्या सेंटर फॉर डिजिटल सोसायटीजमध्ये रिसर्च असिस्टंट आहेत.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.