Author : Tanusha Tyagi

Expert Speak Raisina Debates
Published on Jan 13, 2026 Updated 1 Days ago

डिजिटल दौर में प्राइवेसी बचाने के लिए राइट टू बी फॉरगॉटन जरूरी है लेकिन एआई ने इसे आसान नहीं रहने दिया है. एआई डेटा को सिर्फ स्टोर नहीं करता बल्कि उसे अपने भीतर सीखकर बसा लेता है. इसी टकराव ने एक नया सवाल खड़ा किया है- एआई के जमाने में भूलना आखिर मतलब क्या होना चाहिए?

राइट टू बी फॉरगॉटन: एआई युग में प्राइवेसी की नई परिभाषा

डिजिटल जमाने में हम सबकी प्राइवेसी बनी रहे, यह बहुत जरूरी है. राइट टू बी फॉरगॉटन (RTBF) यानी भूल जाने का अधिकार इसी के लिए है क्योंकि इंसान का अपने निजी डेटा पर कंट्रोल होना चाहिए. लेकिन एआई आने के बाद यह सब पहले जितना आसान नहीं रहा क्योंकि सीखने, सुधारने और आगे बढ़ने के लिए एआई बहुत बड़े डेटा पर निर्भर है बल्कि कई मामलों में तो तकनीकी तौर पर यह लगभग नामुमकिन हो जाता है.

एआई और डेटा की असली दिक्कत

RTBF पर होने वाली ज्यादातर कानूनी बहसें डेटा डिलीट करने की बात करती हैं. माना जाता है कि डेटा हटाना सीधा सा काम है लेकिन मशीन लर्निंग सिस्टम में ऐसा नहीं है. एआई के तेजी से आगे बढ़ने के साथ यह जरूरी है कि नए हालात के हिसाब से RTBF को फिर से समझा जाए. अब सवाल यह नहीं है कि एआई सिस्टम डेटा को स्टोर करते हैं या नहीं. असली सवाल यह है कि एआई डेटा को अपने अंदर कैसे बसा लेता है. एआई के दौर में भूलना सिर्फ डिलीट बटन दबाना नहीं है. कई बार होता है कि डेटा हटाने के बाद भी उसका असर मॉडल के व्यवहार में बचा रहता है. अब हमें सोचना होगा कि एआई के जमाने में मिटाने का मतलब आखिर होना क्या चाहिए?

RTBF की बुनियाद

RTBF के दो पहलू हैं. पहला, भूल जाने का अधिकार और दूसरा, डेटा हटाने का अधिकार. डेटा हटाने के अधिकार में आपत्ति जताने का अधिकार भी शामिल है. भूल जाने का अधिकार यानी किसी को वक्त के साथ भुलाया भी जा सके. यह इंसानी गरिमा से जुड़ा मामला है. अगर कोई व्यक्ति नहीं चाहता कि उसका निजी डेटा आगे इस्तेमाल हो या संभालकर रखा जाए और उसे रखने की कोई वाजिब वजह भी नहीं है तो वह जानकारी लोगों के सामने नहीं आनी चाहिए.

एआई के दौर में भूलना सिर्फ डिलीट बटन दबाना नहीं है. कई बार होता है कि डेटा हटाने के बाद भी उसका असर मॉडल के व्यवहार में बचा रहता है. अब हमें सोचना होगा कि एआई के जमाने में मिटाने का मतलब आखिर होना क्या चाहिए?

डिजिटल दुनिया में RTBF को खास पहचान यूरोप में मिली. गूगल स्पेन बनाम गोंजालेज केस में यूरोप की अदालत ने कहा कि सर्च इंजन को पुरानी या गैरजरूरी निजी जानकारी हटाने के लिए कहा जा सकता है. बाद में यह बात जनरल डेटा प्रोटेक्शन रेगुलेशन (GDPR) के आर्टिकल 17 में कानून का हिस्सा बन गई जिससे डेटा मिटाने का अधिकार कानूनी रूप से लागू हो गया.

भारत में RTBF और DPDP कानून

भारत में डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट, 2023 (DPDP Act) आने के बाद डेटा मिटाने का अधिकार कानून बन चुका है. इस कानून की धारा 12(3) के तहत, अगर डेटा अब जरूरी नहीं है या व्यक्ति ने अपनी सहमति वापस ले ली है तो वह अपने डेटा मिटाने की मांग कर सकता है. सरसरी तौर पर यह बात बहुत साफ लगती है लेकिन दिक्कत तब शुरू होती है, जब यही बात बड़े एआई सिस्टम पर लागू होती है. 

कानून की धारा 12(3) के तहत, अगर डेटा अब जरूरी नहीं है या व्यक्ति ने अपनी सहमति वापस ले ली है तो वह अपने डेटा मिटाने की मांग कर सकता है.

एआई डेटा को आम तरीके से स्टोर नहीं करता. वह डेटा से सीखता है और पैटर्न बना लेता है. इस वजह से कानून की उम्मीदें और तकनीकी सच्चाई आमने-सामने आ जाती हैं. अगर इस फर्क को नहीं समझा गया तो या तो प्राइवेसी कमजोर होगी या फिर भारत में जिम्मेदार एआई बनाना मुश्किल हो जाएगा.

मशीन अनलर्निंग से टकराव

यहीं पर मशीन अनलर्निंग की बात आती है. इसका मतलब है कि एआई मॉडल को कुछ खास डेटा भुलाना सिखाया जाए. इसके दो तरीके सामने आते हैं. पहला तरीका है पूरी तरह से अनलर्निंग-यानी डेटा हटाओ और मॉडल को फिर से दोबारा ट्रेन करो. कानून के हिसाब से यह अच्छा लगता है लेकिन बड़े एआई मॉडल के लिए यह व्यावहारिक नहीं है. बड़े मॉडल को फिर से ट्रेन करना बहुत महंगा है, ज्यादा बिजली खर्च करता है और पर्यावरण के लिए भी नुकसानदेह है. अगर हर डेटा हटाने की मांग पर ऐसा करना पड़े तो एआई चल ही नहीं पाएगा.

दूसरा तरीका है आंशिक अनलर्निंग- जिसमें मॉडल के अंदर डेटा का असर कम किया जाता है. यह तरीका ज्यादा संभव है लेकिन इसमें सौ फीसदी गारंटी नहीं होती कि डेटा पूरी तरह मिट गया है. यहां नीति बनाने वालों के सामने सवाल आता है कि क्या कानून को तकनीकी रूप से चाक-चौबंद होना चाहिए, या इतना काफी है कि वह व्यावहारिक रूप से असरदार हो?

बेहतर है कि मिटाने को असर खत्म करने के रूप में समझा जाए, न कि हर निशान मिटाने के रूप में. इसका मतलब है कि डेटा को ट्रेनिंग डेटा से हटाया जाए, मॉडल को ऐसा बदला जाए कि वह उस जानकारी को याद न करे.

अगर एआई से जबरदस्ती सब कुछ पूरी तरह मिटाने को कहा जाए तो मॉडल गलत नतीजे देने लग सकता है. हो सकता है कि वो सभी के लिए भरोसेमंद न रह जाए. ऊपर से यह साबित करना भी मुश्किल होता है कि एआई ने सच में कुछ भुला दिया है. जांच के लिए कभी-कभी उसी डेटा को संदर्भ के तौर पर रखना पड़ता है जो खुद प्राइवेसी के खिलाफ है. इससे साफ होता है कि बहुत सख्त नियम उल्टा नुकसान भी कर सकते हैं.

मिटाने का नया मतलब

भारत के लिए अब सोच बदलने की जरूरत है. अगर डेटा मिटाने का मतलब यह मान लिया जाए कि एआई के अंदर उसका एक भी गणितीय निशान न बचे तो ज्यादातर एआई सिस्टम कभी कानून के हिसाब से सही नहीं माने जाएंगे. मतलब, जैसे ही कोई एक व्यक्ति अपने अधिकार का इस्तेमाल करें, पूरा एआई सिस्टम गैरकानूनी हो जाए. इससे बेहतर है कि मिटाने को असर खत्म करने के रूप में समझा जाए, न कि हर निशान मिटाने के रूप में. इसका मतलब है कि डेटा को ट्रेनिंग डेटा से हटाया जाए, मॉडल को ऐसा बदला जाए कि वह उस जानकारी को याद न करे. साथ ही उस व्यक्ति के बारे में पुराने डेटा के आधार पर फैसले न लिए जाएं. यह तरीका तकनीकी तौर पर मुमकिन है और प्राइवेसी के मूल मकसद को भी बचाता है.

दुनिया में एआई और RTBF पर सोच

यूरोप में भी अभी तक साफ नहीं बताया गया है कि ट्रेन किए गए एआई मॉडल पर डेटा मिटाने का नियम कैसे लागू होगा? अदालतें और रेगुलेटर मानने लगे हैं कि एआई पर पुराने नियम सीधे लागू नहीं किए जा सकते. भारत के पास मौका है कि वह ऐसा रास्ता चुने, जो प्राइवेसी भी बचाए और एआई को आगे बढ़ने भी दे. भारत की एआई गवर्नेंस गाइडलाइंस पहले ही भरोसे, इंसान-केंद्रित एआई, निष्पक्षता, जवाबदेही और नवाचार पर जोर देती हैं. अगर RTBF को इन्हीं सिद्धांतों से जोड़ा जाए, तो भारत एक संतुलित मॉडल बना सकता है.

RTBF उस दौर में बना था जब माना जाता था कि डिजिटल याददाश्त पूरी तरह मिटाई जा सकती है. एआई ने दिखा दिया कि यह सोच सीमित थी. भारत में सवाल यह नहीं है कि RTBF एआई पर लागू हो या नहीं- वह होना ही चाहिए. असली सवाल यह है कि इसे कैसे समझा जाए ताकि एआई का कानूनी विकास रुके नहीं. एआई में भूलना कोई ऑन-ऑफ करने वाला स्विच नहीं है. यह असर को धीरे-धीरे कम करने की प्रक्रिया है. इसे मान लेना प्राइवेसी को कमजोर नहीं करता, बल्कि उसे हकीकत से जोड़कर मजबूत बनाता है. RTBF का भविष्य मशीनों से पूरी तरह से भूलने की जिद में नहीं है, बल्कि यह तय करने में है कि वे अब ऐसी बातें याद न रखें जिनसे किसी इंसान को नुकसान हो.


तनुषा त्यागी सेंटर फॉर डिजिटल सोसाइटीज, ऑब्जर्वर रिसर्च फाउंडेशन में रिसर्च असिस्टेंट हैं.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.

Author

Tanusha Tyagi

Tanusha Tyagi

Tanusha Tyagi is a research assistant with the Centre for Digital Societies at ORF. Her research focuses on issues of emerging technologies, data protection and ...

Read More +