डिजिटल दौर में प्राइवेसी बचाने के लिए राइट टू बी फॉरगॉटन जरूरी है लेकिन एआई ने इसे आसान नहीं रहने दिया है. एआई डेटा को सिर्फ स्टोर नहीं करता बल्कि उसे अपने भीतर सीखकर बसा लेता है. इसी टकराव ने एक नया सवाल खड़ा किया है- एआई के जमाने में भूलना आखिर मतलब क्या होना चाहिए?
डिजिटल जमाने में हम सबकी प्राइवेसी बनी रहे, यह बहुत जरूरी है. राइट टू बी फॉरगॉटन (RTBF) यानी भूल जाने का अधिकार इसी के लिए है क्योंकि इंसान का अपने निजी डेटा पर कंट्रोल होना चाहिए. लेकिन एआई आने के बाद यह सब पहले जितना आसान नहीं रहा क्योंकि सीखने, सुधारने और आगे बढ़ने के लिए एआई बहुत बड़े डेटा पर निर्भर है बल्कि कई मामलों में तो तकनीकी तौर पर यह लगभग नामुमकिन हो जाता है.
RTBF पर होने वाली ज्यादातर कानूनी बहसें डेटा डिलीट करने की बात करती हैं. माना जाता है कि डेटा हटाना सीधा सा काम है लेकिन मशीन लर्निंग सिस्टम में ऐसा नहीं है. एआई के तेजी से आगे बढ़ने के साथ यह जरूरी है कि नए हालात के हिसाब से RTBF को फिर से समझा जाए. अब सवाल यह नहीं है कि एआई सिस्टम डेटा को स्टोर करते हैं या नहीं. असली सवाल यह है कि एआई डेटा को अपने अंदर कैसे बसा लेता है. एआई के दौर में भूलना सिर्फ डिलीट बटन दबाना नहीं है. कई बार होता है कि डेटा हटाने के बाद भी उसका असर मॉडल के व्यवहार में बचा रहता है. अब हमें सोचना होगा कि एआई के जमाने में मिटाने का मतलब आखिर होना क्या चाहिए?
RTBF के दो पहलू हैं. पहला, भूल जाने का अधिकार और दूसरा, डेटा हटाने का अधिकार. डेटा हटाने के अधिकार में आपत्ति जताने का अधिकार भी शामिल है. भूल जाने का अधिकार यानी किसी को वक्त के साथ भुलाया भी जा सके. यह इंसानी गरिमा से जुड़ा मामला है. अगर कोई व्यक्ति नहीं चाहता कि उसका निजी डेटा आगे इस्तेमाल हो या संभालकर रखा जाए और उसे रखने की कोई वाजिब वजह भी नहीं है तो वह जानकारी लोगों के सामने नहीं आनी चाहिए.
एआई के दौर में भूलना सिर्फ डिलीट बटन दबाना नहीं है. कई बार होता है कि डेटा हटाने के बाद भी उसका असर मॉडल के व्यवहार में बचा रहता है. अब हमें सोचना होगा कि एआई के जमाने में मिटाने का मतलब आखिर होना क्या चाहिए?
डिजिटल दुनिया में RTBF को खास पहचान यूरोप में मिली. गूगल स्पेन बनाम गोंजालेज केस में यूरोप की अदालत ने कहा कि सर्च इंजन को पुरानी या गैरजरूरी निजी जानकारी हटाने के लिए कहा जा सकता है. बाद में यह बात जनरल डेटा प्रोटेक्शन रेगुलेशन (GDPR) के आर्टिकल 17 में कानून का हिस्सा बन गई जिससे डेटा मिटाने का अधिकार कानूनी रूप से लागू हो गया.
भारत में डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट, 2023 (DPDP Act) आने के बाद डेटा मिटाने का अधिकार कानून बन चुका है. इस कानून की धारा 12(3) के तहत, अगर डेटा अब जरूरी नहीं है या व्यक्ति ने अपनी सहमति वापस ले ली है तो वह अपने डेटा मिटाने की मांग कर सकता है. सरसरी तौर पर यह बात बहुत साफ लगती है लेकिन दिक्कत तब शुरू होती है, जब यही बात बड़े एआई सिस्टम पर लागू होती है.
कानून की धारा 12(3) के तहत, अगर डेटा अब जरूरी नहीं है या व्यक्ति ने अपनी सहमति वापस ले ली है तो वह अपने डेटा मिटाने की मांग कर सकता है.
एआई डेटा को आम तरीके से स्टोर नहीं करता. वह डेटा से सीखता है और पैटर्न बना लेता है. इस वजह से कानून की उम्मीदें और तकनीकी सच्चाई आमने-सामने आ जाती हैं. अगर इस फर्क को नहीं समझा गया तो या तो प्राइवेसी कमजोर होगी या फिर भारत में जिम्मेदार एआई बनाना मुश्किल हो जाएगा.
यहीं पर मशीन अनलर्निंग की बात आती है. इसका मतलब है कि एआई मॉडल को कुछ खास डेटा भुलाना सिखाया जाए. इसके दो तरीके सामने आते हैं. पहला तरीका है पूरी तरह से अनलर्निंग-यानी डेटा हटाओ और मॉडल को फिर से दोबारा ट्रेन करो. कानून के हिसाब से यह अच्छा लगता है लेकिन बड़े एआई मॉडल के लिए यह व्यावहारिक नहीं है. बड़े मॉडल को फिर से ट्रेन करना बहुत महंगा है, ज्यादा बिजली खर्च करता है और पर्यावरण के लिए भी नुकसानदेह है. अगर हर डेटा हटाने की मांग पर ऐसा करना पड़े तो एआई चल ही नहीं पाएगा.
दूसरा तरीका है आंशिक अनलर्निंग- जिसमें मॉडल के अंदर डेटा का असर कम किया जाता है. यह तरीका ज्यादा संभव है लेकिन इसमें सौ फीसदी गारंटी नहीं होती कि डेटा पूरी तरह मिट गया है. यहां नीति बनाने वालों के सामने सवाल आता है कि क्या कानून को तकनीकी रूप से चाक-चौबंद होना चाहिए, या इतना काफी है कि वह व्यावहारिक रूप से असरदार हो?
बेहतर है कि मिटाने को असर खत्म करने के रूप में समझा जाए, न कि हर निशान मिटाने के रूप में. इसका मतलब है कि डेटा को ट्रेनिंग डेटा से हटाया जाए, मॉडल को ऐसा बदला जाए कि वह उस जानकारी को याद न करे.
अगर एआई से जबरदस्ती सब कुछ पूरी तरह मिटाने को कहा जाए तो मॉडल गलत नतीजे देने लग सकता है. हो सकता है कि वो सभी के लिए भरोसेमंद न रह जाए. ऊपर से यह साबित करना भी मुश्किल होता है कि एआई ने सच में कुछ भुला दिया है. जांच के लिए कभी-कभी उसी डेटा को संदर्भ के तौर पर रखना पड़ता है जो खुद प्राइवेसी के खिलाफ है. इससे साफ होता है कि बहुत सख्त नियम उल्टा नुकसान भी कर सकते हैं.
भारत के लिए अब सोच बदलने की जरूरत है. अगर डेटा मिटाने का मतलब यह मान लिया जाए कि एआई के अंदर उसका एक भी गणितीय निशान न बचे तो ज्यादातर एआई सिस्टम कभी कानून के हिसाब से सही नहीं माने जाएंगे. मतलब, जैसे ही कोई एक व्यक्ति अपने अधिकार का इस्तेमाल करें, पूरा एआई सिस्टम गैरकानूनी हो जाए. इससे बेहतर है कि मिटाने को असर खत्म करने के रूप में समझा जाए, न कि हर निशान मिटाने के रूप में. इसका मतलब है कि डेटा को ट्रेनिंग डेटा से हटाया जाए, मॉडल को ऐसा बदला जाए कि वह उस जानकारी को याद न करे. साथ ही उस व्यक्ति के बारे में पुराने डेटा के आधार पर फैसले न लिए जाएं. यह तरीका तकनीकी तौर पर मुमकिन है और प्राइवेसी के मूल मकसद को भी बचाता है.
यूरोप में भी अभी तक साफ नहीं बताया गया है कि ट्रेन किए गए एआई मॉडल पर डेटा मिटाने का नियम कैसे लागू होगा? अदालतें और रेगुलेटर मानने लगे हैं कि एआई पर पुराने नियम सीधे लागू नहीं किए जा सकते. भारत के पास मौका है कि वह ऐसा रास्ता चुने, जो प्राइवेसी भी बचाए और एआई को आगे बढ़ने भी दे. भारत की एआई गवर्नेंस गाइडलाइंस पहले ही भरोसे, इंसान-केंद्रित एआई, निष्पक्षता, जवाबदेही और नवाचार पर जोर देती हैं. अगर RTBF को इन्हीं सिद्धांतों से जोड़ा जाए, तो भारत एक संतुलित मॉडल बना सकता है.
RTBF उस दौर में बना था जब माना जाता था कि डिजिटल याददाश्त पूरी तरह मिटाई जा सकती है. एआई ने दिखा दिया कि यह सोच सीमित थी. भारत में सवाल यह नहीं है कि RTBF एआई पर लागू हो या नहीं- वह होना ही चाहिए. असली सवाल यह है कि इसे कैसे समझा जाए ताकि एआई का कानूनी विकास रुके नहीं. एआई में भूलना कोई ऑन-ऑफ करने वाला स्विच नहीं है. यह असर को धीरे-धीरे कम करने की प्रक्रिया है. इसे मान लेना प्राइवेसी को कमजोर नहीं करता, बल्कि उसे हकीकत से जोड़कर मजबूत बनाता है. RTBF का भविष्य मशीनों से पूरी तरह से भूलने की जिद में नहीं है, बल्कि यह तय करने में है कि वे अब ऐसी बातें याद न रखें जिनसे किसी इंसान को नुकसान हो.
तनुषा त्यागी सेंटर फॉर डिजिटल सोसाइटीज, ऑब्जर्वर रिसर्च फाउंडेशन में रिसर्च असिस्टेंट हैं.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.
Tanusha Tyagi is a research assistant with the Centre for Digital Societies at ORF. Her research focuses on issues of emerging technologies, data protection and ...
Read More +