डीपफेक कभी एक तकनीक़ी शब्द हुआ करता था लेकिन अब ये रोज़ की बातचीत का हिस्सा बन गया है. पिछले दिनों भारतीय क्रिकेटर सचिन तेंदुलकर के द्वारा एक ऑनलाइन गेमिंग ऐप के प्रचार का वीडियो वायरल हो गया. इस तरह वो डीपफेक वीडियो मैनिपुलेशन (हेराफेरी) का ताज़ा शिकार बन गए जिसके तहत उनकी आवाज़ और चेहरे का बिना उनकी मंज़ूरी के इस्तेमाल किया गया. ऐसे युग में जहां डीपफेक वीडियो और फोटो वास्तविकता के संबंध में हमारी सोच को तोड़-मरोड़ सकते हैं और इंटरनेट दुष्प्रचार के फलने-फूलने की जगह बन गया है, वहां AI में तेज़ी से विकास के कारण लोगों की रक्षा करने में सरकार की भूमिका जांच के दायरे में आती है. ये लेख डीपफेक टेक्नोलॉजी के विकास और इसकी तरक्की के साथ कदम-ताल करने में सरकार के सामने आने वाली चुनौतियों की खोज-बीन करता है.
ऐसे युग में जहां डीपफेक वीडियो और फोटो वास्तविकता के संबंध में हमारी सोच को तोड़-मरोड़ सकते हैं और इंटरनेट दुष्प्रचार के फलने-फूलने की जगह बन गया है, वहां AI में तेज़ी से विकास के कारण लोगों की रक्षा करने में सरकार की भूमिका जांच के दायरे में आती है.
जेनरेटिव AI और डीपफेक टेक्नोलॉजी
प्रभावी रेगुलेशन (विनियमन) के लिए जेनरेटिव AI और डीपफेक के पीछे की व्यवस्था को समझना ज़रूरी है: दोनों ही डीप लर्निंग के हिस्से हैं जिसके तहत पैटर्न को समझने और सीखने के लिए बड़ी मात्रा में डेटा पर आर्टिफिशियल न्यूरल (तंत्रिका संबंधी) नेटवर्क को ट्रेनिंग देना शामिल है. “डीप” का संदर्भ कई परतों से है जिनके ज़रिए सीखने के दौरान डेटा को बदला जाता है. डीप लर्निंग का लक्ष्य कंप्यूटर को अपने-आप सीखने के लिए सक्षम बनाना और डेटा में खोजे गए पैटर्न और रिप्रेज़ेंटेशन पर भरोसा करके स्पष्ट प्रोग्रामिंग के बिना फैसले लेना या पूर्वानुमान लगाना है. डीप लर्निंग को विकास के अलग-अलग क्षेत्रों में एकीकृत किया जाता है. इसका इस्तेमाल शिक्षा की क्वालिटी बेहतर बनाने, हेल्थकेयर और कानून को लागू करने में किया जा सकता है. ये हमारे रोज़ाना के टूल्स जैसे कि डिजिटल असिस्टेंट (जिसे चैटबॉट के नाम से भी जाना जाता है) और उभरती तकनीकों जैसे कि सेल्फ-ड्राइविंग कार का हिस्सा है.
डीपफेक तकनीक़ तस्वीरों और वीडियो को बदलने के लिए जेनरेटिव AI का उपयोग करती है. वैसे तो हाल की घटनाओं को देखते हुए “डीपफेक” शब्द का नकारात्मक अर्थ है लेकिन इस टेक्नोलॉजी के अपने सकारात्मक उपयोग भी हैं.
डीप लर्निंग के एक हिस्से के रूप में जेनरेटिव AI “नया और अनूठा रचनात्मक आउटपुट पैदा करने के लिए ओपन-सोर्स कंटेंट और ऐतिहासिक डेटा सेट पर प्रशिक्षित एक सिस्टम” है. डीपफेक तकनीक़ तस्वीरों और वीडियो को बदलने के लिए जेनरेटिव AI का उपयोग करती है. वैसे तो हाल की घटनाओं को देखते हुए “डीपफेक” शब्द का नकारात्मक अर्थ है लेकिन इस टेक्नोलॉजी के अपने सकारात्मक उपयोग भी हैं. शिक्षा को ज़्यादा इंटरएक्टिव बनाना, ग्राहक सेवा को आसान बनाना और श्रम का समय बचाना इसके कुछ उपयोग हैं. लेकिन तकनीक़ के दुरुपयोग और हेरफेर ने इसे समाज के लिए फायदेमंद से ज़्यादा ख़तरनाक बना दिया है. चेहरे की अदला-बदली या सोशल मीडिया पर लोकप्रिय ख़ुद को उम्रदराज बनाने वाले ऐप्लिकेशन जैसे मनोरंजन के उद्देश्यों में इस्तेमाल किया जाए तो डीपफेक टेक्नोलॉजी का कोई नुकसान नहीं है. नुकसान उस वक्त होता है जब इसका उपयोग लोगों को गुमराह करने और जोड़-तोड़ में किया जाता है, रिवेंज पोर्नोग्राफी (बदला लेने के लिए किसी की न्यूड तस्वीर बनाकर फैलाना) या आवाज में हेर-फेर जैसे मामलों में किया जाता है. ऐसे मामलों में अपने नागरिकों की रक्षा के लिए सरकारी निगरानी और रेगुलेशन अहम हो जाता है.
भारत का मौजूदा AI परिदृश्य
भारत सरकार के द्वारा AI के उपयोग की रूप-रेखा पहली बार 2018 में नीति आयोग की नेशनल स्ट्रैटजी फॉर आर्टिफिशियल इंटेलिजेंस में पेश की गई थी. इसमें स्वास्थ्य देखभाल, कृषि, स्मार्ट सिटी, इंफ्रास्ट्रक्चर, परिवहन और शिक्षा के लिए AI के उपयोग की बात की गई थी. ये AI रिसर्च और डेवलपमेंट के लिए आधिकारिक रोडमैप की तरह काम करती है और निष्पक्षता, जवाबदेही और पारदर्शिता के मामलों में नैतिक विचारों को रखती है. इसका समर्थन करने के लिए नीति आयोग ने 2021 में एक जवाबदेह AI दस्तावेज़ जारी किया जो मुख्य रूप से फेशियल रिकॉग्निशन टेक्नोलॉजी पर ध्यान केंद्रित करते हुए AI के ख़तरों को कम करता है. वैसे तो ये प्राइवेसी जैसे मुद्दों के संबंध में चिंताओं को छूता है लेकिन ये डीपफेक जैसे बारीक विषयों का समाधान नहीं करता है क्योंकि ये तकनीक़ ख़ुद ही शुरुआती चरण में है.
तकनीक़ के इस तरह तेज़ी से विकास से लोगों को सुरक्षित करने के लिए कोई आधिकारिक कानून नहीं बनाया गया है लेकिन डीपफेक के मामले बढ़ने के साथ सरकार ने कहा है कि इस मुद्दे का विशेष रूप से समाधान करने के लिए वो कानून का मसौदा तैयार कर रही है
रेगुलेशन अक्सर संकल्पना के समय उपलब्ध तकनीक़ के आधार पर तैयार किए जाते हैं. कानून बनने के लिए नीतियों को अलग-अलग चरणों से गुज़रना चाहिए जिनमें भागीदारों से सलाह, रेगुलेटरी एवं संसदीय मंज़ूरी शामिल हैं. ये समय लेने वाली प्रक्रिया वैसे तो ज़रूरी है लेकिन ये तकनीक़ के विकास और उपयोगकर्ता (यूज़र) की रक्षा के बीच एक कानूनी खालीपन पैदा करती है. 2023 में पारित डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट (DPDP) सही दिशा में उठाया गया एक कदम है. ये डीपफेक के बजाय कंपनियों और थर्ड-पार्टी इंटरमीडियरी (तीसरे पक्ष के मध्यस्थों) के द्वारा किसी व्यक्ति के डेटा की प्रोसेसिंग पर ध्यान देता है. मौजूदा समय में भारतीय न्याय संहिता के अलावा सूचना तकनीक़ अधिनियम 2000 और 2021 के कई प्रावधानों का उपयोग इस तकनीक़ का दुरुपयोग करने वालों को दंडित करने में किया जा सकता है.
तकनीक़ के इस तरह तेज़ी से विकास से लोगों को सुरक्षित करने के लिए कोई आधिकारिक कानून नहीं बनाया गया है लेकिन डीपफेक के मामले बढ़ने के साथ सरकार ने कहा है कि इस मुद्दे का विशेष रूप से समाधान करने के लिए वो कानून का मसौदा तैयार कर रही है और “सोशल मीडिया एवं टेक कंपनियों को निर्देश दिया है कि इस ख़तरे के ख़िलाफ़ तुरंत कदम उठाएं, नहीं तो दंडात्मक कार्रवाई का सामना करने के लिए तैयार रहें”. नए प्रस्ताव के मसौदे में अधिकारियों ने न केवल कंटेंट तैयार करने और अपलोड करने के लिए ज़िम्मेदार लोगों बल्कि कंटेंट को पब्लिश करने वाले प्लैटफॉर्म पर भी संभावित कार्रवाई को लेकर चर्चा की है.
जब तकनीक़ का उपयोग हेर-फेर करने और लोगों पर असर डालने में किया जा सकता है तो सरकार को कदम उठाने और अपने लोगों की रक्षा करने की आवश्यकता है. जहां उपयोग और प्राइवेसी के बीच अंतर है, वहां निगरानी और रेगुलेशन के लिए पहले से कार्रवाई को विकास की तेज़ रफ्तार लगभग असंभव काम बनाती है. जैसे-जैसे AI समाज में अधिक व्यापक होता जा रहा है, वैसे-वैसे सवाल खड़ा होता है: क्या सरकारें इस तेज़ तरक्की के अनायास परिणामों से नागरिकों की प्रभावी ढंग से रक्षा कर सकती हैं?
भविष्य कैसा है?
वैसे तो भारत में राष्ट्रीय रणनीति और जवाबदेह AI की रूप-रेखा ने ज़िम्मेदार AI के इस्तेमाल को लेकर बुनियादी सिद्धांत तय किए लेकिन शायद वो डीपफेक से जुड़े व्यापक मुद्दों और लोगों की प्राइवेसी की रक्षा के मुद्दे का समाधान नहीं कर सकती है. भारत अकेले इस पहेली में उलझा हुआ नहीं है. दुनिया भर की सरकारें इस चुनौती का सामना कर रही हैं और वो नई एवं अप्रत्याशित चुनौतियों का समाधान करने के लिए नीतियों को बदलने में जूझ रही हैं. 2019 में बनाई गई कोई नीति शायद 2024 में देखी गई बारीक चुनौतियों का पर्याप्त ढंग से समाधान नहीं कर सकती है. सरकारों को हर हाल में लगातार नीतियों की फिर से समीक्षा और उन्हें अपडेट करना चाहिए ताकि उभरते ख़तरों का जवाब दिया जा सके और हमेशा बदलते तकनीक़ी परिदृश्य में नागरिकों की सुरक्षा को सुनिश्चित किया जा सके.
डीपफेक वीडियो बनाने में इस्तेमाल किए जा सकने वाले ऑनलाइन वीडियो एडिटिंग प्लैटफॉर्म सिंथेशिया के सह-संस्थापक विक्टर रिपरबेल्ली सुझाव देते हैं कि कंटेंट के बदले बदमाशी और भेदभाव जैसे इरादों पर नज़र रखने वाले वाले मौजूदा ढांचे को मज़बूत किया जाए.
विशेष रूप से डीपफेक के मुद्दे का समाधान करने के उद्देश्य से कुछ सरकारों ने अपराधियों से निपटने के लिए कानून बनाने या मौजूदा कानूनी रूप-रेखा के मेल-जोल का उपयोग करने की कोशिश की है. इनमें परिवर्तित कंटेंट वाले वीडियो की अलग पहचान और उन्हें लेबल करना ज़रूरी बनाना और ऐसा करने में नाकाम लोगों के साथ-साथ प्लैटफॉर्म पर जुर्माना लगाना शामिल है. उदाहरण के लिए, अमेरिका में राष्ट्रपति जो बाइडेन ने “आर्टिफिशियल इंटेलिजेंस के सुरक्षित और भरोसेमंद विकास और उपयोग” के लिए एक कार्यकारी आदेश (एग्ज़ीक्यूटिव ऑर्डर) पर हस्ताक्षर किए जिसके तहत तुरंत प्रभाव से परिवर्तित कंटेंट पर लेबल लगाना शामिल है. इसके अलावा अमेरिका के कुछ सांसदों ने संसद में एक “डीपफेक जवाबदेही बिल” पेश किया है जिसका उद्देश्य डीपफेक वीडियो के बारे में बताने में नाकाम सोशल मीडिया प्लैटफॉर्म के ख़िलाफ़ आपराधिक कार्रवाई करना है. इस बीच यूरोपियन यूनियन (EU) ने दुष्प्रचार पर कुछ फैसलों (कोड ऑफ प्रैक्टिस) को अमल में लाया है और डिजिटल सर्विसेज़ एक्ट लागू किया है जो डीपफेक की निगरानी और रेगुलेशन करते हैं. यूरोपियन यूनियन ने एक EU AI एक्ट का प्रस्ताव भी दिया है जो पारदर्शिता में बढ़ोतरी करेगा. डीपफेक वीडियो बनाने में इस्तेमाल किए जा सकने वाले ऑनलाइन वीडियो एडिटिंग प्लैटफॉर्म सिंथेशिया के सह-संस्थापक विक्टर रिपरबेल्ली सुझाव देते हैं कि कंटेंट के बदले बदमाशी और भेदभाव जैसे इरादों पर नज़र रखने वाले वाले मौजूदा ढांचे को मज़बूत किया जाए. लोगों के बीच जागरूकता फैलाने और डीपफेक से पैदा ख़तरों के बारे में शिक्षित करने में निवेश बढ़ाने की भी आवश्यकता है.
ऐसी दुनिया जहां तकनीक़ और AI के इर्द-गिर्द कानूनी खालीपन कायम है, वहां लोगों तक AI टूल्स की पहुंच के बारे में सवाल खड़े होते हैं. इनोवेशन और रेगुलेशन के बीच एक संतुलन बनाना ज़रूरी है ताकि ये सुनिश्चित किया जा सके कि सरकारें तेज़ी से बढ़ते AI के संभावित ख़तरों से लोगों को प्रभावी रूप से बचा सकें. जैसे-जैसे हम इस जटिल स्थिति का सामना कर रहे हैं, वैसे-वैसे समाज के हितों को सुरक्षित करने में एक सक्रिय, व्यवस्था योग्य और व्यापक नियामक (रेगुलेटरी) रूप-रेखा की आवश्यकता सर्वोच्च हो जाती है. AI की तेज़ प्रगति के कारण भाषण और अभिव्यक्ति की स्वतंत्रता को सुरक्षित रखते हुए दुष्प्रचार और डीपफेक से लोगों को बचाने के बारे में संवाद को सबसे आगे रखने की ज़रूरत है. डीपफेक तकनीक़ को “जेनरेटिव AI के ख़तरों” की सामान्य श्रेणी में डाले जाने के बदले इसकी निगरानी की आवश्यकता है.
तान्या अग्रवाल ऑब्ज़र्वर रिसर्च फाउंडेशन में रिसर्च इंटर्न हैं.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.