Author : Tanya Aggarwal

Expert Speak Young Voices
Published on Apr 10, 2024 Updated 0 Hours ago

तंत्रज्ञान आणि कृत्रिम बुद्धिमत्तेच्या आसपासची कायदेशीर पोकळी कायम असलेल्या जगात, वेगाने विकसित होत असलेल्या तांत्रिक परिस्थितीच्या प्रतिकूल परिणामांपासून आपण नागरिकांचे संरक्षण कसे करू शकतो?

डीपफेक दुविधेचा सामना: AIच्या युगात सरकारी देखरेख

एकेकाळी तांत्रिक शब्दप्रयोग असलेला डीपफेक हा शब्द आता दैनंदिन शब्दसंग्रहातील एक भाग झाला आहे. अलीकडेच, भारतीय क्रिकेटपटू सचिन तेंडुलकरचा एका ऑनलाइन गेमिंग अॅपचा प्रचार करणारा व्हिडिओ व्हायरल झाला. सचिनच्या संमतीशिवाय त्याचा आवाज आणि चेहरा वापरला गेल्यामुळे सचिनही याचा बळी ठरला आहे. डीपफेक व्हिडिओ आणि छायाचित्रे आपल्या वास्तविकतेबद्दलच्या समजुतीला विकृत करू शकतात आणि इंटरनेट चुकीच्या माहितीसाठी उत्पत्तीचे क्षेत्र बनते. अशा युगात, एआयच्या जलद विकासापासून नागरिकांचे संरक्षण करण्यात सरकारची भूमिका महत्वाची ठरते. हा लेख डीपफेक तंत्रज्ञानाची उत्क्रांती आणि त्याच्या प्रगतीशी जुळवून घेण्यासाठी सरकारांना भेडसावणाऱ्या आव्हानांचा शोध घेतो.

जनरेटिव्ह एआय आणि डीपफेक तंत्रज्ञान

प्रभावी नियमांसाठी, जनरेटिव्ह एआय आणि डीपफेक यामागील यंत्रणा समजून घेणे महत्वाचे आहेः दोन्ही डीप लर्निंगचे भाग आहेत ज्यात नमुन्यांचा उलगडा करण्यासाठी आणि शिकण्यासाठी मोठ्या प्रमाणात डेटावर कृत्रिम न्यूरल नेटवर्कचे प्रशिक्षण समाविष्ट आहे. 'डीप' म्हणजे अनेक स्तर, ज्याद्वारे शिकत असताना माहितीचे रूपांतर होते. डेटामध्ये सापडलेल्या नमुन्यांवर आणि प्रतिनिधींवर अवलंबून राहून, स्पष्ट प्रोग्रामिंगशिवाय संगणकांना स्वयंचलितपणे शिकण्यास आणि निर्णय घेण्यास किंवा अंदाज लावण्यास सक्षम करणे हे डीप लर्निंगचे उद्दिष्ट आहे. डीप लर्निंग हे विकासाच्या अनेक क्षेत्रांमध्ये महत्वाची भुमिका बजावतात. याचा वापर शिक्षण, आरोग्यसेवा आणि कायद्याची अंमलबजावणी यांचा दर्जा सुधारण्यासाठी केला जाऊ शकतो. डिजिटल सहाय्यक (चॅटबॉट्स) आणि स्वयं-चलित गाड्यांसारख्या उदयोन्मुख तंत्रज्ञानासारख्या दैनंदिन साधनांचा हा एक भाग आहे.

डेटामध्ये सापडलेल्या नमुन्यांवर आणि प्रतिनिधींवर अवलंबून राहून, स्पष्ट प्रोग्रामिंगशिवाय संगणकांना स्वयंचलितपणे शिकण्यास आणि निर्णय घेण्यास किंवा अंदाज लावण्यास सक्षम करणे हे डीप लर्निंगचे उद्दिष्ट आहे.

डीप लर्निंग चा एक भाग  म्हणून, जनरेटिव्ह AI ही "नवीन आणि अद्वितीय सर्जनशील उत्पादने तयार करण्यासाठी मुक्त-स्रोत सामग्री आणि ऐतिहासिक डेटा संचांवर प्रशिक्षित प्रणाली आहे". डीपफेक तंत्रज्ञान प्रतिमा आणि व्हिडिओ बदलण्यासाठी जनरेटिव्ह AI चा वापर करते. अलीकडील घटनांमध्ये 'डीपफेक' या शब्दाचा नकारात्मक अर्थ असला तरी, तंत्रज्ञानाचे स्वतःचे सकारात्मक उपयोग आहेत; काही उपयोगांमध्ये शिक्षण हे अधिक परस्परसंवादी करणे, ग्राहक सेवा सुलभ करणे आणि कामगारांचा वेळ वाचवणे यांचा समावेश आहे. तथापि, तंत्रज्ञानाचा गैरवापर आणि हाताळणीमुळे ते समाजासाठी फायदेशीर होण्यापेक्षा अधिक धोकादायक बनले आहे. सोशल मीडियावर लोकप्रिय असलेल्या चेहऱ्याची अदलाबदल करणे किंवा स्वतः वृद्ध होणे यासारख्या मनोरंजनाच्या उद्देशाने वापरल्यास डीपफेक तंत्रज्ञान निरुपद्रवी असू शकते. सूडबुद्धीने केलेल्या पोर्नोग्राफी किंवा आवाजाच्या हेराफेरीच्या घटनांमध्ये, लोकांची दिशाभूल करण्यासाठी आणि हाताळणी करण्यासाठी याचा वापर केला जातो तेव्हा हानी होते. तेव्हा आपल्या नागरिकांच्या संरक्षणासाठी सरकारी देखरेख आणि नियमन महत्त्वाचे असते.

भारताचे सध्याचे AI क्षेत्र

भारत सरकारने कृत्रिम बुद्धिमत्तेचा वापर पहिल्यांदा 2018 मध्ये नीती आयोगाच्या कृत्रिम बुद्धिमत्तेसाठीच्या राष्ट्रीय धोरणात केला होता. यात आरोग्यसेवा, कृषी, स्मार्ट शहरे, पायाभूत सुविधा, वाहतूक आणि शिक्षणासाठी AI च्या वापरावर चर्चा करण्यात आली. हे कृत्रिम बुद्धिमत्ता संशोधन आणि विकासासाठी अधिकृत आराखडा म्हणून काम करते आणि निष्पक्षता, उत्तरदायित्व आणि पारदर्शकतेमध्ये नैतिक विचार मांडते. याचे समर्थन करण्यासाठी, नीती आयोगाने 2021 मध्ये एक जबाबदार AI दस्तऐवज प्रसिद्ध केला जो AI चे धोके कमी करतो, प्रामुख्याने चेहरा ओळखण्याच्या तंत्रज्ञानावर लक्ष केंद्रित करतो. ते गोपनीयतेच्या समस्यांशी संबंधित समस्यांना स्पर्श करत असले तरी, ते डीपफेकसारख्या अधिक सूक्ष्म विषयांना संबोधित करत नाही, कारण तंत्रज्ञान स्वतःच प्रारंभिक टप्प्यात आहे.त्यांच्या संकल्पनेच्या वेळी उपलब्ध असलेल्या तंत्रज्ञानाच्या आधारे अनेकदा नियम तयार केले जातात. कायदे होण्यासाठी, धोरणे अधिकाऱ्यांशी सल्लामसलत, नियामक आणि संसदीय मंजुरी यासह अनेक टप्प्यांमधून जाणे आवश्यक आहे. ही वेळखाऊ प्रक्रिया आवश्यक असली तरी तंत्रज्ञानाचा विकास आणि वापरकर्त्यांच्या संरक्षणामध्ये कायदेशीर पोकळी निर्माण करते. 2023 मध्ये मंजूर झालेला डिजिटल वैयक्तिक डेटा संरक्षण कायदा (DPDP) हे योग्य दिशेने टाकलेले एक पाऊल आहे, तथापि, हे डीपफेकऐवजी कंपन्या आणि तृतीय-पक्ष मध्यस्थांद्वारे वैयक्तिक डेटाच्या प्रक्रियेवर लक्ष केंद्रित करते. सध्या, भारतीय न्याय संहिता व्यतिरिक्त माहिती तंत्रज्ञान कायदा 2000 आणि 2021 च्या अनेक तरतुदींचा वापर या तंत्रज्ञानाचा गैरवापर करणाऱ्यांना शिक्षा करण्यासाठी केला जाऊ शकतो.

2023 मध्ये मंजूर झालेला डिजिटल वैयक्तिक डेटा संरक्षण कायदा (DPDP) हे योग्य दिशेने टाकलेले एक पाऊल आहे, तथापि, हे डीपफेकऐवजी कंपन्या आणि तृतीय-पक्ष मध्यस्थांद्वारे वैयक्तिक डेटाच्या प्रक्रियेवर लक्ष केंद्रित करते.

तंत्रज्ञानाच्या अशा वेगवान विकासापासून नागरिकांचे संरक्षण करण्यासाठी कोणतेही अधिकृत कायदे आणले गेले नाहीत, परंतु वाढत्या खोट्या घटनांमुळे, सरकारने म्हटले आहे की ते या समस्येचे निराकरण करण्यासाठी कायद्यांचा मसुदा तयार करत आहेत आणि "सोशल मीडिया आणि तंत्रज्ञान कंपन्यांना या धोक्याविरुद्ध त्वरित पावले उचलण्याचे निर्देश दिले आहेत, किंवा दंडात्मक कारवाईला सामोरे जाण्यास तयार रहा". नवीन मसुद्यात, अधिकाऱ्यांनी केवळ सामग्री तयार करण्यासाठी आणि अपलोड करण्यासाठी जबाबदार असलेल्या व्यक्तीवरच नव्हे तर ती प्रकाशित केलेल्या व्यासपीठावरही संभाव्य कारवाई करण्याबाबत चर्चा केली आहे.

जेव्हा तंत्रज्ञानाचा वापर जनतेला हाताळण्यासाठी आणि प्रभावित करण्यासाठी केला जाऊ शकतो, तेव्हा सरकारने हस्तक्षेप करून आपल्या नागरिकांचे संरक्षण करणे आवश्यक आहे. विकासाची वेगवान गती, वापर आणि गोपनीयता यांच्यातील अंतर पूर्वनियोजित करण्यासाठी देखरेख आणि नियमन करणे हे सरकारचे काम आहे . समाजात ए. आय. अधिक व्यापक होत असताना असा प्रश्न उद्भवतो कि सरकार या वेगवान प्रगतीच्या अनपेक्षित परिणामांपासून नागरिकांचे प्रभावीपणे संरक्षण करू शकते का?

भविष्यकाळात काय असेल?

राष्ट्रीय धोरण आणि जबाबदार AI ची बंधने भारतात जबाबदार AI वापरासाठी मूलभूत तत्त्वे ठेवली असली तरी, ते डीपफेकशी संबंधित समस्यांकडे आणि परिणामी वैयक्तिक गोपनीयतेचे संरक्षण करण्याची गरज यावर व्यापकपणे लक्ष देऊ शकत नाहीत. या समस्येत भारत एकटा नाही. जगभरातील सरकारे या आव्हानाला तोंड देत आहेत, नवीन आणि अनपेक्षित आव्हानांचा सामना करण्यासाठी धोरणे स्वीकारण्यासाठी संघर्ष करत आहेत. 2019 मध्ये तयार केलेले धोरण कदाचित 2024 मध्ये दिसलेल्या सूक्ष्म आव्हानांचा पुरेसा सामना करू शकणार नाही. बदलत्या तांत्रिक परिस्थितीत नागरिकांचे संरक्षण सुनिश्चित करण्यासाठी, उदयोन्मुख धोक्यांशी जुळवून घेण्यासाठी सरकारने सातत्याने धोरणांचे पुनर्मूल्यांकन आणि अद्ययावत करणे आवश्यक आहे.

सरकार AI च्या वेगाने होणाऱ्या संभाव्य हानीपासून नागरिकांचे प्रभावीपणे संरक्षण करू शकतील हे सुनिश्चित करण्यासाठी नवकल्पना आणि नियमन यांच्यात संतुलन राखणे आवश्यक आहे.

डीपफेकच्या समस्येचे विशेषतः निराकरण करण्यासाठी, काही सरकारांनी गुन्हेगारांना हाताळण्यासाठी कायदे आणण्याचा किंवा विद्यमान कायदेशीर चौकटीचा वापर करण्याचा प्रयत्न केला आहे. यामध्ये बदललेल्या मजकुरासह व्हिडिओ चिन्हांकित करणे आणि अधोरेखित करणे आणि असे करण्यात अपयशी ठरलेल्या व्यक्तींवर तसेच प्लॅटफॉर्मवर दंड आकारणे यांचा समावेश आहे. उदाहरणार्थ, युनायटेड स्टेट्समध्ये (यूएस) अध्यक्ष जो बिडेन यांनी "सुरक्षित आणि विश्वासार्ह विकास आणि कृत्रिम बुद्धिमत्तेचा वापर" या कार्यकारी आदेशावर स्वाक्षरी केली ज्यात त्वरित प्रभावाने बदललेल्या फोटोचे,आवाजाचे  लेबलिंग करणे आवश्यक होते. याव्यतिरिक्त, काही काँग्रेस सदस्यांनी अमेरिकी काँग्रेसमध्ये 'डीपफेक्स अकाउंटिबिलिटी बिल' सादर केले आहे, ज्याचा उद्देश सोशल मीडिया प्लॅटफॉर्मवर गुन्हेगारी आरोप लावणे हा आहे, जे डीपफेक व्हिडिओ प्रदर्शित करण्यात अपयशी ठरतात. दरम्यान, युरोपियन युनियनने (ई. यू.) कोड ऑफ प्रॅक्टिस ऑन डिसइन्फॉर्मेशन आणि डिजिटल सर्व्हिसेस अॅक्टचे संयोजन लागू केले आहे जे डीपफेकचे निरीक्षण आणि नियमन करते. पारदर्शकता वाढविणारा ई. यू. ए. आय. कायदा देखील प्रस्तावित केला आहे. डीपफेक व्हिडिओ तयार करण्यासाठी वापरले जाऊ शकणारे ऑनलाइन व्हिडिओ-एडिटिंग प्लॅटफॉर्म सिंथेशियाचे सह-संस्थापक व्हिक्टर रिपारबेली,  गुंडगिरी आणि भेदभाव यासारख्या हेतूवर लक्ष केंद्रित करणारी विद्यमान चौकट मजबूत करण्याची सूचना करतात. डीपफेकमुळे उद्भवणाऱ्या धोक्यांबाबत जनजागृती वाढवण्याची आणि शिक्षणात गुंतवणूक करण्याचीही गरज आहे.

ज्या जगात तंत्रज्ञान आणि AI च्या आसपासची कायदेशीर पोकळी कायम आहे, त्या जगात AI साधनांच्या लोकांपर्यंत पोहोचण्याविषयी प्रश्न उपस्थित होतात. सरकार AI च्या वेगाने होणाऱ्या संभाव्य हानीपासून नागरिकांचे प्रभावीपणे संरक्षण करू शकतील हे सुनिश्चित करण्यासाठी नवकल्पना आणि नियमन यांच्यात संतुलन राखणे आवश्यक आहे. जसजसे आपण या गुंतागुंतीच्या परिस्थितीला सामोरे जात आहोत, तसतसे समाजाच्या हितसंबंधांचे रक्षण करण्यासाठी सक्रिय, अनुकूल आणि सर्वसमावेशक नियामक चौकटीची गरज सर्वोच्च ठरते. AI च्या जलद विकासामुळे भाषण आणि अभिव्यक्ती स्वातंत्र्याचे रक्षण करताना, चुकीच्या माहितीपासून आणि खोट्या माहितीपासून नागरिकांचे संरक्षण करण्याबाबतचे संभाषण अग्रस्थानी जाणे आवश्यक आहे. डीपफेक तंत्रज्ञानाला सामान्य 'जनरेटिव्ह एआयच्या धोक्यांच्या' श्रेणीत अडकण्याऐवजी त्याच्या देखरेखीची आवश्यकता आहे.


तान्या अग्रवाल या ऑब्झर्व्हर रिसर्च फाऊंडेशनमध्ये रिसर्च इंटर्न आहेत.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.

Author

Tanya Aggarwal

Tanya Aggarwal

Tanya Aggarwal is a Research Assistant at the Center for Security, Strategy, and Technology at ORF. Her research focuses on the intersection between technology and ...

Read More +