-
CENTRES
Progammes & Centres
Location
कृत्रिम बुद्धिमत्ता आणि डीपफेक्सच्या वाढत्या वापरामुळे आयडेंटिटी थेप्ट म्हणजेच ओळख चोरी सुलभ झाली आहे. हे बहुआयामी आव्हान सक्षम, तात्काळ आणि समन्वित उपायांची मागणी करते.
Image Source: Getty
अलीकडील एका अहवालात उघड झाले आहे की, चॅटजीपीटी (ChatGPT) सारखी कृत्रिम बुद्धिमत्ता (AI) मॉडेल्स बनावट आधार आणि पॅन कार्ड तयार करू शकतात, ज्यामुळे AI च्या दुहेरी वापराच्या (ड्युअल यूज) शक्यतेबाबत नव्या चिंता निर्माण झाल्या आहेत. जरी काही तज्ज्ञांनी सध्याच्या सुरक्षा उपायांमुळे मोठ्या प्रमाणावर गैरवापर होणार नाही असे सांगून जनतेच्या भीतीचे निरसन करण्याचा प्रयत्न केला असला, तरी ही घटना एक खोल आणि प्रणालीगत समस्या दर्शवते. जसजशी AI तंत्रज्ञान अधिक प्रगत आणि सहज उपलब्ध होत आहे, तसतशी त्याचा दुष्ट हेतूने वापर होण्याची शक्यता एक खऱ्या आणि सतत उपस्थित असलेल्या धोक्याच्या स्वरूपात समोर येत आहे. या पार्श्वभूमीवर, दुहेरी वापराच्या तंत्रज्ञानाचे व्यापक परिणाम गांभीर्याने विचारात घेणे अत्यावश्यक आहे.
कृत्रिम बुद्धिमत्तेने (AI) अनेक उद्योग क्षेत्रात क्रांतिकारी बदल घडवले असून, अभूतपूर्व सोय व नवकल्पना प्रदान केल्या आहेत. मात्र, या झपाट्याने वाढणाऱ्या विकासाबरोबरच AI ने गुंतागुंतीच्या नैतिक, सामाजिक आणि सुरक्षा संदर्भातील समस्या निर्माण केल्या आहेत, ज्या समजून घेण्याची प्रक्रिया समाजाने नुकतीच सुरू केली आहे. चॅटजीपीटी सारख्या AI मॉडेल्सकडून बनावट आधार आणि पॅन कार्ड तयार होऊ शकतात, हे नुकतेच समोर आलेले वास्तव AI च्या दुहेरी वापराच्या चिंताजनक शक्यतेकडे लक्ष वेधते. या समस्येच्या मुळाशी आहे तंत्रज्ञानाचे मूलभूत स्वरूपच, कृत्रिम बुद्धिमत्ता ही तिच्या रचनेनुसार उपयुक्त आणि विनाशकारी अशा दोन्ही प्रकारच्या वापरासाठी वापरली जाऊ शकते. जरी AI मुळे आरोग्य सेवा, शिक्षण आणि लॉजिस्टिक्स यांसारख्या क्षेत्रात मोठी प्रगती झाली असली, तरी त्याच तंत्रज्ञानाचा वापर फसवणूक, सायबर हल्ले आणि चुकीची माहिती पसरवण्यासाठीही केला जाऊ शकतो. AI मॉडेल्सच्या मदतीने अत्यंत विश्वासार्ह बनावट ओळखपत्रे तयार होऊ शकतात, ही बाब गंभीर धोक्याची घंटा ठरते कारण गुन्हेगारी टोळ्या, दहशतवादी संघटना आणि शत्रूराष्ट्रे या तंत्रज्ञानाचा वापर राष्ट्रीय सुरक्षा आणि सामाजिक स्थैर्य उद्ध्वस्त करण्यासाठी करू शकतात.
अलीकडील एका अहवालात उघड झाले आहे की, चॅटजीपीटी (ChatGPT) सारखी कृत्रिम बुद्धिमत्ता (AI) मॉडेल्स बनावट आधार आणि पॅन कार्ड तयार करू शकतात, ज्यामुळे AI च्या दुहेरी वापराच्या (ड्युअल यूज) शक्यतेबाबत नव्या चिंता निर्माण झाल्या आहेत.
भारताचे अलीकडील अनुभव या चिंतेची तीव्रता अधिकच वाढवतात. कोविन (CoWIN) डेटाब्रिचने सार्वजनिक आरोग्यविषयक महत्त्वाच्या डेटाबेसमधील असुरक्षा उघड केली, तर AI वर आधारित डीपफेक घोटाळ्यांनी मोठ्या कंपन्यांना लक्ष्य करून वरिष्ठ अधिकाऱ्यांची नक्कल करत आर्थिक फसवणूक घडवून आणली. McAfee च्या अहवालानुसार, 83 टक्के भारतीय नागरिक बनावट व्हॉइस कॉलमुळे आर्थिक नुकसान सहन करत आहेत. निवडणूक काळात, AI -सक्षम बॉट नेटवर्क्स आणि डीपफेक व्हिडिओंनी सोशल मिडिया प्लॅटफॉर्म्सवर दिशाभूल करणारी माहिती पसरवून जनमत बदलण्याचा आणि लोकशाही प्रक्रियांवर परिणाम करण्याचा धोका निर्माण केला. याशिवाय, मूळच्या चिनी असलेल्या AI अॅप्सवर बंदी घालणं हे दाखवून देतं की, AI वर आधारित डेटामाइनिंग ऑपरेशन्स थेट सार्वभौमत्व आणि वैयक्तिक गोपनीयतेला धोका पोहोचवत आहेत. लुटारू कर्ज अॅप्सनी AI अॅनालिटिक्सचा वापर करून वापरकर्त्यांची संवेदनशील माहिती काढून ती बळजबरीने वसुली मोहिमांसाठी वापरण्यास सुरुवात केली आहे. डिजिटल पेमेंट प्लॅटफॉर्म्सच्या वाढत्या वापरामुळे, फसवणूक करणाऱ्यांनी जी पे (GPay), फोन पे (PhonePe) आणि पेटीएम (Paytm) यांसारख्या यूपीआय अॅप्सची हुबेहूब नक्कल तयार करून लोकांना गंडवायला सुरुवात केली आहे. तसेच, चॅटजीपीटी सारख्या लार्ज लँग्वेज मॉडेल्सचा (LLMs) वापर बनावट सरकारी कागदपत्रे तयार करण्यासाठी होऊ शकतो, ज्यामुळे सायबर गुन्हेगारांसाठी ओळख म्हणजेच आयडेंटिटी चोरी आणखी सुलभ झाली आहे. या घटनांमधून एक स्पष्ट पद्धत लक्षात येते की जिथे सरकारी आणि बिगर सरकारी घटकांचे प्रतिनिधी AI च्या दुहेरी वापर क्षमतेचा वापर सत्तेची मक्तेदारी प्रस्थापित करण्यासाठी किंवा गुन्हेगारी हेतूंनी करत आहेत. यामुळे तंत्रज्ञान व्यवस्थेतील सखोल असुरक्षितता उघड होत आहे.
या सुरक्षा धोक्याचा आणखी एक पैलू म्हणजे भारतात बेकायदेशीरपणे प्रवेश करण्याचा प्रयत्न करणाऱ्या परदेशी नागरिकांकडून बनावट कागदपत्रांचा होणारा वापर. उदाहरणार्थ, अनेक अहवालांमध्ये असे निदर्शनास आले आहे की बांगलादेशी निर्वासित आणि रोहिंग्या स्थलांतरितांनी बनावट ओळखपत्रे मिळवून भारतात बेकायदेशीरपणे स्थायिक होण्याचा प्रयत्न केला. त्याचप्रमाणे, पाकिस्तानी नागरिकांनीही बनावट कागदपत्रांच्या आधारे स्वतःची ओळख लपवून काही गुप्त मोहिमांमध्ये सहभागी होत, भारताच्या अंतर्गत सुरक्षेला अस्थिर करण्याचा प्रयत्न केल्याचे प्रकरणे समोर आली आहेत, ज्या मोहिमा निमलष्करी दलांमध्ये घुसखोरीसाठी करण्यात आल्या.
AI-निर्मित आधार किंवा पॅन कार्डांची शक्यता या असुरक्षिततेला अधिकच गती देते. पश्चिम बंगाल, आसाम, पंजाब, आणि जम्मू आणि काश्मीर यांसारख्या सीमेवर असलेल्या राज्यांमध्ये, जिथे आधीच स्थलांतराचा ताण आहे, तिथे घुसखोरीच्या घटनांमध्ये मोठी वाढ होण्याची शक्यता आहे. पारंपरिक सीमा सुरक्षा आणि तपासणी प्रक्रिया अशा डिजिटल साधनांनी सज्ज घुसखोरांना थांबवण्यासाठी अपुऱ्या ठरू शकतात, आणि AI-आधारित जगात राष्ट्रीय सीमा सुरक्षित ठेवणे अधिकच कठीण होईल.
सुरक्षेच्या तपासणी ठिकाणी ओळख पडताळणी मुख्यतः दस्तऐवजांच्या प्रामाणिकतेवर अवलंबून असते, आणि जर अत्यंत हुबेहूब बनावट कागदपत्रे पारंपरिक तपासणी पद्धतींपासून बचावली, तर ही यंत्रणा अप्रचलित होऊ शकते.
राष्ट्रीय सुरक्षेला धोका ठरण्याची शक्यता आणखीनच गंभीर आहे. जर दहशतवादी गटांच्या हाती बनावट कागदपत्रे लागली, तर त्याचे परिणाम अत्यंत विनाशकारी ठरू शकतात. अणु-सुविधा, लष्करी ठिकाणे किंवा सरकारी इमारती यांसारख्या संवेदनशील परिसरात प्रवेश करणे शक्य होऊ शकते. सुरक्षेच्या तपासणी ठिकाणी ओळख पडताळणी मुख्यतः दस्तऐवजांच्या प्रामाणिकतेवर अवलंबून असते, आणि जर अत्यंत हुबेहूब बनावट कागदपत्रे पारंपरिक तपासणी पद्धतींपासून बचावली, तर ही यंत्रणा अप्रचलित होऊ शकते. अशा घुसखोरांकडून देशात हल्ले, महत्त्वाच्या पायाभूत सुविधांवर तोडफोड किंवा खाजगी गुप्त माहिती मिळवण्याचे प्रकार घडू शकतात आणि हे सर्व खोट्या ओळखीतून शक्य आहे. या पार्श्वभूमीवर, पारंपरिक युद्धापेक्षा फार वेगळ्या पद्धतीने, म्हणजे तांत्रिक क्षमतेच्या सहाय्याने होणाऱ्या सूक्ष्म आणि अदृश्य घुसखोरीतून राष्ट्रीय संरक्षण कमजोर होण्याचा धोका निर्माण होतो आहे.
जरी मुख्यधारेतील AI प्लॅटफॉर्म्सवर बेकायदेशीर किंवा अपायकारक सामग्री निर्माण होऊ नये यासाठी काही सुरक्षा उपाय लागू केलेले असले, तरी सायबर गुन्हेगार अजूनही "अॅडव्हर्सेरियल प्रॉम्प्टिंग" च्या माध्यमातून किंवा नैतिक मर्यादा कमी असलेल्या सानुकूल AI मॉडेल्सचा वापर करून हे प्रतिबंध चुकवत आहेत. पारंपरिक सायबर गुन्हेगारीसाठी विशेष कौशल्य आवश्यक असे, परंतु AI-सक्षम गुन्हे आता सर्वसामान्य व्यक्तींनाही करता येतात, ज्यामुळे या धमक्यांचे स्वरूप आणि वारंवारिता दोन्ही वाढली आहे. जर सक्रिय शासन नियमावली, नैतिक निरीक्षण आणि आंतरराष्ट्रीय सहकार्य यांची अंमलबजावणी केली गेली नाही, तर कृत्रिम बुद्धिमत्तेच्या दुहेरी वापराच्या समस्येमुळे राष्ट्रीय सुरक्षेला धोका निर्माण होईल, जनतेचा विश्वास ढासळेल आणि आधुनिक समाजाच्या मूलभूत रचनाच धोक्यात येतील.
AI च्या दुहेरी वापराच्या (ड्युअल यूज) क्षमतेमुळे उद्भवणारी एक तातडीची चिंता म्हणजे सामाजिक सुरक्षा यंत्रणांचा उध्वस्त होणारा पाया. AI-निर्मित बनावट दस्तऐवजांच्या वाढत्या संख्येमुळे या प्रणालींवर गंभीर परिणाम होऊ शकतो. डीपफेक तंत्रज्ञानाचा उदय ही एक वेगळीच धमकी निर्माण करतो, ज्यामुळे ओळख पडताळणीवर (आयडेंटिटी व्हेरिफिकेशन) आधारलेली विश्वासाची पायाभूत रचना, विशेषतः आर्थिक क्षेत्रात, धोक्यात येते. आवाजावर आधारित पडताळणी (व्हाइस ऑथेंटिकेशन), बायोमेट्रिक व्हेरिफिकेशन आणि वैयक्तिक संवाद (पर्सनल इंटरॲक्शन) यांसारख्या पारंपरिक प्रणालींची आता अशा बनावट माध्यमांकडून अचूकपणे नक्कल केली जाऊ शकते.
आर्थिक संस्था, ज्या व्यवहार, नियमपालन आणि ग्राहक संवादासाठी ओळखीच्या प्रामाणिकतेवर (आयडेंटिटी ऑथेंटिसिटी) अवलंबून असतात, त्या संस्थांमध्ये विश्वासाचा बिघाड होऊन त्यांचे मूलभूत कार्यक्षेत्र धोक्यात येऊ शकते. डीपफेकचा वापर करणारे हल्लेखोर सुरक्षेच्या प्रोटोकॉलला चकवा देऊ शकतात, फसवणूक करून आर्थिक व्यवहार करू शकतात, आर्थिक बाजारांमध्ये हस्तक्षेप करू शकतात, आणि व्यावसायिकांना फसवू शकतात. AI आणि सायबर गुन्हेगारी यांचा संयुक्त परिणाम असा असू शकतो की पारंपरिक दहशतवादविरोधी उपाय अपुरे ठरतील, आणि विकेंद्रित, गुप्त, आणि अत्यंत कार्यक्षम अशा दहशतवादी वित्तपुरवठा नेटवर्क्सचा उदय होऊ शकतो.
याशिवाय, जेव्हा वैयक्तिक माहिती बनावट ओळखपत्रांसोबत जोडली जाते, तेव्हा ती माहिती डार्क वेबवरील बेकायदेशीर बाजारात अत्यंत मौल्यवान ठरते. AI चा वापर करून ही चोरलेली ओळख गोळा करणे, त्याचे संकलन व विक्री करणे अधिक सुलभ व प्रभावी होते. ओळख चोरी ही आधीच एक गंभीर समस्या असताना, ती आणखी झपाट्याने वाढेल आणि कोट्यवधी निरपराध नागरिक अशा गुन्ह्यांसाठी बळी ठरतील, जे त्यांनी केलेच नाहीत.
AI आणि सायबर गुन्हेगारी यांचा संयुक्त परिणाम असा असू शकतो की पारंपरिक दहशतवादविरोधी उपाय अपुरे ठरतील, आणि विकेंद्रित, गुप्त, आणि अत्यंत कार्यक्षम अशा दहशतवादी वित्तपुरवठा नेटवर्क्सचा उदय होऊ शकतो.
अशा वातावरणात, डिजिटल आयडेंटिटीवरील विश्वास कमी होतो आणि वित्तीय संस्थांवरील जनतेचा व्यापक विश्वास धोक्यात येतो. जसे-जसे संस्था अधिकाधिक डिजिटल प्लॅटफॉर्म्सचा अवलंब करतात, तसे-तसे डीपफेक्समुळे वैध आणि बनावट व्यवहारातील सीमारेषा धूसर होते, ज्यामुळे पारंपरिक ओळख पडताळणी पद्धती अपुऱ्या ठरतात. जर तांत्रिक नवकल्पना आणि मानवी दक्षता यांचा समन्वय साधणारी सर्वसमावेशक सुरक्षा यंत्रणा तयार करण्यात आली नाही, तर वित्तीय क्षेत्राला प्रणालीगत कोलमडण्याचा धोका आहे ज्यामुळे ओळख पडताळणीवर आधारलेली आर्थिक व्यवस्था आणि त्यावरील जनतेचा विश्वास पूर्णपणे ढासळण्याची शक्यता निर्माण होते.
अशा बहुआयामी आव्हानाला तोंड देण्यासाठी सक्षम, तातडीचे आणि समन्वित उपाय आवश्यक आहेत. यासाठी पहिला टप्पा म्हणजे प्रगत AI गव्हर्नन्स संरचना विकसित करणे. धोरणकर्त्यांनी केवळ स्वैच्छिक आचारसंहितांपासून पुढे जाऊन AI प्रणालींच्या तैनाती, प्रवेश आणि क्षमतांवर नियम घालणाऱ्या बंधनकारक आंतरराष्ट्रीय करारांकडे वाटचाल करावी. AI विकसकांना अशी यंत्रणा अंतर्भूत करण्याचे बंधन ठेवले पाहिजे ज्यात डायनॅमिक मॉनिटरिंग आणि रिअल टाइम ऑडिटिंगचा समावेश असेल, जे हानिकारक कंटेंन्ट निर्मितीला ओळखून थांबवू शकतील. सरकारने विशेष AI देखरेख संस्थांमध्ये गुंतवणूक करणे आवश्यक आहे, ज्यांना नियमांचे पालन सुनिश्चित करणे, गैरवापर तपासणे आणि तंत्रज्ञानाच्या विकासानुसार नियमांमध्ये बदल करणे यासाठी अधिकार प्राप्त असावेत.
त्याच वेळी, सुरक्षा प्रक्रियांनाही अधिक प्रगत होणे आवश्यक आहे. पारंपरिक दस्तऐवज पडताळणी प्रणाली फक्त डोळ्यांनी केलेल्या तपासणीवर अवलंबून असतात आणि AI-निर्मित बनावट कागदपत्रांविरुद्ध ते अपुरे ठरतात. बायोमेट्रिक प्रमाणीकरण, ब्लॉकचेन-आधारित ओळख व्यवस्थापन आणि एन्क्रिप्टेड पडताळणी टोकन्स हे आशादायक पर्याय आहेत जे व्यापक प्रमाणावर समाकलित केले पाहिजेत. सुरक्षा एजन्सींना असे AI-चालित फॉरेंसिक साधने पुरवली पाहिजेत, ज्यामुळे कृत्रिम बदल, मेटाडेटा विसंगती आणि वॉटरमार्किंग अयोग्यतांचे परीक्षण करण्यात येऊ शकेल आणि नोंद घेतली जाऊ शकेल.
बायोमेट्रिक प्रमाणीकरण, ब्लॉकचेन-आधारित ओळख व्यवस्थापन आणि एन्क्रिप्टेड पडताळणी टोकन्स हे आशादायक पर्याय आहेत जे व्यापक प्रमाणावर समाकलित केले पाहिजेत.
दुसरे महत्त्वाचे समाधान म्हणजे जनतेचे शिक्षण आणि त्यांची जागृती. नागरिकांना डिजिटल असुरक्षिततेच्या वास्तवाशी परिचित करून देणे गरजेचे आहे. शेवटी, AI युगातील दुहेरी वापर तंत्रज्ञानाच्या गैरवापराविरुद्धची लढाई प्रगतीविरुद्ध नसून, ती अशी लढाई आहे ज्यात प्रगती चांगल्यासाठीच राहावी आणि अनपेक्षित संकटांचे कारण होऊ नये याची खात्री करणे आवश्यक आहे.
चॅटजीपीटी (ChatGPT) सारख्या AI मॉडेल्सकडून बनावट आधार आणि पॅन कार्ड तयार करण्याच्या क्षमतेबाबतच्या उघड घटनाही स्वतंत्र प्रकरणांपेक्षा अधिक व्यापक आणि चिंताजनक प्रवृत्ती दर्शवतात. जसजशी कृत्रिम बुद्धिमत्ता विकसित होत आहे, तसतसा तिचा गैरवापर करण्याची शक्यता देखील वाढत आहे, ज्याचा परिणाम राष्ट्रीय सुरक्षा, आर्थिक प्रामाणिकपणा आणि सामाजिक विश्वास यांसारख्या समाजाच्या प्रत्येक अंगावर होतो आहे. या धोक्यांचा सामना करण्यासाठी सर्वसमावेशक दृष्टीकोन आवश्यक आहे. बंधनकारक आंतरराष्ट्रीय नियमावली, प्रगत AI-चालित पडताळणी तंत्रज्ञान, सक्षम देखरेख संस्था आणि व्यापक जनजागृती या सर्वांचा समन्वय हा एक व्यापक संरक्षण यंत्रणा म्हणून आवश्यक आहे. आज काळजीपूर्वक कारवाई न केल्यास तंत्रज्ञानाचा गैरवापर करून स्वतःच्या वैयक्तिक किंवा राजकीय फायद्यासाठी गुन्हेगारांकडे नियंत्रण देण्याचा धोका निर्माण होतो. AI ला नैतिक आणि प्रभावीपणे गवर्न (देखरेख) करण्याची गरज कधीच एवढी तातडीची नव्हती, कारण तंत्रज्ञानाचे संरक्षण म्हणजे समाजाचे संरक्षण होय.
सौम्या अवस्थी ह्या ऑब्झर्व्हर रिसर्च फाउंडेशन मधील सेंटर फॉर सिक्युरिटी, स्ट्रॅटेजी अँड टेक्नॉलॉजी येथे फेलो आहेत.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.
Dr Soumya Awasthi is Fellow, Centre for Security, Strategy and Technology at the Observer Research Foundation. Her work focuses on the intersection of technology and national ...
Read More +