-
CENTRES
Progammes & Centres
Location
भारताची AI सेफ्टी इंस्टिट्यूट एका नाजूक सीमारेषेवर उभी आहे. जगातील अनेक देश सुरक्षा-प्रधान धोरणांकडे झुकत असताना, तिला AI सुरक्षितता आणि AI सुरक्षा यांच्यात संतुलन साधावं लागणार आहे.
भारताची कृत्रिम बुद्धिमत्ता (AI) सुरक्षा संस्था (AISI) एका नाजूक टप्प्यावर उभी आहे. तिला सुरक्षितता आणि संरक्षण यांच्यामध्ये संतुलन साधावे लागणार आहे. कारण जगभरातील इतर देश या संस्थांना “संरक्षण-प्रथम” म्हणजेच सुरक्षेला प्राधान्य देणाऱ्या दिशेने नेत आहेत. या वर्षी भारताने स्वतःची कृत्रिम बुद्धिमत्ता (AI) सुरक्षा संस्था उभारण्याची घोषणा केली. पण भारताच्या या संस्थेसमोर आता मोठे आव्हान उभे आहे. कृत्रिम बुद्धिमत्ता (AI) सुरक्षिततेच्या आणि संरक्षणाच्या वेगवेगळ्या संकल्पनांमध्ये समतोल राखणे. विशेषतः 2025 मध्ये अनेक देशांमध्ये धोरणात्मक बदल झाले. जसे की युनायटेड किंगडम आणि युनायटेड स्टेट्स यांनी “सुरक्षितता” पेक्षा “संरक्षण” ला अधिक महत्त्व द्यायला सुरुवात केली.
हा लेख जगभरातील या संस्थांची संकल्पना, त्यामध्ये झालेल्या सुरक्षेवर आधारित बदल, तसेच भारताची जबाबदार कृत्रिम बुद्धिमत्ता (AI) वापरण्याची वाटचाल आणि पुढे भारताच्या संस्थेने कोणती वेगळी दिशा घ्यावी हे स्पष्ट करतो.
आंतरराष्ट्रीय कृत्रिम बुद्धिमत्ता (AI) सुरक्षितता सहकार्याचा पाया नोव्हेंबर 2023 मध्ये घातला गेला. युनायटेड किंगडममधील कृत्रिम बुद्धिमत्ता (AI) सुरक्षितता परिषदेनंतरच्या ब्लेचले घोषणा पत्रात देशांना कृत्रिम बुद्धिमत्ता (AI) सुरक्षिततेला प्राधान्य द्यायला सांगितले गेले. त्यात नमूद केले होते की “कृत्रिम बुद्धिमत्ता (AI) सुरक्षित पद्धतीने तयार, विकसित, वापर आणि अंमलात आणली पाहिजे.” या घोषणेमुळे कृत्रिम बुद्धिमत्तेच्या जोखमींवर उपाय करण्यासाठी जागतिक पातळीवर समन्वय साधण्याची सुरुवात झाली.
यानंतर युनायटेड किंगडमने प्रगत कृत्रिम बुद्धिमत्ता (AI) कार्यगट स्थापन केला, जो प्रगत मॉडेल्सच्या जोखमींचा अभ्यास करणार होता. पुढे तोच गट जगातील पहिली कृत्रिम बुद्धिमत्ता (AI) सुरक्षा संस्था ठरली. अमेरिकेनेही त्याच मार्गाने पाऊल टाकले आणि आपल्या राष्ट्रीय मानक आणि तंत्रज्ञान संस्थेमध्ये स्वतःची सुरक्षा संस्था स्थापन केली. तिचे काम कृत्रिम बुद्धिमत्तेच्या जोखमींचे कठोर मूल्यमापन करणे होते. जपाननेही आपल्या माहिती-तंत्रज्ञान प्रसार संस्था अंतर्गत अशी संस्था सुरू केली, जी विविध मंत्रालयांबरोबर मिळून काम करणार होती.
2025 मध्ये धोरणांमध्ये मोठा बदल झाला. काही देश सुरक्षिततेपासून दूर गेले, कारण त्यांना वाटले की खूप नियमावलीमुळे प्रगती थांबेल.
मे-2024 मधील सिओल कृत्रिम बुद्धिमत्ता (AI) परिषदेत आंतरराष्ट्रीय सुरक्षा संस्थांचे जाळे तयार झाले. अनेक देशांनी स्वतःची संस्था उभारण्याची इच्छा व्यक्त केली. नोव्हेंबर 2024 मध्ये हे जाळे प्रथमच सॅन फ्रान्सिस्को येथे जमले. तेथे युनायटेड स्टेट्स, ऑस्ट्रेलिया आणि दक्षिण कोरिया यांनी मिळून कृत्रिम बुद्धिमत्ता (AI) सुरक्षा संशोधनासाठी 11 दशलक्ष डॉलर मदत जाहीर केली.
या संस्था अनेक महत्त्वाची कामे करतात. त्यातील सर्वात महत्त्वाचे म्हणजे प्रगत कृत्रिम बुद्धिमत्ता (AI) मॉडेल्सचे मूल्यमापन करणे. युनायटेड किंगडमची संस्था मॉडेल वापरण्यापूर्वी आणि वापरल्यानंतर दोन्ही वेळा जोखमींचा अभ्यास करते. या संस्थांमुळे विविध देशांमध्ये समन्वय आणि माहितीची देवाण-घेवाण वाढली आहे. तसेच जागतिक पातळीवर सर्वोत्तम पद्धती ठरवण्याचे कामही सोपे झाले आहे.
या संस्थेची मूळ कल्पना सुरक्षिततेवर आधारित होती. म्हणजेच प्रगत मॉडेल्स त्यांच्या उद्दिष्टांपासून दूर जाऊ नयेत किंवा नकारात्मक परिणाम करू नयेत याची काळजी घेणे. यात पूर्वग्रह, पारदर्शकता आणि जबाबदारी यांसारख्या समस्यांचा सामना करणे अपेक्षित होते, पण 2025 मध्ये मोठा बदल दिसला. काही देशांनी “सुरक्षितते” पेक्षा “संरक्षण” ला महत्त्व दिले. कारण त्यांना वाटले की खूप नियम घातल्यामुळे कंपन्यांवर जास्त बोजा पडेल आणि विकास थांबेल. त्यामुळे आता कृत्रिम बुद्धिमत्ता (AI) “संरक्षण” म्हणजेच बाहेरील शत्रूंकडून होणाऱ्या हल्ल्यांपासून बचाव यावर भर दिला जातो. हे प्रामुख्याने राष्ट्रीय सुरक्षेशी जोडलेले आहे.
हा बदल आंतरराष्ट्रीय परिषदांमध्ये स्पष्ट दिसला. फेब्रुवारी 2025 मध्ये अमेरिका आणि युनायटेड किंगडमने पॅरिस कृत्रिम बुद्धिमत्ता (AI) परिषदेतल्या अंतिम घोषणापत्रावर सही केली नाही. त्यात “नैतिक आणि सुरक्षित” कृत्रिम बुद्धिमत्ता (AI) विकासाची मागणी होती. अमेरिकेच्या उपाध्यक्षांनी सांगितले की “जास्त नियमांमुळे हा परिवर्तनकारी उद्योग नष्ट होऊ शकतो.”
युनायटेड किंगडममध्ये हा बदल सर्वाधिक जाणवला. त्यांनी आपल्या सुरक्षा संस्थेचे नाव बदलून “कृत्रिम बुद्धिमत्ता (AI) संरक्षण संस्था” केले. त्यांचा भर नागरिकांचे रक्षण आणि राष्ट्रीय सुरक्षेवर गेला. युनायटेड स्टेट्समध्येही मागील प्रशासनाखाली सुरक्षिततेवर भर होता, पण सध्याच्या प्रशासनाखाली तो संरक्षणाकडे वळला.
फेब्रुवारी 2025 मध्ये अमेरिका आणि युनायटेड किंगडमने पॅरिस कृत्रिम बुद्धिमत्ता (AI) परिषदेतल्या अंतिम घोषणापत्रावर सही केली नाही. त्यात “नैतिक आणि सुरक्षित” कृत्रिम बुद्धिमत्ता (AI) विकासाची मागणी होती. अमेरिकेच्या उपाध्यक्षांनी सांगितले की “जास्त नियमांमुळे हा परिवर्तनकारी उद्योग नष्ट होऊ शकतो.”
जून 2025 मध्ये युनायटेड स्टेट्सची संस्था बदलून “कृत्रिम बुद्धिमत्ता (AI) मानक आणि नवकल्पना केंद्र” करण्यात आली. या केंद्राला दोन कामे देण्यात आली. पहिले म्हणजे जलद गतीने नवकल्पना सुरू ठेवणे आणि दुसरे म्हणजे त्या नवकल्पनांना राष्ट्रीय सुरक्षा मानकांशी जुळवणे. त्यामुळे मॉडेल्सच्या आतल्या जोखमींपेक्षा या संस्था आता बाहेरून येणाऱ्या धोक्यांवर लक्ष केंद्रित करत आहेत. त्यांचे मुख्य काम म्हणजे इतर घटकांकडून होणाऱ्या कृत्रिम बुद्धिमत्तेच्या वापरामुळे निर्माण होणाऱ्या धोक्यांचे मूल्यमापन करणे आणि त्यावर उपाय शोधणे.
जानेवारी 2025 मध्ये, नवी दिल्लीने पॅरिस कृत्रिम बुद्धिमत्ता (AI) परिषदेचे सहआयोजन करण्याच्या काही आठवडे आधीच, भारत स्वतःची कृत्रिम बुद्धिमत्ता (AI) सुरक्षा संस्था उभारणार असल्याची घोषणा केली. ही गोष्ट समजण्याजोगी आहे, कारण भारताने नेहमीच सुरक्षित आणि जबाबदार कृत्रिम बुद्धिमत्ता (AI) विकास व वापर यासाठी बांधिलकी दाखवली आहे. 2018 मधील राष्ट्रीय कृत्रिम बुद्धिमत्ता (AI) धोरणाने “सुरक्षित आणि विश्वासार्ह कृत्रिम बुद्धिमत्ता (AI)” हा एक महत्त्वाचा आधारस्तंभ म्हणून ओळखला होता. इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान मंत्रालयाने कृत्रिम बुद्धिमत्ता (AI) क्षमता तपासण्यासाठी अनेक समित्या स्थापन केल्या, त्यातील ‘समिती-ड’ ने विशेषतः नैतिक प्रश्न अधोरेखित केले आणि कृत्रिम बुद्धिमत्ता (AI) प्रणालींनी “उच्च पातळीच्या सुरक्षिततेचे मानक पूर्ण करावे” असे सुचवले. 2021 मध्ये जबाबदार कृत्रिम बुद्धिमत्तेसाठी एक दृष्टिकोन पत्र प्रसिद्ध करण्यात आले, जे नीती आयोग, बहुपक्षीय मंच आणि खासगी संस्था यांच्या सहकार्याने तयार करण्यात आले होते. यात जबाबदार कृत्रिम बुद्धिमत्तेसाठी महत्त्वाचे तत्त्वे मांडली होती, जी सार्वजनिक आणि खासगी क्षेत्रासाठी सारखीच उपयुक्त होती. उद्योग क्षेत्रानेही जबाबदार कृत्रिम बुद्धिमत्तेच्या चर्चेत सहभाग घेतला, जसे की नॅसकॉमच्या जबाबदार कृत्रिम बुद्धिमत्ता (AI) साधन संचात योगदान देऊन. 2023 मध्ये मंत्रालयाने जबाबदार कृत्रिम बुद्धिमत्तेशी संबंधित संशोधन प्रकल्प मागवले आणि त्यापैकी 10 प्रकल्पांना अनुदान दिले.
भारताची सुरक्षा संस्था रचनात्मक दृष्ट्या वेगळी आहे. ती विशिष्ट जागी न बसता आभासी पद्धतीने चालवण्याची कल्पना करण्यात आली. मंत्रालयाने तिच्या स्थापनेची प्रक्रिया पुढे नेली, ज्याचा मुख्य उद्देश देशातील विविध संस्थांतील संशोधक तसेच खासगी क्षेत्रातील भागीदार यांना एकत्र आणून एक समान मंच तयार करणे हा होता.
सुरक्षिततेच्या दृष्टीने पाहता, कृत्रिम बुद्धिमत्ता सुरक्षा संस्थेने जबाबदारी ठामपणे निश्चित करण्याचे मार्ग शोधले पाहिजेत. विशेषतः जेव्हा कृत्रिम बुद्धिमत्तेचा वापर धोकादायक ठरू शकतो, तेव्हा ही गरज जास्त असते. उदाहरणार्थ, भारतात चालू असलेल्या किंवा विचाराधीन वापरांमध्ये गुन्हेगारीचा अंदाज बांधणे आणि कर्ज देण्यासाठी गुणांकन करणे यांचा समावेश आहे. जर हे वापर चुकीच्या किंवा पक्षपाती माहितीवर आधारित असतील, तर ते थेट नागरिकांना हानी पोहोचवू शकतात
संस्थेच्या सहकार्यात्मक आराखड्याला पुढील घडामोडींमुळे अधिक ठोस स्वरूप आले. मे 2025 मध्ये या संस्थेने भागीदार संस्था शोधण्याचे आवाहन केले. यात शैक्षणिक संस्था, नवउद्योजक, कंपन्या आणि संशोधन-विकास संस्था यांचा समावेश होता. उद्देश असा होता की प्रत्येक भागीदार संस्थेत “भारत कृत्रिम बुद्धिमत्ता (AI) सुरक्षा संस्था कक्ष” असेल, ज्याला संस्थेने त्यांच्या तज्ज्ञतेनुसार काम सोपवावे.
भारताच्या संस्थेसाठी सुरक्षितता आणि संरक्षण या दोन्ही घटकांमध्ये योग्य संतुलन साधणे अत्यावश्यक आहे. कारण बाह्य आणि अंतर्गत धोके वेगळे नाहीत, आणि टिकाऊ सुरक्षा उपाय दोन्हींसाठी आवश्यक आहेत.
सुरक्षिततेच्या दृष्टीने पाहता, कृत्रिम बुद्धिमत्ता सुरक्षा संस्थेने जबाबदारी ठामपणे निश्चित करण्याचे मार्ग शोधले पाहिजेत. विशेषतः जेव्हा कृत्रिम बुद्धिमत्तेचा वापर धोकादायक ठरू शकतो, तेव्हा ही गरज जास्त असते. उदाहरणार्थ, भारतात चालू असलेल्या किंवा विचाराधीन वापरांमध्ये गुन्हेगारीचा अंदाज बांधणे आणि कर्ज देण्यासाठी गुणांकन करणे यांचा समावेश आहे. जर हे वापर चुकीच्या किंवा पक्षपाती माहितीवर आधारित असतील, तर ते थेट नागरिकांना हानी पोहोचवू शकतात, यासाठी या संस्थेने स्वतंत्र देखरेख संस्था उभारण्याला प्राधान्य द्यायला हवे, ज्याला स्पष्ट निधी आणि कुशल कर्मचारी असतील. या संस्थेला माहिती संकलन, शुद्धीकरण आणि साठवण प्रक्रियेची तपासणी करण्याचे अधिकार द्यायला हवेत. तसेच सार्वजनिक क्षेत्रातील कृत्रिम बुद्धिमत्तेचा वापर पारदर्शक करण्यासाठी सविस्तर डिजिटल नोंदणी तयार करायला हवी. यात प्रमुख प्रणालींचे तांत्रिक उपयोग, उद्दिष्टे, कार्यरत स्थिती आणि कोणत्या राज्यांत त्यांची अंमलबजावणी झाली आहे याचा तपशील नागरिकांना सोप्या भाषेत मिळायला हवा. नेदरलँड्स आणि फिनलंड येथील नोंदणी प्रयत्नांप्रमाणेच अशा उपायांमुळे कृत्रिम बुद्धिमत्ता (AI) सुरक्षिततेला लोकाभिमुख स्वरूप मिळू शकते.
संरक्षणाचे महत्त्वही कमी लेखता येत नाही, विशेषतः पाकिस्तानसोबतच्या अलीकडील संघर्षानंतर. कारण त्यावेळी कृत्रिम बुद्धिमत्ता (AI) वापरून खोटी माहिती पसरवणे आणि सायबर हल्ले करण्यात आले.
संरक्षणाचे महत्त्वही कमी लेखता येत नाही, विशेषतः पाकिस्तानसोबतच्या अलीकडील संघर्षानंतर. कारण त्यावेळी कृत्रिम बुद्धिमत्ता (AI) वापरून खोटी माहिती पसरवणे आणि सायबर हल्ले करण्यात आले. उदयोन्मुख क्षमता जसे की कृत्रिम बुद्धिमत्तेवर आधारित सीमेवरील संगणन संरचना ही सुरक्षेसाठी अधिक महत्त्वाची ठरणार आहे. या पार्श्वभूमीवर, ही संस्था उद्योग, शैक्षणिक क्षेत्र आणि सैन्य यांच्यामध्ये संवाद साधण्यासाठी आणि राष्ट्रीय सुरक्षेसाठी कृत्रिम बुद्धिमत्तेच्या संशोधन-विकासाचा मार्ग ठरवण्यासाठी आदर्श मंच ठरू शकते. दरवर्षी बंद दाराआड परिषद आयोजित करून या भागीदारांना एकत्र आणणे आणि अशा मार्गदर्शक आराखड्याची आखणी करणे, ही संस्था भारतातील कृत्रिम बुद्धिमत्तेच्या विकासाचा मुख्य आधार बनवू शकते.
संरक्षणाचे महत्त्वही कमी लेखता येत नाही, विशेषतः पाकिस्तानसोबतच्या अलीकडील संघर्षानंतर. कारण त्यावेळी कृत्रिम बुद्धिमत्ता (AI) वापरून खोटी माहिती पसरवणे आणि सायबर हल्ले करण्यात आले. जगभरात देश सुरक्षितता आणि संरक्षण यापैकी एकाची निवड करत असताना, भारताच्या संस्थेकडे दोन्ही हाताळण्याची अनोखी संधी आहे. कारण भविष्यकाळातील कृत्रिम बुद्धिमत्ता (AI) हे आव्हान प्रणालीगत दुष्परिणामांबरोबरच जाणूनबुजून केलेल्या हल्ल्यांच्या स्वरूपातही उभे करणार आहे. भारताची संस्था या दोन्हींसाठी देशाला सज्ज बनवू शकते.
ध्रुव बॅनर्जी हे ऑब्झर्व्हर रिसर्च फाउंडेशनचे रिसर्च इंटर्न आहेत.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.
Dhruv Banerjee is a Research Intern with the Observer Research Foundation. ...
Read More +