Author : Anulekha Nandi

Expert Speak Digital Frontiers
Published on Jun 01, 2024 Updated 0 Hours ago

युरोप परिषदेने कृत्रिम बुद्धिमत्तेवर (AI) पहिला आंतरराष्ट्रीय, कायदेशीर बंधनकारक करार मंजूर केला. तथापि, नियमन दृष्टिकोन आणि तत्वांमधील अस्पष्टतामुळे जबाबदारी आणि दायित्वाबाबतच्या मूलभूत प्रश्नांची उत्तरे अजूनही अनुत्तरित आहेत.

पहिला आंतरराष्ट्रीय AI करार: योग्य दिशेने प्रगती, पण अनेक प्रश्न!

युरोप परिषदेने (COE) 17 मे 2024 रोजी स्ट्रासबर्ग येथे झालेल्या मंत्री परिषदेच्या वार्षिक बैठकीत आतापर्यंतचा पहिला आंतरराष्ट्रीय कायदेशीर करार मंजूर केला आहे. हा करार कृत्रिम बुद्धिमत्ता (AI), मानवी हक्क, लोकशाही आणि कायद्याचे राज्य यांच्याशी संबंधित आहे. एआय सिस्टम्स बनवल्यापासून त्या वापरण्यापर्यंत आणि बंद करण्यापर्यंत सर्व गोष्टींचा विचार करण्यात येतो. हा करार युरोपीय संघाच्या एआय कायद्यासारखा धोका-आधारित आहे. परंतु युरोपीय संघाबाहेरील देशांसाठी देखील खुला आहे. हा करार दोन वर्षांहून अधिक काळ समन्वित करण्यात आला होता.

हा करार कृत्रिम बुद्धिमत्तेचा जबाबदार वापर करण्यासाठी प्रोत्साहन देतो. म्हणजेच समता, भेदभाव न करणे, खाजगी माहितीची गोपनीयता आणि लोकशाही मूल्ये यांचा आदर करून एआय वापरणे अपेक्षित आहे. हा करार सरकारी क्षेत्रासाठी (सरकारच्या वतीने काम करणाऱ्या कंपन्यांसह) तसेच खासगी क्षेत्रासाठीही लागू आहे. खासगी क्षेत्रासाठी या नियमावलीचे पालन करण्याचे दोन मार्ग आहेत. कंपन्या करारात्मक तरतुदींच्या नियमांनुसार काम करण्याचा पर्याय निवडू शकतात किंवा आंतरराष्ट्रीय मानवी हक्क बंधनांचे पर्यायी उपाय करू शकतात. हा करार वेगवेगळ्या तंत्रज्ञान, क्षेत्र आणि सामाजिक-आर्थिक परिस्थितीनुसार लवचिकतेने राबविला जाणार आहे. त्यासाठी धोका मूल्यांकन करणे आवश्यक आहे जेणेकरून संभाव्य समस्या कमी करता येतील. आणि एआय वापरणे थांबवण्याची किंवा बंदी घालण्याची गरज आहे का ते ठरवता येईल. तसेच या करारामध्ये स्वतंत्र निरीक्षण यंत्रणा आणि नुकसानीची भरपाई करण्याची तरतूद देखील आहे.

हा करार वेगवेगळ्या तंत्रज्ञान, क्षेत्र आणि सामाजिक-आर्थिक परिस्थितीनुसार लवचिकतेने राबविला जाणार आहे.

हा करार धोका-आधारित दृष्टिकोनाद्वारे सुनिश्चित करण्याचा प्रयत्न करतो. एआयच्या क्षेत्रात कायदेशीर मानके स्थापित करण्याचा याचा उद्देश आहे, परंतु नियमांचे पालन करण्याच्या पलिकडे जबाबदारी आणि बांधिलकी कोणाची याचे स्पष्ट निर्देश नसल्यामुळे या कराराची प्रत्यक्षात अंमलबजावणी कठीण होते. तत्त्वांवर आधारित नियमांचे पालन करणे हे अंमलबजावणीसाठी खासकरून कठीण असते, विशेषतः जेव्हा एआयच्या संशोधन आणि निर्मितीशी संबंधित जागतिक स्तरावरील परस्परसंबंध आणि आंतरराष्ट्रीय स्वरूप, डेटा आणि संगणन यासारख्या महत्त्वपूर्ण एआय संसाधनांमधील असमानता, एआयशी संबंधित लोकांचे वेगवेगळे हितसंबंध आणि धोका-आधारित नियमनाची मर्यादा आणि गतिशील एआय धोक्यांचे सक्रियपणे निरीक्षण, मूल्यांकन आणि कमी करण्यासाठी क्षमता विकसित करण्यासाठी लागणारी संस्थात्मक गुंतवणूक यांसारख्या गोष्टी एकाच वेळी अडथळा ठरतात. अशा परिस्थिती, संसाधने आणि लोकांच्या संगमामुळे सातत्याने येणाऱ्या धोके आणि त्यांचे दीर्घकालीन स्वरूप निर्माण होते.

कृत्रिम बुद्धिमत्तेवर (AI) नियंत्रण ठेवणे ही बाजारपेठेतील व्यवहार किंवा भौतिक पायाभूत सुविधा जसे पारंपारिक क्षेत्रांवर नियंत्रण ठेवण्यापेक्षा वेगळी गोष्ट आहे. एआय ही एखाद्या विशिष्ट वर्ग किंवा तंत्रज्ञानाच्या संचापुरती मर्यादित राहत नाही तर मशीन लर्निंग, संगणक दृष्टी आणि न्यूरल नेटवर्क्स यांसारख्या अनेक तंत्रज्ञान वर्ग समाविष्ट करणारी सतत विकसित होणारी क्षेत्रे व्यापते आहे. एआयच्या धोका-आधारित परिणामांचे व्यवस्थापन करण्यामध्ये स्वायत्तता, शिकणे आणि गूढ स्वरूप या जटिल, परस्पर अवलंबून गतीशीलतेशी हातमिळवणी करणे समाविष्ट असते. कारण एआय सिस्टम्सची कार्यक्षमता आणि व्याप्ती सतत विकसित होत असते.

धोका-आधारित नियमनाचा उद्देश म्हणजे मर्यादित असलेल्या नियमन-संबंधी संसाधने आणि प्रशासकीय शक्तींचे सर्वोत्तम वापर करणे होय. यामध्ये जी हानींची शक्यता आहे त्यांच्यावर नियंत्रणाची साधने लक्ष्य करणे समाविष्ट आहे. धोका-आधारित नियमनात, नियंत्रक ज्या धोक्यांचे व्यवस्थापन करण्याचा प्रयत्न करत आहेत त्यांची ओळख करणे समाविष्ट असते, ते नियंत्रण करण्याचा प्रयत्न करत असलेल्या नियमांपेक्षा वेगळे असते. धोका सहनशीलता वेगवेगळ्या क्षेत्रांमधील नियंत्रकांनुसार वेगवेगळी असते आणि त्यामध्ये धोका मूल्यांकन आणि आकलन, धोका आणि संधी यांच्यातील तडजोड साधणे आणि धोका आणि स्वीकारार्हता यांच्यासाठी थ्राशहॉल्ड (मर्यादा) ठरवणे समाविष्ट असते.

कृत्रिम बुद्धिमत्तेवर (AI) धोका-आधारित नियंत्रणात मूल्यांवर आणि तत्वांवर आधारित बांधिलकीशी संबंधित अस्पष्टता दिसून येतात. या अस्पष्टतेमुळे धोके ओळखणे, मोजणे आणि त्यांचे वर्गीकरण करणे कठीण होते. नियंत्रक ज्या धोक्यांना सहन करण्यास तयार आहेत यावरून धोका सहनशीलता ठरते. मूलभूत हक्क आणि सामाजिक मूल्यांमधील अस्पष्टता त्यांच्या व्याख्येला, स्पष्टीकरणाला आणि धोका मूल्यांकनासाठी त्यांच्या वापरात अडथळा ठरते. धोका मूल्यांकन पद्धती सर्व संबंधित घटक किंवा एआय प्रत्यक्षात वापरात आणल्यावर निर्माण होणारे धोके पूर्णपणे समजू शकत नाहीत. शेवटी, धोका-आधारित नियंत्रण हे नियंत्रकांच्या धोका सहनशीलतेवरून केलेल्या निवडीवर अवलंबून असते आणि ते एआय सिस्टम्सच्या कमजोर स्वरूपाबद्दलच्या मूलभूत गृहीतांवर आधारित असते.

कृत्रिम बुद्धिमत्तेच्या (AI) प्रणालींचे कामगिरी आणि व्याप्ती सतत बदलत असताना, एआयच्या धोका-आधारित परिणामांचे व्यवस्थापन करण्यासाठी स्वायत्तता, शिकणे आणि गूढ स्वरूप या जटिल आणि परस्पर अवलंबून असलेल्या गतीशीलतेशी समतोल साधणे आवश्यक आहे.

नियमांचे पालन करण्याच्या स्पष्ट निर्देशाशिवाय तत्वांवर आधारित अस्पष्टतांमुळे करार हे फक्त तत्त्वांवर आधारित राहून अंमलबजावणीसाठी निरर्थक ठरू शकतात. या करारामध्ये सहभाग आणि वैधतेबद्दल देखील महत्त्वाचे प्रश्न उपस्थित होतात कारण जगातील इतर अनेक देशांचा कराराच्या मसुद्याच्या तयारी किंवा चर्चेमध्ये सहभाग नव्हता. त्यामुळे या कराराचा स्वीकार कमी होऊ शकतो. 5 सप्टेंबर 2024 रोजी करार स्वाक्षरीसाठी खुला झाल्यानंतर, करारात सहभागी होण्याची इच्छा असलेल्यांना त्यांची तत्वांवर आधारित बांधिलकी ते कशी पूर्ण करतात याची घोषणा करावी लागणार आहे. राष्ट्रीय कृत्रिम बुद्धिमत्ता कायदे आणि नियमावली तयार करण्यासाठी हा खूप कमी वेळ आहे.

हा ढाचा एआय शासनाच्या उच्चस्तरीय तत्वांच्या पलीकडे जाणे हे एक महत्त्वाचे पाऊल असले तरी जबाबदारी कोणाची याबद्दलच्या आणि दायित्वाबाबतच्या काही प्रश्नांची उत्तरे तो देत नाही. बहुविध स्टेकहोल्डर (हितसंबंधी) सेटिंगमध्ये सहमति निर्माण करणे ही फक्त सर्वसाधारण तत्वांवर आधारित नियमांपेक्षा अधिक असणे आवश्यक आहे. हे तत्व कसे परिभाषित केलेल्या जबाबदाऱ्यांवर अवलंबून असतात हे स्पष्ट करणे गरजेचे आहे. कारण एआयच्या जगात पुरवठादार, ग्राहक किंवा मध्यस्थी यांच्या भूमिकेनुसार वेगवेगळ्या हितसंबंधींची भूमिका ठरते. जागतिक एआय जगतात हे गुंठित होते कारण मोठ्या तंत्रज्ञान कंपन्या संसाधनांच्या धारांवर नियंत्रण ठेवतात ज्यामुळे वेगवेगळी ताकद आणि अवलंबून राहण्याची संरचना तयार होते. हितसंबंधींच्या भूमिकांची ओळख आणि विशदीकरण दायित्वाचे स्वरूप आणि अंमलबजावणीच्या पद्धती स्पष्ट करण्यास मदत करते. परंतु, या प्रश्नांची आणि चिंतांची उत्तरे अद्यापही मिळालेली नाहीत. या करारात ही जबाबदारी करार करणाऱ्यांवर येते आणि नियमावली आणण्याची जबाबदारी करार करणाऱ्या देशावर येते. त्यामुळे या कराराची किती प्रमाणात गरज आहे आणि त्याचा व्याप वाट कोणता या प्रश्नांना उत्तर उरते.

कृत्रिम बुद्धिमत्तेच्या (AI) क्षेत्रात अनेक हितसंबंधींचा समावेश असतो (उदा. कंपन्या, सरकार, संशोधक). एआयच्या नियमावलीवर सहमती निर्माण करताना फक्त सर्वसाधारण तत्वं पुरे नाहीत. या तत्वांचा अर्थ काय हे स्पष्ट करणे आवश्यक आहे. तसेच, एआयच्या जगतात पुरवठादार, ग्राहक किंवा मध्यस्थी यांच्या भूमिकेनुसार त्यांची जबाबदारी कशी असेल याची माहिती देणे गरजेचे आहे.

येत्या काळातील करार आणि नियमावलींमध्ये कृत्रिम बुद्धिमत्ता (AI) चालित सिस्टम्स आणि पर्यावरणाची गतिशील जटिलता ओळखणे आवश्यक आहे. या जटिलतेमुळे कोणती जबाबदारी कुणाची याची माहिती देणे गरजेचे आहे. विविध परिस्थिती, हितसंबंधी आणि संसाधने यांचे परस्पर संबंध असलेल्या सिस्टम्स आणि घटकांमुळे जटिल परिणाम निर्माण होतात. एआय पर्यावरणाला नवीन संवाद आणि बदलत्या वातावरणाशी जुळवून घेण्याची सतत गरज असते. यांचे व्यवस्थापन करण्यासाठी आणि पालन प्रणाली स्थापित करण्यासाठी काटेकोर कायदेशीर प्रश्नांचा सामना करणे आणि त्यांचे निराकरण करणे आवश्यक आहे. त्यामुळे दायित्वाचे स्वरूप निश्चित करणे गरजेचे आहे. 2019 मध्ये युरोपियन तज्ञ गटाने कृत्रिम बुद्धिमत्ताशी संबंधित धोक्यावर नियंत्रण ठेवू आणि त्यांचे व्यवस्थापन करण्यास सर्वात सक्षम असलेल्या संस्थेला जबाबदारी देण्यासाठी उत्पादन दायित्व प्रणाली वापरण्याची शिफारस केली होती. हे एआयमुळे झालेल्या नुकसानीची भरपाई मिळवण्यासाठी खटल्यांचे एकमेव ठिकाण म्हणून कार्य करेल. परंतु, करारात सध्या वेगवेगळ्या दायित्व प्रणाली स्वीकारण्यासाठी मार्गदर्शक तत्त्वे दिलेली आहेत. मात्र करारात सहभागी होणारे देश दायित्वाचे स्वरूप ठरवण्यासाठी बांधील आहेत. यावरून हे स्पष्ट होते की कृत्रिम बुद्धिमत्ता चालित सिस्टम्सचे सामाजिक, आर्थिक आणि कायदेशीर परिणाम समजून घेण्यासाठी आणि प्रभावी नियमन दृष्टीकोन डिझाइन आणि अंमलबजावणीसाठी आंतरराष्ट्रीय करारांनी व्यापक आणि विचारशील दृष्टिकोन अवलंबणे गरजेचे आहे.


अनुलेखा नंदी या ऑब्झर्व्हर रिसर्च फाउंडेशनच्या फेलो आहेत.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.

Author

Anulekha Nandi

Anulekha Nandi

Anulekha Nandi is a Fellow at ORF. Her primary area of research includes technology policy and digital innovation policy and management. She also works in ...

Read More +