Image Source: Getty
प्रस्तावना
गेल्या दोन वर्षांत, एआय, लार्ज लँग्वेज मॉडेल्स (LLMs), आणि जनरेटिव्ह एआय या संकल्पना तंत्रज्ञान क्षेत्रातील सामान्य शब्दावलीचा भाग बनल्या आहेत, याला ChatGPT सारख्या एआय प्रयोगांच्या व्यावसायिक यशामुळे गती मिळाली आहे. सध्या, जनरेटिव्ह एआय ही एआय प्लॅटफॉर्मवरील गुंतवणुकीचा मोठा भाग बनली आहे. सध्या सर्व मोठ्या तंत्रज्ञान कंपन्यांनी एआय क्षेत्रात अग्रगण्य स्थान मिळवण्यासाठी त्यांची स्वतःची जनरेटिव्ह एआय उत्पादने उपलब्ध करून दिली आहेत. तथापि, एआय विकासाच्या प्रवासाला कॉपीराइट उल्लंघन, ब्लॅक-बॉक्स अल्गोरिदम्स, आणि लाईबिलिटी सारख्या मुद्द्यांसह अनेक समस्यांनी गालबोट लावले आहे. कृत्रिम बुद्धिमत्तेशी (AI) संबंधित एक समस्या सतत, विशेषतः जनरेटिव AI संदर्भात, म्हणजे AI प्रणालींच्या आऊटपुटमध्ये दिसणारे विविध प्रकारचे राजकीय आणि सांस्कृतिक पूर्वग्रह. गेल्या दशकात, चेहऱ्यावरून ओळख, वैद्यकीय निदान, आणि प्रतिमा निर्मिती (इमेज जनरेशन) यांसारख्या प्लॅटफॉर्मवर वापरण्यात येणाऱ्या AI प्रणालींनी त्यांच्या प्रशिक्षणासाठी वापरलेल्या असंतुलित डेटासेटच्या आधारे वांशिक पक्षपाती आऊटपुट तयार केल्याच्या अनेक घटना समोर आल्या आहेत. AI मधील पूर्वग्रहांचा किंवा पक्षपाताचा मुद्दा ऑगस्ट 2024 मध्ये प्रसिद्ध झालेल्या EU AI कायद्यात समाविष्ट करण्यात आला, जो AI नियंत्रित करण्यासाठीचा पहिला औपचारिक कायदा आहे. या कायद्यात AI च्या पक्षपातामुळे सामाजिक आणि आर्थिक हानी होण्याची शक्यता मान्य करण्यात आली आहे आणि अशा प्रणालींवर नियंत्रण ठेवण्याचे उद्दिष्ट आहे. जात, लिंग आणि वंश यांसारख्या मर्यादित घटकांवर आधारित पक्षपाताला तज्ञ, कार्यकर्ते, पत्रकार आणि धोरणकर्त्यांनी महत्त्वपूर्ण लक्ष दिले असले तरी, AI एप्लिकेशन्सच्या आऊटपुटमधील व्यापक आणि कमी स्पष्ट सांस्कृतिक पूर्वग्रह अजूनही मोठ्या प्रमाणावर टिकून आहेत. AI विकास हा अनेक देशांच्या आर्थिक आणि भौगोलिक धोरणांमध्ये अधिकाधिक समाकलित होत असताना, AI प्रणालींच्या प्रशिक्षणासाठी वापरल्या जाणाऱ्या असमतोल डेटासेटमधून निर्माण होणारे पक्षपात अधिक महत्त्वाचे बनत आहेत, विशेषतः इंग्रजी भाषिक देशांच्या बाहेरील देशांसाठी. योग्य देखरेखीशिवाय, सध्या लाखो वापरकर्त्यांकडून वापरल्या जाणाऱ्या AI अनुप्रयोगांमुळे जागतिक सांस्कृतिक असमतोल अधिकच वाढू शकतो.
कृत्रिम बुद्धिमत्तेशी (AI) संबंधित एक समस्या सतत, विशेषतः जनरेटिव AI संदर्भात, म्हणजे AI प्रणालींच्या आऊटपुटमध्ये दिसणारे विविध प्रकारचे राजकीय आणि सांस्कृतिक पूर्वग्रह.
AI मधील पूर्वग्रह म्हणजे काय?
AI मधील पूर्वग्रह मुख्यतः दोन मुद्द्यांमुळे उद्भवतो : डेटाचे प्रमाण आणि गुणवत्ता. AI प्रणालींच्या प्रशिक्षण प्रक्रियेत बदल करून पूर्वग्रह दूर करणे शक्य असले तरी, पूर्वग्रह किंवा पक्षपाताचा मूळ स्रोत सामान्यतः प्रशिक्षण डेटामध्येच असतो, असे मानले जाते. कोणत्याही लँग्वेज मॉडेलला प्रशिक्षण देण्यासाठी मोठ्या प्रमाणात मजकूर निवडणे आणि नंतर त्याचे वर्गीकरण व छाननी करणे आवश्यक असते. मात्र, निवडलेला मजकूर कितीही उच्च-गुणवत्तेचा असला तरी, तो वेबवर उपलब्ध असलेल्या मजकूराच्या एकूण संख्येच्या तुलनेत फक्त एक छोटा भागच असतो. याव्यतिरिक्त, वेबवरील प्रत्येक मजकूर माहितीला त्याच्या मर्यादित दृष्टिकोन, अचूकता, पक्षपात, आणि अंतर्निहित दृष्टिकोनाच्या मर्यादा असतात. पूर्वग्रह वाढवणारा एक महत्त्वाचा घटक म्हणजे राष्ट्रीयत्व, सांस्कृतिक दृष्टिकोन, लिंग, वंश, धर्म इत्यादींबद्दलच्या कल्पनांशी संबंधित काही घटकांचे अतिप्रस्तुतीकरन. मात्र, अभ्यासकांनी नमूद केले आहे की, "अत्त्याधिक प्रतिनिधित्व असलेल्या डोमेन/शैलीशी संबंधित दस्तऐवज वगळल्यास उच्च-गुणवत्तेची माहिती गमावली जाऊ शकते, तर अल्प-प्रतिनिधित्व असलेल्या वर्गाच्या दस्तऐवजांची संख्या वाढवण्यासाठी लक्षणीय मॅन्युअल प्रयत्नांची गरज भासू शकते." AI मॉडेल्समधील लिंगभेदाची नेहमीची समस्या याचे उत्तम उदाहरण आहे. अभ्यास दर्शवतात की ऐतिहासिक रूढी AI मजकूर-निर्मितीत प्रतिबिंबित होतात, जिथे ‘नर्स’ किंवा ‘हाऊसमेकर्स'’ यांसारख्या शब्दांना स्त्रीवाचक मानले जाते, तर ‘व्यवस्थापक’ किंवा ‘CEO’ यांसारख्या शब्दांना पुरुषवाचक मानले जाते. पूर्वग्रहाची समस्या AI प्रतिमा निर्मिती (इमेज जनरेशन) साधनांच्या उदयामुळे अधिकच गंभीर झाली आहे. उदाहरणार्थ, फेब्रुवारी 2024 मध्ये, Google ला त्याच्या Gemini AI ची सेवा एका वादामुळे तात्पुरती थांबवावी लागली. या वादात, 1943 मधील जर्मन सैनिकांच्या प्रतिमा निर्माण करण्यासाठी विचारले असता, AI ने अशा प्रतिमा तयार केल्या ज्यात आफ्रिकन आणि आशियाई वंशाच्या व्यक्तींना नाझी गणवेशात दाखवले होते. सांस्कृतिक आणि वांशिक रूढीवादी प्रतिमांची अशी अनेक उदाहरणे आढळतात. उदाहरणार्थ, "भारतीय व्यक्ती" तयार करण्यास सांगितल्यावर, AI नेहमीच एका वृद्ध पुरुषाला लांब दाढी आणि पगडीसह दर्शवले; तर "मेक्सिकन" व्यक्तीची प्रतिमा तयार करताना प्रामुख्याने मेक्सिकन पुरुषांना सॉम्ब्रेरो घातलेल्या स्वरूपात दाखवते किंवा भारतीय शहरांचे प्रदूषित व कचऱ्याने भरलेले रस्ते दाखवते. पक्षपात आणि रूढी निर्माण करण्यासोबतच, यामुळे "विसिअस फीडबॅक लूप" (vicious feedback loops) नावाचा दुसरा प्रश्न निर्माण होतो, ज्यात पक्षपाती डेटासेटमुळे तयार झालेला पक्षपाती आऊटपुट पुन्हा नवीन प्रशिक्षण डेटासेटचा भाग बनतो. AI मुळे उद्भवणाऱ्या बहुतेक समस्यांप्रमाणेच, AI पक्षपाताचे दीर्घकालीन परिणाम अस्पष्ट आहेत. परंतु व्यावसायिक AI वापराचे जागतिक स्तरावरील वितरीत स्वरूप लक्षात घेऊन या समस्येचे निराकरण करण्यासाठी आंतरराष्ट्रीय बहु-भागधारक सहकार्याची आवश्यकता असेल.
AI मुळे उद्भवणाऱ्या बहुतेक समस्यांप्रमाणेच, AI पक्षपाताचे दीर्घकालीन परिणाम अस्पष्ट आहेत. परंतु व्यावसायिक AI वापराचे जागतिक स्तरावरील वितरीत स्वरूप लक्षात घेऊन या समस्येचे निराकरण करण्यासाठी आंतरराष्ट्रीय बहु-भागधारक सहकार्याची आवश्यकता असेल.
सांस्कृतिक आणि प्रथागत पूर्वग्रह
टेक्स्ट आधारित आणि इमेज आधारित पूर्वग्रहांव्यतिरिक्त, एआय प्रणालींमध्ये आणखी एक असमतोल म्हणजे सांस्कृतिक पूर्वग्रह आहे. जगभरात एक्सप्लनेबल एआय (XAI) आणि ट्रस्टवर्थी एआयसाठी सुरू असलेल्या कायदेशीर आणि नियमात्मक प्रयत्नांमुळे, एआय प्रणाली ज्या संकल्पनात्मक चौकटीत कार्य करतात, त्या देखील तपासण्याची गरज आहे. XAI प्रणालींवर करण्यात आलेल्या अभ्यासांत असे उघड झाले आहे की, अशा प्रणाली अनेकदा वेस्टर्न, एज्यूकेटेड, इंडस्ट्रिअलाईज्ड, रीच आणि डेमोक्राटिक (WEIRD) देशांच्या मूल्यांनुसार त्यांचे उत्पादन सादर करण्याकडे झुकतात. याशिवाय, बहुतेक XAI विकासकांना या पूर्वग्रहाची फारशी जाणीव नाही, असेही स्पष्ट झाले आहे. तळागाळाच्या दृष्टिकोनातून पाहिले असता, प्रशिक्षण डेटा निवडण्याच्या टप्प्याच्या आधीपासूनच या पूर्वग्रहाची मुळे रुजलेली असतात. WEIRD देशांमधून सर्वात मोठे एआय विकासक उदयास येत असल्याने, एआय निर्मात्यांच्या आणि प्रोग्रामरच्या लोकसंख्याशास्त्रीय संरचनेत विषमता आहे. या विषम लोकसंख्येचा एआय प्रणालींच्या वर्तनावर कसा परिणाम होतो, याबाबत प्रश्न उपस्थित करणे वाजवी ठरेल. तथापि, एआय अल्गोरिदमच्या ब्लॅक-बॉक्स स्वरूपामुळे कारणे आणि परिणाम यांच्यातील संबंधांचा मागोवा घेणे कठीण ठरते.
अलीकडच्या काही वर्षांत, एआय इथिक्स संदर्भातील चर्चेत पश्चिमी वर्चस्वाच्या मुद्द्याविषयी सर्वंकष चर्चेला चालना मिळालेली आहे. या वर्चस्वावर 2020 मध्ये ETH झ्युरिकने केलेल्या अभ्यासात प्रकाश टाकण्यात आला, ज्यामध्ये 2010 च्या दशकात विविध देशांनी जाहीर केलेल्या एआय इथिक्सच्या कोड्सचा समावेश होता. या अभ्यासात असे आढळून आले की 82 टक्के कोड्स हे पश्चिमी देशांतील होते, तर भारत आणि चीनसारख्या इतर देशांकडून योगदान जवळपास नव्हतेच. 2022 च्या एका संशोधन पेपरमध्ये पश्चिमी देशांमधील एआय आणि रोबोटिक्स नियमनासाठी असलेल्या नैतिक तत्त्वांचा जपानमधील तत्त्वांशी तुलनात्मक अभ्यास करण्यात आला. या पेपरमध्ये असे आढळले की एआय इथिक्सच्या चर्चांमध्ये एआयशी संबंधित सकारात्मक मूल्यांपेक्षा नकारात्मक मूल्यांचा उल्लेख अधिक प्रमाणात केला जातो. मानवी-एआय संबंधांना संघर्षात्मक स्वरूपात पाहण्याचा कल हा पश्चिमी पूर्वग्रह प्रतिबिंबित करतो, असेही नमूद करण्यात आले. तज्ज्ञांनी असेही म्हटले आहे की, "ट्रस्टवर्थी एआय हा उद्योगाने तयार केलेला एक विपणन दृष्टिकोन आहे, उद्याच्या ग्राहकांसाठी सांगितलेली एक गोष्ट," जी नैतिक चर्चांचा वापर साध्या नियमांना प्रोत्साहन देण्यासाठी करते. एआय प्रणाली पूर्णतः लाभदायक असल्याचे चित्रण करणे बेजबाबदार ठरेल, परंतु विशिष्ट तत्त्वांना प्रोत्साहन देण्यामागील तर्कशास्त्र तपासणे आवश्यक आहे. युरोपियन युनियन (EU) कडून एआय नियमनासाठी केलेल्या प्रयत्नांचे उदाहरण घेतले तर, 2023 च्या EU AI कायद्याद्वारे हे स्पष्ट होते. AI विकासामध्ये यूएस आणि चीनसारख्या प्रमुख खेळाडूंना मागे टाकल्यामुळे EU एका प्रतिकूल स्थितीत आहे. त्याचबरोबर, इतर देशांच्या तुलनेत एआयच्या नियमनात EU ने जास्त गुंतवणूक केली आहे. नियमनावर दिलेला भर हा AI क्षेत्रात एक महत्त्वाचा घटक म्हणून स्वतःला प्रस्थापित करण्याचा आणि EU बाजारपेठेला बाहेरील खेळाडूंपासून संरक्षित करण्याचा एक मार्ग म्हणून पाहिला जातो.
विश्वासार्हतेसारखी नैतिक तत्त्वे अनावश्यक किंवा मूळतः पूर्वग्रहित आहेत, असा या चर्चेचा मुद्दा नाही. उलट, एआय एथिक्सचे महत्त्व अधोरेखित करणे आवश्यक आहे. तथापि, एआयभोवतीचा पूर्वग्रह दृष्य आणि अदृष्य अशा दोन्ही प्रकारे अस्तित्वात असतो, हे समजून घेणे गरजेचे आहे. पुढील दशकांमध्ये डिजिटल तंत्रज्ञान समाजांवर आर्थिक, सामाजिक आणि राजकीय दृष्टिकोनातून व्यापक परिणाम करेल, असे म्हणणे आता अधिक सुलभ झाले आहे, जरी ते कसे होईल याची स्पष्टता नसली तरीही. म्हणूनच, पश्चिमी प्रभावाच्या बाहेरील देशांनी, एआय नियंत्रित करण्यासाठी राष्ट्रीय पातळीवरील बहुपक्षीय चर्चा सुरू करणे आवश्यक आहे, जे त्यांच्या सांस्कृतिक वैशिष्ट्यांचे प्रतिबिंब करते आणि वेगाने बदलत असलेल्या जगात त्यांची स्थिती आणि वारसा जपण्यासाठी उपयुक्त ठरेल.
नियमनावर दिलेला भर हा AI क्षेत्रात एक महत्त्वाचा घटक म्हणून स्वतःला प्रस्थापित करण्याचा आणि EU बाजारपेठेला बाहेरील खेळाडूंपासून संरक्षित करण्याचा एक मार्ग म्हणून पाहिला जातो.
पुढे जाताना
आतापर्यंतचे दोन ठळक मुद्दे म्हणजे एआय आउटपुट्स आणि एआय चर्चेत दिसून येणारे स्पष्ट आणि अस्पष्ट पूर्वग्रह. एआय विकासकांना मार्गदर्शक तत्त्वे आणि प्रोटोकॉल स्वीकारण्याचे निर्देश दिले पाहिजे आणि त्यांना विविध डेटासेट्सचा समावेश करण्यासाठी प्रोत्साहित केले पाहिजे, विशेषतः एआय मॉडेल प्रशिक्षण आणि विकासाच्या प्रक्रियेत. धोरणकर्ते आणि आंतरराष्ट्रीय प्लॅटफॉर्म्स, जसे की ग्लोबल पार्टनरशिप ऑन आर्टिफिशियल इंटेलिजन्स (GPAI), एआय विकासक, संशोधक आणि संस्थांमधील विविध सांस्कृतिक आणि क्षेत्रीय सहयोगाला प्रोत्साहन देऊ शकतात. वैश्विक स्तरावर एआय विकासातील समानतेसाठी बहुपक्षीय सहयोग आवश्यक असेल. पश्चिमी देशांच्या एआय एथिक्सच्या वर्चस्वाला संतुलित करण्यासाठी, पश्चिमी प्रभावाच्या बाहेर असलेल्या देशांनी संघटना स्थापन केली पाहिजे किंवा UNESCO सारख्या विद्यमान प्लॅटफॉर्म्सचा वापर करून एआय मानकांना विविध सांस्कृतिक आणि सामाजिक नियमांशी सुसंगत करायला पाहिजे. राष्ट्रीय आणि आंतरराष्ट्रीय स्तरावर धोरण चर्चांमध्ये अनुकूलनीय नैतिक चौकटींचा समावेश करणे आवश्यक आहे, जेणेकरून एआय प्रणाली विविध सांस्कृतिक संदर्भात योग्य प्रकारे कार्य करू शकतील.
सिद्धार्थ यादव हे PhD स्कॉलर असून त्यांना इतिहास, साहित्य व सांस्कृतिक अभ्यासाची पार्श्वभूमी आहे.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.