Author : Anulekha Nandi

Expert Speak India Matters
Published on Mar 15, 2024 Updated 0 Hours ago

एआय विकसित करण्याच्या प्रक्रियेत, त्याच्या डिझाइनपासून ते वापरण्यापर्यंत लैंगिक असमानता स्पष्टपणे दिसून येते. भविष्यात AI संदर्भात बनवण्यात येणाऱ्या कायद्यांमध्ये या समस्येवर चर्चा होऊन त्यावर मात करण्यासाठी उपाययोजना करण्याची गरज आहे.

डेटा निर्मितीपासून वितरणापर्यंत: AI क्षेत्रातील लिंग भेदभाव

हा लेख ‘आंतरराष्ट्रीय महिला दिन’ या मालिकेचा भाग आहे.


कृत्रिम बुद्धिमत्ता प्रणाली विकसित करताना, कच्ची माहिती अल्गोरिदमिक प्रणालीद्वारे व्यावहारिक उपायांमध्ये बदलली जाते. ही प्रक्रिया ढोबळपणे तीन टप्प्यांत विभागली जाऊ शकते: रचना, विकास आणि उपयोजन. रचना टप्प्यात समस्या नेमकी काय आहे ते ओळखणे, माहिती संकलन, प्रक्रिया आणि तयारी यांचा समावेश आहे, तर विकास टप्प्यात चाचणी आणि मूल्यमापन केल्यानंतर योग्य प्रारूप निश्चित करण्यासाठी माहितीसह प्रयोग करणे समाविष्ट आहे. एकदा प्रारूपाने अपेक्षित कामगिरीचे निकष पूर्ण केले की, ते अपेक्षित अॅप्लिकेशन परिस्थितीत तैनात केले जाते आणि थेट माहितीत ते अपेक्षित परिणाम देत आहेत, हे सुनिश्चित करण्यासाठी त्याचे परीक्षण केले जाते.

कृत्रिम बुद्धिमत्ता निष्पक्षतेवर संशोधन, म्हणजे वेगवेगळ्या प्रकारच्या ओळखीसंदर्भातील गुणधर्मांद्वारे प्रभावित लोकांच्या गटांमधील प्रतिकूल परिणाम कमी करण्याचे उद्दिष्ट, जेव्हा वापरकर्ता व्यवस्थेशी संवाद साधतो ज्याद्वारे वगळण्याची स्थिती पक्षपाती माहितीसंग्रह (डेटासेट) आणि प्रक्रियेच्या निकषांद्वारे कृत्रिम बुद्धिमत्ता व्यवस्थेत प्रवेश करतो. असंवेदनशील पद्धतीने केले गेलेले वर्गीकरण, लैंगिकरीत्या असंवेदनशीलपणे मूल्यमापन आणि चाचणी झाल्याने विद्यमान पूर्वग्रहांत वाढ होते. हे कृत्रिम बुद्धिमत्ता क्षेत्रात काम करणाऱ्या मनुष्यबळातील लिंगसापेक्ष असंतुलनाने वाढले आहे, ज्याचा कृत्रिम बुद्धिमत्ता अल्गोरिदमच्या रचनेवर आणि अंमलबजावणीवर महत्त्वपूर्ण परिणाम होतो.

एआयच्या निःपक्षपातीपणावर केलेल्या संशोधनात काही प्रकरणांमध्ये असे आढळून आले आहे की काहीवेळा त्यात पक्षपाती आणि पूर्वग्रहदूषित डेटाची घुसखोरी केली जाते. हा पूर्वग्रह एखाद्या समुदायाबद्दल असू शकतो किंवा लैंगिक असमानतेबद्दल असू शकतो.

महिलांना जाणीवपूर्वक या प्रक्रियेपासून दूर ठेवण्यात आले

अल्गोरिदम हे संगणकीय कोडिफिकेशन आणि जटिल सामाजिक वास्तवाची गणितीय अमूर्तता दर्शवतात. परिणामी, अल्गोरिदमिक गृहितके आणि निकष त्यांना तयार करणाऱ्या डिझाइनरने खुणा व चिन्हांद्वारे दिलेल्या माहितीचे आणि मूल्य प्रणालीचे प्रतिनिधित्व करतात. हे विकासकांच्या स्पष्टीकरणावर कसे अवलंबून आहे हे लक्षात घेता, ते विशिष्ट दृष्टिकोन, जगासंबंधातील विचार आणि इतरांना वगळून अनुभव निर्माण करणाऱ्या रचनाविषयक स्थितींवर प्रकाशझोत टाकतात. ‘युनेस्को’च्या २०१९च्या शिक्षणाद्वारे डिजिटल कौशल्यांतील लिंगभेद नष्ट करण्याविषयीच्या ‘आय हॅड ब्लश इफ आय कुड’ या अहवालात असे आढळले आहे की, केवळ १२ टक्के कृत्रिम बुद्धिमत्ता संशोधक आणि ६ टक्के व्यावसायिक सॉफ्टवेअर डेव्हलपर महिला आहेत. प्रामुख्याने आघाडीच्या तंत्रज्ञानविषयक नाविन्यपूर्णतेत महिला अनुपस्थित आहेत, गुगलवर केवळ २१ टक्के तंत्रज्ञान विषयक भूमिकेत महिला आहेत. त्यातील, फक्त १० टक्के मशीन लर्निंगवर काम करत आहेत. या नगण्य प्रतिनिधित्वामुळे जवळपास अर्ध्या लोकसंख्येच्या- म्हणजेच महिलांच्या गरजा पूर्ण न करणाऱ्या नव्या तंत्रज्ञानाचा विकास होण्याचा धोका उद्भवतो. कृत्रिम बुद्धिमत्ता तंत्रज्ञानाची रचना करताना पुरुषांचे अति प्रतिनिधित्व लैंगिक समानतेकरता अनेक दशके झालेल्या प्रगतीचा आणि पुरस्काराचा प्रवास उलटा फिरवू शकतात, ज्यामुळे महिलांना आणि इतर लैंगिक अल्पसंख्याकांना गैरसोयीची ठरणारी व्यवस्था निर्माण होते. परिणामी, संगणकीय रचना सामाजिक असमानतेला मूर्त स्वरूप देते, कारण कृत्रिम बुद्धिमत्ता तंत्रज्ञान आपोआप आणि वारंवार काम करत राहते. कार्यरत डोमेनच्या रूपरेषा किंवा समस्येच्या जागा, ज्यात कृत्रिम बुद्धिमत्तेचे हस्तक्षेप करण्याचे उद्दिष्ट असते, माहिती संग्रहात काय समाविष्ट केले आहे आणि जे विवादित नसते किंवा दुर्लक्षित केले जाते, ते ताकदीचे स्वरूप बनते. स्त्री-पुरुष प्रतिनिधित्वाच्या व लिंगभेद विषयक माहितीसंग्रहाच्या अभावामुळे हे अधिकच वाढले आहे. मात्र, कृत्रिम बुद्धिमत्तेचा परिणाम, सामाजिक परिणामांप्रमाणेच, आंतरविभागीयतेवर अथवा ओळखीसंबंधित भेदभाव विषयक परस्परावलंबी प्रणाली तयार करण्याच्या गुणधर्मांवर अवलंबून आहे, जो जात, लिंग किंवा धर्म यांसारख्या विविधतेत परस्परांना छेद देणारा आहे-नाही हे परिभाषित करतात. चेहऱ्यावरील ओळख प्रणालीमधील पूर्वग्रहावरील नाविन्यपूर्ण संशोधनाने अधोरेखित केले आहे की, व्यावसायिक चेहऱ्यावरील ओळख प्रणालीत कृत्रिम बुद्धिमत्ता कशी चुकीची लिंगओळख करते आणि स्त्रीचे चेहरे चुकीचे ओळखते, गडद-त्वचेच्या महिला चेहऱ्याचे- चुकीचे वर्गीकरण करण्याच्या दर ३४.७ टक्के तर हलक्या रंगाच्या पुरुषांचे चुकीचे वर्गीकरण करण्याचा दर ०.८ टक्के आहे. नैसर्गिक भाषा प्रक्रियेत, गुगल न्यूज लेखांत शब्द वापरण्यासंदर्भात स्त्री-पुरुष विषयक पारंपरिक समजांना बळकटी दिली गेली आहे, जिथे डॉक्टर एक पुरुष आहे आणि नर्स किंवा रिसेप्शनिस्ट एक महिला आहे. जरी माहिती संग्रह ओळखीचा एकल गुणधर्म हस्तगत करतात तेव्हा, त्यांची अचूकता या वैशिष्ट्यपूर्ण छेदनबिंदूवर कमी होते, ज्यामध्ये ‘इमर्जन्ट इंटरसेक्शनल बायसेस’ विषयावरील संशोधनात दर्शवले की, मेक्सिकन-अमेरिकन महिलांची अल्गोरिदमिक कामगिरी सर्वात वाईट आहे. भविष्यात दाखल होणाऱ्या तंत्रज्ञानामधून महिलांना वगळून प्रतिकूल परिणाम वाढतील, स्मार्टफोनमध्ये तयार केलेले कृत्रिम बुद्धिमत्ता सहाय्यक महिलांना संकटाच्या वेळी मदत करण्यासाठी प्रोग्राम केलेले नाहीत, त्यांना हृदयाचा झटका समजते, पण त्यांना 'बलात्कार'सारखे शब्द किंवा जोडीदाराचा हिंसाचार यांसारखे शब्द समजत नाहीत.

गुगलवर तांत्रिक शोध क्षेत्रात महिलांचा वाटा केवळ २१ टक्के आहे. यामध्ये केवळ 10 टक्के महिला 'मशीन लर्निंग'चे काम करत आहेत. नवीन तंत्रज्ञानाच्या विकासात महिलांचा इतका कमी सहभाग हा धोका निर्माण करू शकतो की जे नवीन तांत्रिक शोध लावले जातात ते लोकसंख्येच्या अर्ध्या लोकांच्या म्हणजे महिलांच्या अपेक्षा आणि गरजा पूर्ण करू शकणार नाहीत.

स्त्रियांबद्दलच्या चुकीच्या समजुतींमुळे निर्माण होणारे धोके

मानवी निर्णय घेणाऱ्यांच्या पूर्वीच्या निवडी कृत्रिम बुद्धिमत्ता प्रारूपाच्या प्रशिक्षणाचा आधार बनलेल्या पूर्ववर्ती माहितीसंग्रहात पुन्हा स्पष्ट केल्या जातात. अमेझॉनवरील रेझ्युमे-स्क्रीनिंग प्रारूपाच्या बाबत- जसे की महिलांचे रेझ्युमे प्रदर्शित केले जातात. याचे कारण असे की, प्रणाली भूतकाळातील यशस्वी उमेदवारांच्या माहितीवर विश्वास ठेवीत शिकली होती, जे मुख्यतः पुरुष नियुक्त करण्याच्या पद्धती, महिलांनी शिक्षणात प्रवेश केल्याने झालेले ऐतिहासिक तोटे आणि पुरुषी वर्चस्व असलेल्या क्षेत्रात महिलांच्या प्रवेश करण्याच्या समकालीन आव्हानांचा परिणामस्वरूप घडले होते. त्याचप्रमाणे, मोठ्या आंतरराष्ट्रीय विमानतळावरील मिलिमीटर वेव्ह बॉडी स्कॅनर ‘ट्रान्स’ शरीर ओळखू शकत नाहीत, कारण या स्कॅनरमध्ये पुरुष अथवा स्त्री यांपैकी एक असे ओळखण्याची माहिती सादर केलेली असते, ज्यामुळे ट्रान्सजेन्डर व्यक्तींना आक्रमकरीत्या केल्या जाणाऱ्या अपमानास्पद सुरक्षा तपासणीस सामोरे जावे लागते. माहिती आणि अल्गोरिदमिक भेदभावाविषयक संभाषणांत पद्धतशीर सामाजिक संदर्भांवरील समस्या सामान्यतः आधी लक्षात घेतल्या जात नाहीत. असंतुलित माहितीसंग्रह जो उद्योगांद्वारे आधी संकलित केलेल्या माहितीतील पूर्व-विद्यमान पूर्वग्रह प्रकट करतात उदा. लोकप्रिय आकडेवारीनुसार महिलांना गंभीर दुखापत होण्याची शक्यता ४७ टक्के अधिक असते आणि अशा प्रकारच्या अपघातात महिला मृत्युमखी पडण्याची शक्यता १७ टक्के अधिक असते, कारण मोटारीला अपघात होण्याच्या चाचण्यांमध्ये सीटबेल्ट, एअरबॅग आणि हेडरेस्टची रचना पुरुषांच्या शरीराच्या व त्यांच्या बसण्याच्या स्थितीवर आधारित असते. महिलांचे स्तन अथवा गर्भार शरीर विचारात घेतले न गेल्याने महिला त्या मानक मोजमापात फिट बसत नाहीत. या शिवाय, वैद्यकीय चाचण्यांमध्ये गरोदर महिलांना, रजोनिवृत्तीला सामोरे जाणाऱ्या महिलांना आणि गर्भनिरोधक गोळ्या घेणाऱ्या महिलांना मोठ्या प्रमाणात वगळण्यात आले आहे. हृदयाचा व रक्तवाहिन्यासंबंधीचा रोग हा पुरुषाचा आजार मानला जात होता, तर नैराश्याच्या गर्तेत अडकलेल्यांच्या आकडेवारीत प्रामुख्याने महिला होत्या. या अटींतून माहिती संग्रहातील विद्यमान सामाजिक पूर्वग्रह दिसून येतो आणि कृत्रिम बुद्धिमत्तेच्या तात्काळ विकासाच्या संदर्भाच्या पलीकडे अधिक व्यवस्थेगत स्थिती अधोरेखित होते. हानींच्या या व्यापक स्वरूपामुळे त्यांची चुकीची ओळख होऊ शकते, म्हणजे कृत्रिम बुद्धिमत्ता विषयक प्रणालींच्या संस्थात्मकीकरणाद्वारे आणि एकत्रीकरणाद्वारे ग्राहकांना सामोऱ्या जाणाऱ्या व्यवसाय प्रक्रिया आणि सार्वजनिक प्रशासनाद्वारे त्यांची स्वीकृती. हे एकतर स्त्रीलिंगी म्हणून कोड केलेल्या पैलूंचे अवमूल्यन करून अथवा त्यांना कृत्रिम बुद्धिमत्ता विकास प्रक्रियेतून पूर्णपणे वगळून कायमस्वरूपी पुरुषकेंद्री नियमांचे बनवतात.

AI तत्त्वे मुख्य प्रवाहात आणणे

‘युनेस्को’ने आयोजित केलेल्या लैंगिक समानतेवरील आणि कृत्रिम बुद्धिमत्तावरील जागतिक चर्चासत्रात स्वतंत्र समस्या म्हणून लैंगिकतेवर लक्ष केंद्रित करणारी कृत्रिम बुद्धिमत्तेची मानक साधने अथवा तत्त्वे अपुरी असल्याचे अधोरेखित झाले. पुरस्कर्त्यांचे गट जागरूकता वाढवण्याचे काम करत असताना, तृतीय पक्षातर्फे  स्वतंत्रपणे केले जाणारे आंतरविभागीय मूल्यमापन आणि ऑडिट अजूनही कृत्रिम बुद्धिमत्ता संशोधन समुदायापुरते मर्यादित आहे आणि ग्राहकांना सामोरे जाणाऱ्या अॅप्लिकेशनसाठी स्वीकारले गेलेले नाही. व्यावसायिक कृत्रिम बुद्धिमत्ता कंपन्यांच्या माध्यमातून कृत्रिम बुद्धिमत्ता निष्पक्षतेकरता प्रयत्न वाढवीत आहेत, तरीही ते एकल ओळख गुणधर्मांवर लक्ष केंद्रित करतात, छेदनबिंदूंवर करत नाहीत. माहिती तयार करण्यापासून अल्गोरिदमिक रचना आणि प्रशासन विषयक कामांपर्यंत कृत्रिम बुद्धिमत्तेच्या अथपासून इतिपर्यंतच्या रचनेत, परिणामी निर्णय घेण्याच्या स्थानांवर महिलांचा सहभाग दिसून येत नाही. प्रस्तावित कृत्रिम बुद्धिमत्ता विषयक विधेयक जोखीम कमी करण्यासाठी योजना योजत असताना, हानीच्या व्याख्येभोवती, विशेषत: उच्च प्रभाव असलेली कृत्रिम बुद्धिमत्ता प्रणाली आणि वैयक्तिक व सामूहिक अधिकारांसारखे अनेक महत्त्वपूर्ण प्रश्न अनुत्तरित राहिले आहेत. लिंग-संवेदनशील कृत्रिम बुद्धिमत्ता विषयक धोरण, नियमन आणि कायदे यांवर मर्यादित जागतिक चर्चा होते. ते वाढविण्यासाठी आव्हानांतील संधींचे तपशीलवार विश्लेषण आणि भेदभावपूर्ण परिणाम समजून घेणे आवश्यक आहे. प्रक्रियेत अल्गोरिदमद्वारे तयार केलेले लिंगाधारित प्रभाव त्यांच्या अंतर्निहित अपारदर्शकतेमुळे अथवा त्यातील पारदर्शकतेच्या अभावामुळे कमी दृश्यमान आणि धूसर असतात. यामुळे महिला उमेदवारांना नोकरीसाठी वगळणे किंवा सांख्यिकीयदृष्ट्या महिलांना कमी पतपात्रतेशी जोडणे यांसारख्या भेदभावविरोधी कायद्यांचे थेट उल्लंघन झाल्यास, थेट लैंगिक प्रभाव दिसेपर्यंत बराच वेळ उलटून जातो. प्रस्तावित डिजिटल इंडिया कायद्याचे उद्दिष्ट कृत्रिम बुद्धिमत्ता नियमनासाठी जोखीम-आधारित दृष्टिकोन स्वीकारण्याचे आहे, लिंग-संवेदनशील आणि जबाबदार कृत्रिम बुद्धिमत्ता मानके विकसित करणे, त्यांच्या निवारणासाठी स्पष्ट उपाय आखीत, लिंग-आधारित जोखीम ओळखणे, तंत्रज्ञान विकासामध्ये लैंगिक अल्पसंख्याक असलेल्या महिलांच्या प्रतिनिधित्वास प्रोत्साहन देणे तसेच पूर्वग्रह शोधणे, मूल्यमापन पद्धतींचा समावेश करणे आणि ग्राहक व सार्वजनिक तंत्रज्ञानाकरता अशा परिणामांपर्यंत सार्वजनिक प्रवेश सुनिश्चित करणे, हे उपयुक्त ठरेल.

अनुलेखा नंदी या 'ऑब्झर्व्हर रिसर्च फाऊंडेशन'च्या फेलो आहेत.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.