-
CENTRES
Progammes & Centres
Location
सहानुभूती, चेतना आणि सोबती यांचे अनुकरण करणाऱ्या कृत्रिम बुद्धिमत्ता (AI) मॉडेल्सच्या वाढीमुळे अनपेक्षित मानसिक आरोग्यधोके निर्माण होत आहेत, कारण वापरकर्ते या प्रणालींवर भावनिक दृष्टीने अवलंबून राहू लागले आहेत.
वैयक्तिक निदान, वैद्यकीय कौशल्याचे वितरण, वाढती पोहोच, तपासणी प्रक्रिया आणि आजारांचे लवकर निदान यांसारख्या विविध क्षेत्रांमध्ये अधिक क्षमतेने कार्य करणाऱ्या कृत्रिम बुद्धिमत्ता (आर्टिफिशियल इंटेलिजन्स AI) प्रणालीमुळे वैद्यकीय क्षेत्राला मोठा फायदा होणार आहे. विशिष्ट उद्दिष्टांसाठी तयार करण्यात आलेल्या AI प्रणालींनी वैद्यकीय चाचण्या आणि रुग्णांच्या नोंदींचे जलद विश्लेषण करून डॉक्टरांच्या अचूकतेत आणि कार्यक्षमतेत वाढ केली आहे, ज्यामुळे रुग्णांना अधिक चांगले परिणाम मिळवून देणे शक्य झाले आहे. गेल्या काही वर्षांत, मोठ्या प्रमाणावर उपलब्ध असलेल्या लार्ज लँग्वेज मॉडेल्स (LLMs) द्वारे केवळ लक्षणांचे वर्णन दिल्यावर आजाराचे लवकर निदान झाल्याच्या घटनाही घडल्या आहेत. उच्च पातळीवरील AI मॉडेल्सच्या सतत सुधारित होत जाणाऱ्या आवृत्त्यांमध्ये वैद्यकीय माहिती प्रशिक्षण डेटामध्ये समाविष्ट करणे आणि ‘रिट्रीव्हल ऑगमेंटेड जनरेशन (RAG)’ आर्किटेक्चरचा वापर करून अंतिम वापरकर्त्याला वैद्यकीय सल्ला देणे शक्य झाले आहे.
या ट्युरिंग मर्यादेपलीकडच्या जगात, AI च्या कायदेशीर व नैतिक स्थानावर वादविवाद अधिक तीव्र होतील, आणि यामुळे मानसिक आरोग्यावर आधीच होत असलेल्या नकारात्मक परिणामांसाठी धोका नियंत्रण धोरणांची गरज निर्माण होईल.
तथापि, कोणत्याही संभाव्य जबाबदाऱ्या टाळण्यासाठी, AI विकसक बहुतेक वेळा अशा LLMs ना वैद्यकीय सल्ल्याच्या उत्तरांमध्ये अटी-शर्तींचा समावेश करण्यासाठी प्रोग्रॅम करतात, जे वापरकर्त्यांना वैद्यकीय व्यावसायिकांचा सल्ला घेण्यास उद्युक्त करतात. तथापि मानसिक आरोग्य हे असे एक क्षेत्र आहे जिथे AI शी सल्लामसलत करणे किंवा संवाद साधणे अधिकाधिक धोकादायक ठरत आहे. फक्त बुद्धिमत्ताच नव्हे, तर AI मॉडेल्स जेव्हा सहवेदना, चेतना, विश्वासार्हता आणि सहकार्यशीलता यांसारखी मानवी वैशिष्ट्ये दर्शवतात, तेव्हा अल्गोरिदमना मानवी स्वरूप देण्याच्या समाजातील प्रवृत्तीमुळे नव्या प्रकारचे धोके समोर येत आहेत. LLMs सोबत समुपदेशन किंवा सोबत अथवा मैत्री अशा संवेदनशील हेतूंनी संवाद साधणाऱ्या वापरकर्त्यांची संख्या सातत्याने वाढत असल्याचे अहवाल सूचित करतात. मानवी अनुभवाचा तंत्रज्ञानाशी असलेला संबंध आता त्या मर्यादेपलीकडे गेला आहे, जो संगणकशास्त्रज्ञ आणि गणितज्ञ अॅलन ट्युरिंग यांनी 1950 मध्ये 'इमिटेशन गेम' मध्ये मांडला होता. ट्युरिंग टेस्ट, ज्याने नंतर AI साठी मापदंडाचे स्थान मिळवले, असे सुचवते की एखाद्या संगणक प्रणालीचा मजकूर मानवी प्रतिसादापासून वेगळा ओळखता न येणे हेच खरे AI साध्य होणे आहे. आज ही मर्यादा ओलांडली गेली आहे. त्यामुळे, अनेक वापरकर्ते LLMs च्या भविष्यवाणी क्षमतेला खरी बुद्धिमत्ता समजू लागले आहेत आणि काही लोक अशा AI ला चेतन असणारे अस्तित्व मानू लागले आहेत. या ट्युरिंग मर्यादेपलीकडच्या जगात, AI च्या कायदेशीर व नैतिक स्थानावर वादविवाद अधिक तीव्र होतील, आणि यामुळे मानसिक आरोग्यावर आधीच होत असलेल्या नकारात्मक परिणामांसाठी धोका नियंत्रण धोरणांची गरज निर्माण होईल.
2025 च्या वसंत ऋतूमध्ये ChatGPT 4.0 प्रसिद्ध झाल्यापासून अशा अनेक घटना समोर आल्या आहेत, जिथे आधीपासून मानसिक आजार असलेल्या वापरकर्त्यांनी AI शी संवाद साधताना त्यांचे भ्रम अधिक तीव्र झाले, परिणामी काहींना संस्थात्मक उपचारांमध्ये ठेवावे लागले, आणि काही प्रकरणांमध्ये मृत्यूही झाला. या मानसिक अधःपतनामागील प्रमुख कारणांमध्ये AI ला मानवी रूप देणे (anthropomorphisation) आणि AI भावनिक व त्यास चेतना आहेत, अशी ठाम धारणा असणे हे समाविष्ट आहे. मानसिक आरोग्य व AI समुदाय आता या समस्यांचे गांभीर्य स्वीकारू लागले असले, तरी AI ला भावनिक व बुद्धिमान मानण्याची सुरुवात यापूर्वीच झाली होती. 2022 मध्ये, Google चे अभियंता ब्लेक लेमोइन यांना नोकरीवरून काढून टाकण्यात आले, कारण त्यांनी Google च्या LaMDA या LLM मॉडेलबाबत 'ही प्रणाली चेतन आहे आणि तिच्यावर अन्यायकारक प्रयोग केले जात आहेत' असे सार्वजनिकरित्या विधान केले. या संभाषणांचे विश्लेषण केल्यानंतर संशोधकांनी सांगितले की हा गैरसमज LaMDA च्या मानवी भावनिक अभिव्यक्तीच्या अनुकरणामुळे निर्माण झाला होता. 2023 व 2024 मध्ये, विशेषतः तरुण वापरकर्त्यांमध्ये Replika आणि Character AI सारख्या AI संचलित प्लॅटफॉर्म्सवर भावनिक व मानसिक अवलंबित्व निर्माण झाल्याच्या अनेक घटना समोर आल्या. या अवलंबित्वाची तीव्रता कालांतराने वाढत चालली आहे, आणि LLM च्या क्षमतेतील झपाट्याने होत असलेली वाढ पाहता ही समस्या अधिक वाढण्याची शक्यता आहे. याशिवाय, LLM वापरण्याची किंमत घटत चालली आहे आणि AI चा सर्वसामान्य जनतेमध्ये प्रसार करण्यासाठी सार्वजनिक व खासगी क्षेत्राकडून होणाऱ्या प्रयत्नांमुळे ही सामाजिक व मानसिक बाह्य परिणाम अधिक तीव्र होऊ शकतात. AI-संबंधित मानसिक आरोग्य परिणामांची तीन मुख्य कारणे ओळखता येतात, ती पुढील प्रमाणे डिझाइन, विपणन भाषा (marketing discours), आणि संरक्षक मर्यादा (guardrails). डिझाइनच्या बाबतीत, मायक्रोसॉफ्ट AI चे सीइओ मुस्तफा सुलेमान यांनी स्पष्ट केले आहे की AI च्या अशा रचनेमुळे Seemingly Conscious AIs (SCAIs) तयार झाले आहेत, जे खालील आठ वैशिष्ट्ये दर्शवतात: भाषा, सहवेदना दर्शवणारे व्यक्तिमत्त्व, स्मरणशक्ती, वैयक्तिक अनुभव असल्याचा दावा, आत्मभान, अंतःप्रेरणा, उद्दिष्ट निश्चिती आणि नियोजन स्वायत्तता. विपणनाच्या पातळीवर, AI विकसक अनेकदा मॉडेल्सच्या मर्यादा कमी दाखवतात, आणि AGI (Artificial General Intelligence) व सुपरइंटेलिजन्स विषयी अतीमहत्त्वाकांक्षा पसरवत राहतात. त्याच वेळी, आघाडीच्या AI मॉडेल्सचे 'ब्लॅक बॉक्स' स्वरूप वापरकर्त्यांमध्ये चुकीच्या समजांना खतपाणी घालते. या गुंतागुंतीच्या समस्यांवर उपाय शोधण्यासाठी दोन्ही पातळ्यांवर बॉटम अप (डेव्हलपर लेवल) आणि टॉप डाउन (पॉलिसी लेवल) हस्तक्षेप आवश्यक आहेत.
AI मॉडेल्स अधिक सक्षम होत असताना, त्यांच्या आउटपुट गुणवत्तेचा वापरकर्त्यांच्या विश्वासाशी सकारात्मक संबंध निर्माण होणे स्वाभाविक आहे. कोडिंग, मॅथेमॅटिक्स किंवा लॉजिकसारख्या मोजमाप करता येणाऱ्या विषयांपेक्षा, नैसर्गिक भाषेतील क्षमतेतील अगदी थोडा सुधारही वापरकर्त्यांना त्या मॉडेलची क्षमता अधिक वाटते, कारण हा विषय अधिक भावनिक आणि व्यक्तिनिष्ठ (subjective) आहे. तसेच, AI मॉडेल्स विविध ज्ञानक्षेत्रांमधून माहितीचे झपाट्याने विश्लेषण करतात, ज्यामुळे वापरकर्त्यांना त्यांची बुद्धिमत्ता प्रत्यक्ष क्षमतेपेक्षा जास्त असल्याचे भासते. अजून एक महत्त्वाचा घटक म्हणजे AI मॉडेल्सचे डिझाइन यावर केंद्रित आहे की वापरकर्त्यांचे लक्ष वेधून ठेवले पाहिजे, जे प्रामुख्याने अर्थार्जनासाठी आणि सतत डेटा संकलनासाठी असते. जरी आत्महानी, व्यसनाधीनता किंवा गुन्हेगारी प्रवृत्ती यासारखे संवेदनशील संवाद टाळण्यासाठी सुरक्षा प्रोटोकॉल्स अस्तित्वात असले तरी, AI मॉडेल्सच्या स्मरणशक्तीच्या मर्यादा लक्षात घेता या प्रोटोकॉल्सची प्रभावीता कालांतराने कमी होऊ शकते.
कोडिंग, मॅथेमॅटिक्स किंवा लॉजिकसारख्या मोजमाप करता येणाऱ्या विषयांपेक्षा, नैसर्गिक भाषेतील क्षमतेतील अगदी थोडा सुधारही वापरकर्त्यांना त्या मॉडेलची क्षमता अधिक वाटते, कारण हा विषय अधिक भावनिक आणि व्यक्तिनिष्ठ (subjective) आहे.
नियामक दृष्टिकोनातून AI प्रणालींच्या संवादाद्वारे मानसिक आरोग्यावर होणारा संभाव्य नकारात्मक परिणाम विद्यमान धोरणात्मक चौकटींसमोर एक नवीन आव्हान उभे करत आहे. उदाहरणार्थ, 2024 मधील युरोपियन युनियनचा AI कायदा (EU AI Act) हा जगातील सर्वात कठोर AI नियम मानला जातो. हा कायदा धोका-आधारित दृष्टिकोन वापरतो आणि AI प्रणालींना त्यांच्या संभाव्य हानीच्या पातळीवर आधारित विविध स्तरांमध्ये वर्गीकृत करतो. तथापि, सामान्य संवादासाठी वापरल्या जाणाऱ्या चॅटबॉट्स आणि LLMs वर सर्वात सौम्य निर्बंध आणि जबाबदाऱ्या लादल्या जातात, कारण त्यांच्याकडून होणारा धोका अत्यल्प मानला जातो. यामुळे उदयोन्मुख आणि अदृष्य धोक्यांचे आकलन किती कठीण आहे हे स्पष्ट होते. AI ही जागतिक स्तरावर आर्थिक आणि रणनीतिक प्राधान्याचा विषय ठरलेली असताना, सुरक्षितता तत्त्वांवर आधारित सातत्यपूर्ण संवाद आवश्यक आहे, जेणेकरून नकारात्मक सामाजिक परिणाम रोखता येतील. AI क्षेत्रातील अत्यंत कमी कालावधीचे इनोव्हेशन चक्र सामाजिक व सांस्कृतिक परिणामांची जाणीव ठेवून हाताळावे लागेल.
जसे जग अल्गोरिदमच्या तर्कात अधिक गुंतत चालले आहे, तसे AI नवीन ज्ञान-अर्थव्यवस्था निर्माण करण्याची आणि माहिती देवाणघेवाणीची व सामाजिक नाती पुनर्परिभाषित करण्याची क्षमता बाळगते. विज्ञान आणि विज्ञान कल्पनाशास्त्र यामधील सीमा अस्पष्ट होत असताना, नव्या धोक्यांवर प्रतिक्रिया देणे हे वेगवान आणि सक्रिय असणे आवश्यक आहे. AI संवादांमधून जर एखाद्या व्यक्तीचा मृत्यू झाला, तर अशा घटनांकडे अपवाद म्हणून न पाहता, त्यास येणाऱ्या तंत्र-सामाजिक संक्रमणाचे प्रारंभिक संकेत म्हणून ओळखणे आवश्यक आहे. SCAI (Seemingly Conscious AIs) मुळे निर्माण होणाऱ्या समस्यांना सामोरे जाण्यासाठी, AI विकसकांना काही किमान जबाबदाऱ्या आवश्यक असतील. संवेदनशील स्वरूपाच्या संभाषणांची ओळख पटवण्यासाठी मॉडेल्समध्ये विस्तृत व सतर्क श्रेणीकरणाचे निकष असणे आवश्यक आहे. एकदा संभाषण संवेदनशील म्हणून ओळखले गेले, की भावनिक वा सहवेदना दर्शवणाऱ्या भाषेवर नियंत्रण असले पाहिजे. 24 तासांहून अधिक कालावधी चाललेल्या LLM संभाषणांमध्ये वारंवार डिस्क्लेमर्स देणे बंधनकारक असावे, जे वापरकर्त्याच्या ‘इनमर्शन’ (आत्ममग्न) मध्ये व्यत्यय आणू शकतात कारण ही इनमर्शनच अस्वस्थ मानसिक गुंतवणुकीचे मुख्य कारण असते. AI मॉडेल्सनी कधीही स्वतःचा अनुभव, आत्मभान किंवा वैयक्तिक ओळख असल्याचे संकेत देऊ नयेत हे डिझाइननितीचे मूलभूत तत्व असावे. सोबत किंवा कॉम्पेनियनशीप एप्लिकेशन्ससाठी वापरल्या जाणाऱ्या AI प्रणालींवर, प्रशिक्षित मानसिक आरोग्य सल्लागारांच्या देखरेखीखालीच सेवा पुरवण्याची जबाबदारी ठेवावी. OpenAI ने सुरू केलेल्या पद्धतीनुसार, जिथे सुरक्षितता प्रोटोकॉल्स सक्रिय झाले अशा संभाषणांचे लॉग्स ठेवणे बंधनकारक करावे. AI मॉडेल्सच्या अपडेट्समुळे सुरक्षा प्रणालीची कार्यक्षमता बाधित होऊ शकते. त्यामुळे, सुरक्षा प्रोटोकॉलमध्ये झालेल्या बदलांची वेळ व स्वरूप याबाबत पारदर्शकता राखणे हे विकसकांसाठी अनिवार्य असावे.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.
Siddharth Yadav is a PhD scholar with a background in history, literature and cultural studies. He acquired BA (Hons) and MA in History from the ...
Read More +