Author : Kiran Yellupula

Published on Sep 21, 2023 Commentaries 0 Hours ago

पुरेशा सुरक्षा उपाय न केल्यास AI वर वाढत्या अवलंबित्वाचा विपरीत परिणाम होऊ शकतो.

ChatGPT तुमच्या प्रश्नांची उत्तरे नाही देणार

प्रायोगिक असताना, ChatGPT सारखे आर्टिफिशियल इंटेलिजेंस चॅटबॉट्स, आकर्षक, उपयुक्त, विनामूल्य साधनांसारखे दिसतात जे वापरकर्त्यांनी दिलेल्या सूचनांवर आधारित सर्व प्रश्नांची त्वरित उत्तरे देतात, यामुळे गंभीर सुरक्षा धोके निर्माण होतात ज्याचे कायदेशीर नियम संबोधित करत नाहीत. ते आपल्या कामाच्या, जगण्याच्या आणि राष्ट्र म्हणून विकसित होण्याच्या पद्धतीत व्यत्यय आणत आहेत. आवश्यक सुरक्षा उपाय न ठेवता अशा राष्ट्रीय सुरक्षेच्या धोक्यांसाठी आपण तयार आहोत का?

AI ने एक नवीन आघाडी उघडली

आर्टिफिशियल इंटेलिजन्स (एआय) शस्त्रास्त्रांची शर्यत आपले जीवन विस्कळीत करत आहे. तंत्रज्ञानातील एक नमुना बदल मनुष्य, यंत्र आणि राष्ट्रांमधील वर्चस्वासाठीच्या लढाईला उत्तेजन देतो. तर, माणूस असणे म्हणजे काय? यंत्रे विचार करू शकतात? यंत्रे मानवी सर्जनशीलतेवर मात करू शकतात का? AI मानवांसाठी अस्तित्वात असलेला धोका आहे का? AI वर वाढत्या अवलंबित्वामुळे तुमचा मेंदू वेस्टिजीयल होईल का? कोणालाच खरे उत्तरे माहीत नाहीत. आणि, काही लोक ज्यांना उत्तरे माहित असतील ते शेअर करणार नाहीत, कारण दावे खूप जास्त आहेत.

OpenAI च्या ChatGPT, Microsoft आणि Google’s Bard द्वारे समर्थित, प्रायोगिक, संभाषणात्मक, AI चॅट सेवा आहेत ज्या तुमच्या ‘प्रश्नांची’ उत्तरे देण्यासाठी ऑनलाइन माहिती वापरतात.

आकलन, आकलनशक्ती आणि निर्णयक्षमतेने संपन्न असलेल्या AI प्रणालीच्या आगमनाने, AI अनुप्रयोग स्तर वाढत्या प्रमाणात विशाल झाला आहे, ज्याचा आपल्या जीवनावर खोलवर परिणाम होत आहे. उदाहरणार्थ, Microsoft आणि Google च्या Bard द्वारे समर्थित OpenAI च्या ChatGPT या प्रायोगिक, संभाषणात्मक, AI चॅट सेवा आहेत ज्या तुमच्या ‘प्रश्नांची’ उत्तरे देण्यासाठी ऑनलाइन माहिती वापरतात. परंतु प्रश्न विचारणे म्हणजे एआय बॉट्सना वैयक्तिक डेटा प्रदान करणे.

जागतिक प्रयोगांचे अनियंत्रित धोके

कार्यात्मकदृष्ट्या एक प्रगत शोध, या AI सिस्टम्स विषयांच्या स्पष्ट संमतीशिवाय, AI बॉट्सद्वारे चालवलेले प्रचंड जागतिक AI प्रयोग आहेत. अशा प्रायोगिक संशोधनाचे उद्दिष्ट हे आहे की AI ला मानवतेच्या फायद्यासाठी प्रगत करण्याचा दावा करताना नफ्यासाठी उत्पादने परिष्कृत करण्यासाठी वापरकर्त्याच्या डेटावर मुक्तपणे भरभराट करणे. प्रसिद्ध भाषाशास्त्रज्ञ नोम चॉम्स्की म्हणतात, “एआय लोकांच्या स्वतंत्र विचार आणि निर्मितीच्या क्षमतेवर लक्षणीय परिणाम करू शकते.”

तुमचे प्रश्न आणि इनपुट हे बॉट्स परिष्कृत करण्यासाठी ‘प्रशिक्षण डेटा’ म्हणून वापरले जातात आणि वैयक्तिक आउटपुट सामूहिक बुद्धिमत्तेचा भाग बनतात. मानवतेच्या फायद्यासाठी वचनबद्ध असलेल्या जबाबदार कंपनीने लोकांसाठी अपूर्ण तंत्रज्ञान जारी केले नसते, ज्यात जोखीम असते, मग ती गोपनीयता घुसखोरी, साहित्यिक चोरी, स्पष्टीकरण न देणे, अल्गोरिदमिक पूर्वाग्रह किंवा सामाजिक माहिती-इकोसिस्टमची हानी असो.

समस्या अशी आहे की AI कंपन्या म्हणतात की मानवता संभाव्य डरावनी एआयपासून दूर नाही, तरीही ते नियम लागू होण्यापूर्वीच एआय तंत्रज्ञान सार्वजनिकपणे सोडतात. हे आपल्या जीवनावर आणि समाजावर नियंत्रण मिळवण्यासाठी काही बिग टेक कंपन्यांना दरवाजे उघडतील. अशा प्रकारे, नफ्यासाठी AI वापरणाऱ्या कॉर्पोरेट्सपासून लोकांना संरक्षण देण्याची गरज आहे, कोणतीही जबाबदारी नाही. कर्मचारी संवेदनशील व्यवसाय डेटा AI-चालित ChatGPT मध्ये प्रशिक्षण डेटा म्हणून फीड करत आहेत, ज्यामुळे वाढत्या सुरक्षेची चिंता आणि मालकीची माहिती किंवा व्यापार रहस्ये लीक होण्याचा धोका निर्माण होतो—रणनीती, दृष्टिकोन, व्यवसाय मॉडेल आणि तंत्रज्ञान यामध्ये गोपनीय माहिती असते. गोपनीयतेमुळे, Amazon, Walmart, JPMorgan, Verizon, Goldman Sachs आणि KPMG सह अनेक कंपन्या कर्मचार्‍यांद्वारे ChatGPT वापरण्यावर अंकुश ठेवत आहेत आणि सुरक्षित मार्गांचे मूल्यांकन करत आहेत. न्यूयॉर्कपासून चीनपर्यंत, शाळा, महाविद्यालये, विद्यापीठे आणि नियामक गंभीर सुरक्षा भीतीमुळे ChatGPT वर बंदी घालत आहेत. अमेरिकेच्या फेडरल ट्रेड कमिशनने सिलिकॉन व्हॅलीला खोट्या AI दाव्यांच्या विरोधात चेतावणी दिली आहे, AI साधनांच्या वापरामध्ये सत्य, निष्पक्षता, समानतेचा आग्रह केला आहे.

कर्मचारी संवेदनशील व्यवसाय डेटा AI-चालित ChatGPT मध्ये प्रशिक्षण डेटा म्हणून फीड करत आहेत, ज्यामुळे वाढत्या सुरक्षेची चिंता आणि मालकीची माहिती किंवा व्यापार रहस्ये लीक होण्याचा धोका निर्माण होतो—रणनीती, दृष्टिकोन, व्यवसाय मॉडेल आणि तंत्रज्ञान यामध्ये गोपनीय माहिती असते.

भारताने या धोक्याला जागून आताच कृती करण्याची गरज आहे. लोकांसमोरील खरे आव्हान हे AI प्रणालीद्वारे वापरल्या जाणार्‍या डेटाची ‘अखंडता’ आणि त्याची अचूकता, विश्वासार्हता आणि सातत्य आहे. अधिक म्हणजे, विद्यमान मानवी पूर्वाग्रह खूप वेळा AI मध्ये हस्तांतरित केला जातो. आणि, नवीनतम AI बॉट्स आपल्या बुद्धिमत्तेची नक्कल करण्यासाठी “बरेच डेटा” ऍक्सेस केल्यावर ते कसे वापरले जातील हे उघड न करता चांगले कार्य करतात. डेटा लेबलिंग, नेटवर्क पोर्टेबिलिटी, डेटा पोर्टेबिलिटी आणि डेटाची इंटरऑपरेबिलिटी आम्हाला AI-शक्तीवर चालणारी प्रणाली नियंत्रित करण्यात मदत करेल.

चला विचारू: ChatGPT द्वारे व्युत्पन्न केलेली सामग्री कोणाच्या मालकीची आहे? सामग्रीसह मालक काय करू शकतो? हे कॉपीराइटचे उल्लंघन करते का? हे “उघडपणे” चोरीचे आहे का? व्युत्पन्न सामग्री कॉपीराइट असू शकते? सामग्री बौद्धिक संपदा हक्क आणि गोपनीयतेचे उल्लंघन करते का? प्लॅटफॉर्म किंवा मालक जोखमीसाठी जबाबदार असतील का?

कठोर AI नियमांची गरज

वरील प्रश्नांच्या मर्यादा, डिझाइननुसार, काही निवडक लोकांना फायदा होण्यासाठी AI च्या उत्क्रांतीला चालना देण्यासाठी आहेत. EU इंडस्ट्री चीफ यांनी AI नियम कठोर करण्याची मागणी केली आहे. अगदी OpenAI चे संस्थापक, सॅम ऑल्टमन, सध्या कोणत्याही महत्त्वाच्या गोष्टींसाठी चॅटबॉट्सवर अवलंबून असल्याचे सांगतात. निर्देशाकडे मोठ्या प्रमाणात दुर्लक्ष केले गेले आहे, ज्यामुळे अनपेक्षित परिणाम होऊ शकतात.

टेक न्यूज साइट CNET ने लेख लिहिण्यासाठी AI चा वापर केला ज्यात गंभीर त्रुटी आढळून आल्या आणि त्याचे प्रकाशन खोळंबले. टेक पब्लिकेशन WIRED नवीन मथळे किंवा छोट्या सोशल मीडिया पोस्ट्ससाठी मजकूर, मंथन कथा कल्पना किंवा शोध इंजिनाप्रमाणे AI वापरणे याशिवाय, AI द्वारे व्युत्पन्न किंवा संपादित केलेल्या मजकूरासह कथा प्रकाशित करत नाही. विशेष म्हणजे, AI द्वारे व्युत्पन्न केलेल्या मजकूरासह कथा प्रकाशित न करण्याचे वचन दिले आहे, लहान सोशल मीडिया पोस्टसाठी मथळे किंवा मजकूर, कथा कल्पना किंवा शोध इंजिनप्रमाणे वापरणे याशिवाय.

AI अयशस्वी होण्यामध्ये उच्च प्रतिष्ठेची जोखीम देखील असते. घटनांमध्ये वाढ होण्याची शक्यता असल्याने, ‘डेटा क्रिप, स्कोप क्रिप आणि बायस्ड ट्रेनिंग डेटाचा वापर’ रोखणे एआयला अधिक जबाबदार बनवेल. AI स्टेकहोल्डर्स, पॉलिसी बनवणारा समुदाय आणि सरकारने मशीन-व्युत्पन्न चुकीची माहिती रोखण्यासाठी सामाजिक नियम, सार्वजनिक धोरण आणि शैक्षणिक उपक्रम तयार करण्यासाठी गुंतवणूक केली पाहिजे. शमन करण्यासाठी संपूर्ण पारिस्थितिक तंत्रात प्रभावी धोरण आणि भागीदारीची आवश्यकता असेल.

AI स्टेकहोल्डर्स, पॉलिसी बनवणारा समुदाय आणि सरकारने मशीन-व्युत्पन्न चुकीची माहिती रोखण्यासाठी सामाजिक नियम, सार्वजनिक धोरण आणि शैक्षणिक उपक्रम तयार करण्यासाठी गुंतवणूक केली पाहिजे.

संशोधन AI वर जास्त अवलंबून असल्याचे सूचित करते, जे जनरेटिव्ह AI ला स्मार्ट बनण्यास मदत करू शकते, परंतु मानव त्यांचे अनन्य ज्ञान आणि विचारांची विविधता गमावून मूर्ख बनतात. जेव्हा मानव AI आउटपुटची नक्कल करू लागतात आणि त्यांच्या मेंदूवर कर लावणे थांबवतात, तेव्हा ते थोड्याशा अनोख्या ज्ञानाने विचार करण्याची त्यांची क्षमता कमी करू शकते, ज्यामुळे नवकल्पनांसाठी हानिकारक सामूहिक कार्यक्षमतेचे उपोत्तम होऊ शकते. मानवी निवडी समान प्रतिसादांकडे एकत्रित झाल्यामुळे, मानवी अचूकता वाढते परंतु अद्वितीय मानवी समज कमी होते.

AI शस्त्रास्त्रांची शर्यत तीव्र होत असताना, भारताला R&D मध्ये अधिक गुंतवणूक करण्याची आणि गोपनीयता, सुरक्षितता आणि अनपेक्षित परिणामांचे संरक्षण करण्यासाठी AI प्रणाली प्रशासन, जबाबदारी आणि उत्तरदायित्व यावर झपाट्याने काम करणे आवश्यक आहे. देशातील कोणतेही कायदे AI ला मानवी हक्कांचे उल्लंघन करण्यापासून किंवा संमतीशिवाय मानवी मेंदूला स्कूप करण्यापासून रोखत नाहीत कारण तंत्रज्ञान स्वतःला परिष्कृत करत आहे.

अल्गोरिदमला भावना नसतात. तरीही, कार्यक्रम ज्या प्रकारे ‘स्वतःला प्रशिक्षित करतो’, त्याप्रमाणे AI त्याचे नियुक्त परिणाम जास्तीत जास्त करून सामाजिक पूर्वाग्रह आणि पूर्वग्रहांना बळकटी देऊ शकते. आपले भविष्य घडवण्यासाठी आपण AI ची कशी कल्पना करतो हे मानवांनी स्पष्ट असले पाहिजे: नकारात्मक बाह्यता निर्माण करताना AI ने संकुचित उद्दिष्टे वाढवावीत अशी आपली इच्छा आहे का? किंवा, स्मार्ट ग्रह विकसित करण्यासाठी AI ला प्रशिक्षण देणे (हानीकारक पूर्वाग्रह दूर करणे)?

AI वर आत्मनिर्भरता वाढत आहे

G7 द्वारे तयार करण्यात आलेल्या आर्टिफिशियल इंटेलिजन्स (GPAI) वरील ग्लोबल पार्टनरशिपचा भाग असल्याने, भारताने सहयोगी संशोधनात मूळ असलेल्या AI च्या आसपास डेटा गव्हर्नन्स, सुरक्षितता आणि विश्वास यासाठी समन्यायी नियमांचे पालन केले पाहिजे आणि मानवी हक्कांना प्रोत्साहन देणारी जागतिक उत्कृष्ट केंद्रे (COEs) स्थापन केली पाहिजेत, समावेश, विविधता, नावीन्य आणि वाढ. विशेष म्हणजे, चीन अमेरिकेच्या नेतृत्वाखालील जीपीएआयपासून दूर आहे, परंतु 2030 पर्यंत जागतिक एआय नेतृत्वाकडे लक्ष देत आहे. मेक एआय इन इंडिया आणि मेक एआय सारख्या उपक्रमांचा भारतासाठी मर्यादित परिणाम होईल जोपर्यंत ते राष्ट्र ज्यांच्याशी काम करू इच्छिते त्या व्यापारात संतुलन राखत नाही. विश्वासार्ह भागीदार किंवा चीनसारखे स्वावलंबन विकसित करण्यासाठी धाडसी पावले उचलतात.

चॅटजीपीटीला शक्ती देणारी तंत्रज्ञाने भू-राजकीय साधनांचा विस्तार करू शकतात जसे की प्रचार, सायबर हल्ला, सिंथेटिक जीवशास्त्र किंवा स्वायत्त-लढाऊ जेट जे प्रचंड आर्थिक फायदा देतात.

GCHQ, जागतिक सायबर सुरक्षा एजन्सी, चेतावणी देते की ChatGPT आणि प्रतिस्पर्धी चॅटबॉट्स सुरक्षिततेसाठी धोके आहेत. चॅटजीपीटीला शक्ती देणारी तंत्रज्ञाने भू-राजकीय साधनांचा विस्तार करू शकतात जसे की प्रचार, सायबर हल्ला, सिंथेटिक जीवशास्त्र किंवा स्वायत्त-लढाऊ जेट जे प्रचंड आर्थिक फायदा देतात. लोकांच्या जीवनात AI चा विस्तार उपयुक्त मार्गांनी होत असल्याने, या प्रणालींमुळे व्यक्तींच्या निवडींवर नियंत्रण ठेवण्याची क्षमता कमी होऊ शकते. तरीही, एआय नियंत्रणात न ठेवल्यास, आम्ही ऑर्वेलियन भविष्याची अपेक्षा करू शकतो. फेडरल ट्रेड कमिशनने चेतावणी दिल्याप्रमाणे, धोरणकर्त्यांनी AI वापरताना सावधगिरी बाळगणे आवश्यक आहे

तर, मानव स्वतःला भविष्याचा पुरावा कसा देऊ शकतो? एआय हे फक्त एक साधन आहे आणि मानवजातीची व्याख्या करू नये. आम्हाला अजूनही विचार, कुतूहल, अनुकूलता, सहानुभूती, निर्णय, सर्जनशीलता आणि या तंत्रज्ञानाची देखरेख, निराकरण आणि तयार करणारी कौशल्ये आवश्यक आहेत. AI सह जगणे म्हणजे योग्य प्रश्न विचारणे, प्रश्नांची उत्तरे विचारणे आणि तुम्ही आउटपुट का स्वीकारता हे स्पष्ट करण्यास शिकणे.

हे लेखकाचे वैयक्तिक विचार आहेत

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.

Author

Kiran Yellupula

Kiran Yellupula

Kiran has over two decades of leadership experience in managing strategic communications for IBM Accenture Visa Infosys and JLL. He has also worked as an ...

Read More +