-
CENTRES
Progammes & Centres
Location
नागरिकांच्या नागरी आणि राजकीय सहभागामध्ये ऑनलाईन प्लॅटफॉर्म इतके खोलवर जोडलेले आहेत की असे म्हटले जाऊ शकते की आपले सामूहिक जीवन अल्गोरिदमद्वारे क्युरेट केले जात आहे आणि परिभाषित केले जात आहे. सुरुवातीला सोशल मीडियाला आदर्श सार्वजनिक मंच म्हणून गौरवण्यात आले, परंतु नंतर त्याचे अंधारमय रूप समोर आले.
Image Source: Getty
2019 मध्ये, युनायटेड किंगडमच्या (यू. के.) डिजिटल, कल्चर, मीडिया आणि स्पोर्ट कमिटीने फेसबुक आणि केंब्रिज ॲनालिटिका घोटाळ्यावर आपले लक्ष केंद्रित करत, चुकीची माहिती आणि 'बनावट बातम्यांच्या' दीर्घ चौकशीत आपला अंतिम अहवाल प्रसिद्ध केला. या अहवालात असे सांगण्यात आले की राजकीय जाहिरातींच्या उद्दिष्टित वितरणासाठी वापरल्या जाणाऱ्या अल्गोरिदम आधारित यंत्रणा आणि माहितीच्या खोट्या प्रचार मोहिमा बहुधा परकीय राष्ट्रांनी चालवलेल्या असतात आणि यामागील व्यावसायिक पद्धती पारदर्शक नसतात. या 18 महिन्यांच्या चौकशीत असेही आढळले की या कंपन्यांनी मिळवलेल्या बाजारातील वर्चस्वामुळे त्या स्थानिक कायदे आणि वापरकर्त्यांचे संरक्षण यांना बगल देणारे व्यवसाय मॉडेल्स चालवू शकतात. याच वेळी, ही व्यावसायिक यंत्रणा आणि अल्गोरिदम यांना एकत्रित वापरून काही व्यक्तींना लक्ष बनवणे, त्यांना ठरावीक माहिती दाखवून त्यांच्या मनात एकांगी विचार तयार करणे, आणि त्यातून तयार होणाऱ्या ‘इको चेंबर्स’ किंवा ‘फिल्टर बबल्स’ जे समाजात मतभेद निर्माण करतात. यामुळे अनेक वेळा अशा लोकांचे विचार अधिक टोकदार होतात, आणि इंटरनेटवरची द्वेषमूलक भाषा प्रत्यक्ष हिंसाचारात परिवर्तित होते, जी थेट मानवी जीवन आणि राष्ट्रीय सुरक्षेला धोका निर्माण करते.
खरं सांगायचं तर, सोशल मीडियाने इतकी गंभीर हानी पोचवण्याआधी, जगभरात डिजिटलायझेशनच्या जलद गतीने झालेल्या वाढीचे, माहिती व संवाद तंत्रज्ञानाच्या प्रगतीचे, आणि सोशल मीडियाच्या उदयाचे स्वागत करण्यात आले होते. त्याकाळात हे बदल ‘इतिहास घडवणारे’ म्हणून ओळखले जात होते. सोशल मीडियाला लोकशाहीतील चर्चेचा, संवादाचा, आणि जनसामान्यांसाठी खुले मंच म्हणून पाहिले गेले. आजही, या माध्यमांद्वारे सामान्य लोकांना सामाजिक आणि राजकीय सहभाग मिळतो, हे खरे आहे.
चीनसारख्या राजकीयदृष्ट्या केंद्रीकृत देशांच्या तुलनेत, लोकशाही देशांमध्ये अभिव्यक्ती स्वातंत्र्य हे नागरिकांचे मूलभूत मानवाधिकार मानले जाते. मात्र या स्वातंत्र्यावर काही प्रमाणात 'वाजवी मर्यादा' घालण्यात येतात. अमेरिकेसारख्या देशातही, जिथे अभिव्यक्ती स्वातंत्र्याला सर्वाधिक संरक्षण आहे, तिथेही काही मर्यादा असतात. जागतिक पातळीवर युनिव्हर्सल डिक्लरेशन ऑफ ह्युमन राइट्स आणि आंतरराष्ट्रीय नागरी आणि राजकीय हक्क करारांतर्गतही हे लागू आहे. या वाजवी मर्यादांमध्ये बेकायदेशीर व अपायकारक कृत्ये, हिंसाचारास उचकवणारी विधाने, राष्ट्राची सार्वभौमत्व व सुरक्षितता धोक्यात आणणारी माहिती, आणि सार्वजनिक सुव्यवस्था बिघडवणाऱ्या कृती यांचा समावेश होतो.
2016 मध्ये अमेरिकेतील निवडणुकीत सोशल मीडियाचा वापर परकीय शक्तींनी हस्तक्षेपासाठी केला होता. मात्र त्याआधीपासूनच सोशल मीडिया या प्रकारच्या अनेक अपायकारक गोष्टींशी संबंधित होते. उदा. युद्धग्रस्त भागांमध्ये माहितीचे अपवर्तन, संगठित गटांमार्फत जनमताचं नियंत्रण, बाल लैंगिक अत्याचाराचं प्रसारण, वंचित समुदायांवर ऑनलाईन छळ, कट्टरपंथी विचारांचा प्रसार, दहशतवादी माहितीचं प्रसारण, आणि प्रत्यक्ष हिंसाचारास प्रवृत्त करणे. त्यामुळे गेल्या काही वर्षांत अशा प्रकारच्या व्यक्तीगत व राष्ट्रीय सुरक्षेला धोका ठरणाऱ्या गोष्टींना अटकाव करण्यासाठी विविध प्रकारच्या कायदेशीर बंधनांची गरज निर्माण झाली. आणि म्हणूनच ‘वाजवी मर्यादा’ ही आता एक सामान्य बाब बनली आहे.
सोशल मीडियाच्या सुरक्षिततेसाठी धोके कमी करणे हे सोपे काम नाही. या कंपन्यांच्या तांत्रिक रचनेचा आणि व्यावसायिक पद्धतींचा केंद्रबिंदू म्हणजे ‘डेटा व अटेंशन इकॉनॉमी’. या कंपन्यांकडे दोन्ही बाजूंवर प्रचंड नियंत्रण असते – एकीकडे कोट्यवधी वापरकर्त्यांचे लक्ष, जे ते जाहिरातदारांना विकतात; आणि दुसरीकडे अशा जाहिरातदारांसाठी अनोख्या व अत्यंत व्यक्तिगत पद्धतीने जाहिरात पोचवण्याची प्रणाली. या कंपन्या मध्यस्थाच्या भूमिकेत राहून, ग्राहकांच्या माहितीवर आधारित जाहिरात यंत्रणा वापरून, मोठ्या प्रमाणावर वैयक्तिक माहिती गोळा करतात. यामध्ये अॅप्स, प्लगइन्स आणि इतर माध्यमांद्वारे मिळालेली अत्यंत तपशीलवार वर्तनात्मक माहिती समाविष्ट असते. त्यामुळे त्यांच्या जाहिरात पद्धती पारदर्शक नसतात.
म्हणूनच बिग टेक कंपन्यांचे नियमन हे जागतिकीकरण आणि बहुराष्ट्रीय कंपन्यांच्या उदयासोबत उद्भवलेल्या कार्पोरेट गव्हर्नन्सच्या समस्यांसारखे आहे. या कंपन्यांचे जागतिक स्तरावर असलेले सामर्थ्य आणि विस्तृत कार्यक्षेत्र यामुळे, त्यांच्यावर स्थानिक व आंतरराष्ट्रीय नियमांची अंमलबजावणी करणे अत्यंत अवघड ठरते. कारण अधिकार आणि संरक्षण देणारे कायदे एका विशिष्ट देशापुरते मर्यादित नसतात. ही कंपन्या विविध देशांतील कायदे व राजकीय वातावरणात गुंतलेल्या असतात, त्यामुळे सर्व देशांत समान नियम लावणे कठीण होते.
नागरिकांच्या नागरी आणि राजकीय सहभागामध्ये ऑनलाईन प्लॅटफॉर्म इतके खोलवर जोडलेले आहेत की असे म्हटले जाऊ शकते की आपले सामूहिक जीवन अल्गोरिदमद्वारे क्युरेट केले जात आहे आणि परिभाषित केले जात आहे. सुरुवातीला सोशल मीडियाला आदर्श सार्वजनिक मंच म्हणून गौरवण्यात आले, परंतु नंतर त्याचे अंधारमय रूप समोर आले: छळ आणि त्रास देण्याचे प्रभावी साधन, चुकीच्या माहितीचा प्रसार, सार्वजनिक सुव्यवस्थेचा भंग, आणि परकीय हस्तक्षेप; तसेच, हानिकारक वर्तनाचे साधन, अंतर्गत अस्थिरता आणि असहिष्णुतेला उत्तेजन देणारे, आणि 'ग्रे-झोन' युद्धाचे माध्यम. त्यामुळे, कालांतराने अभिव्यक्ती स्वातंत्र्यावर वाजवी मर्यादा घालणे हे या क्षेत्राचे नियमन आणि व्यवस्थापन करण्यासाठी सामान्य झाले. सुरक्षितता आणि सुरक्षा यांना प्राधान्य देण्यात आले, किमान सैद्धांतिकदृष्ट्या, सामाजिक आणि राजकीय सहभाग सक्षम करण्यासाठी; परंतु कधी कधी, अनवधानाने, आणि इतर वेळी, जाणूनबुजून, अशा लोकशाही सहभागाच्या पद्धतींना दडपण्याचे काम झाले.
अभिव्यक्ती स्वातंत्र्यावर परिणाम करणारे सुरक्षा धोके तीन मुख्य प्रकारांमध्ये विभागले जाऊ शकतात: वैयक्तिक सुरक्षिततेला धोका, अंतर्गत सुरक्षेला धोका, आणि परकीय हस्तक्षेपाचा धोका. 2020 मध्ये युनायटेड किंगडममध्ये झालेल्या एका संशोधनात असे आढळले की, 12-15 वयोगटातील 81 टक्के किशोरवयीन आणि 62 टक्के प्रौढांनी मागील 12 महिन्यांत सोशल मीडियावर किमान एक वाईट अनुभव घेतला आहे . वैयक्तिक छळ, लैंगिक शोषणासाठी आकर्षण, त्रास देणे, आणि लिंग किंवा धर्माच्या आधारावर ओळख आधारित हल्ले होण्याची शक्यता असते. या हानिकारक गोष्टींमध्ये आत्महत्येस प्रवृत्त करणे, द्वेषपूर्ण भाषण आणि अल्गोरिदमद्वारे भेदभाव, लैंगिक छळ, गोपनीयतेचा भंग, फसवणूक आणि घोटाळे, चुकीची माहिती आणि दिशाभूल करणारी माहिती, फिशिंग आणि बनावट ओळखी, सायबरस्टॉकिंग, आणि बदनामी मोहिमा यांचा समावेश होतो. ऑनलाइन चुकीची माहिती आणि अतिरेकी मोहिमा ऑफलाइन हिंसाचारात परिवर्तित होण्याची क्षमता बाळगतात, ज्यामुळे सामूहिक वर्तनावर परिणाम होतो.
हानिकारक माहिती कशीही तयार केली गेली असली, तरी त्यांचा प्रसार आणि वापर शोधणे अत्यंत कठीण असते, कारण त्या अपारदर्शक अल्गोरिदमच्या रचनांशी आणि लक्ष वेधून घेणाऱ्या अर्थव्यवस्थेच्या व्यावसायिक पद्धतींशी जोडलेल्या असतात. विस्तृत आणि सूक्ष्म वैयक्तिक आणि वर्तनात्मक डेटावर प्रशिक्षित अल्गोरिदम्स अनेकदा तार्किक विचार टाळतात. या लक्षित सामग्रीच्या वापरकर्त्यांना टिकवून ठेवण्यासाठी आणि नेटवर्क प्रभाव सुनिश्चित करण्यासाठी महत्त्वाच्या असतात, ज्यामुळे वापरकर्त्यांचे आर्थिक शोषण केले जाते. या वैशिष्ट्यांचा वापर करून सार्वजनिक सुव्यवस्था भंग करण्यासाठी, धोकादायक भाषण आणि ऑफलाइन हिंसाचारात रूपांतर करण्यासाठी, तसेच मोठ्या प्रमाणावर चुकीच्या माहितीच्या मोहिमांद्वारे परकीय हस्तक्षेपासाठी शस्त्र म्हणून वापर केला गेला आहे.
धोकादायक भाषणाच्या वाढीच्या आणि परकीय हस्तक्षेपाच्या केंद्रस्थानी अल्गोरिदमची वापरकर्त्यांच्या वर्तनावर परिणाम करण्याची क्षमता आहे. संज्ञानात्मक पूर्वग्रहांचा फायदा घेणे, त्यांना दृढ करणे, आणि वाढवणे यामुळे सामूहिक वर्तन बदलण्याच्या मोहिमा राबवल्या जातात. या आव्हानात आणखी भर म्हणजे केवळ प्लॅटफॉर्म्सची जबाबदारी नाही, तर मूळ उत्पत्ती शोधण्याची कठीणता देखील आहे. तथापि, प्लॅटफॉर्म्सना सर्वसमावेशक सेन्सॉरशिप अधिकार हस्तांतरित केल्यास, ते अधिक काळजीपूर्वक वागतील, जेणेकरून अधिकाऱ्यांच्या विरोधात जाऊ नयेत.
हे प्रभावी नियमावली स्थापन करण्याच्या कठीणतेला अधोरेखित करते कायदेशीर, राजकीय, आणि कंपन्या, वापरकर्ते, आणि सरकारे यांच्यातील सत्तेच्या संतुलनात गुंतलेले आहेत. स्वयंचलित सेन्सॉरशिप अनिवार्य केल्यास, सेन्सॉरशिप अधिकार खाजगी संस्थेला हस्तांतरित केले जातील; आणि राज्य नियमन क्लिष्ट आणि संभाव्यतः अतिरेक करणारे ठरेल, ज्यामुळे चीनसारख्या राज्य नियंत्रणाची परिस्थिती निर्माण होईल. या क्षेत्रात उद्भवणाऱ्या स्पर्धात्मक चिंता हाताळण्यासाठी बहुप्रताली धोरण विकसित करण्याची गरज आहे.
सामान्यतः, ऑनलाइन भाषणाबाबत राष्ट्रीय नियामक दृष्टिकोन एका स्लाइडिंग स्केलवर विचारात घेतले जातात: एका टोकाला 'वाजवी मर्यादा' असलेला उदार अमेरिकन दृष्टिकोन, तर दुसऱ्या टोकाला चीनचा 'सेंसर आणि नष्ट करा' दृष्टिकोन; बहुतेक इतर देश या दोन टोकांमध्ये कुठेतरी येतात. या चौकटींपलीकडे, ऑनलाइन कायद्याच्या जवळचे म्हणजे सोशल मीडिया प्लॅटफॉर्म्सचे सामग्री धोरणे आणि समुदाय मार्गदर्शक तत्त्वे, जी त्यांच्या मॉडरेटरद्वारे अंमलात आणली जातात. प्लॅटफॉर्म्स हानिकारक भाषण आणि चुकीच्या वर्तनाविरुद्ध नियम स्थापित करून आणि आक्षेपार्ह सामग्री हटवण्याचा अधिकार राखून, आदरयुक्त आणि सभ्य संवादाला प्रोत्साहन देण्याचा प्रयत्न करतात. प्रत्यक्षात, तथापि, सामग्री मार्गदर्शक तत्त्वे आणि मॉडरेटर अनेकदा प्लॅटफॉर्मवरील भाषण आणि वैयक्तिक अभिव्यक्तीवर सर्वज्ञ शक्ती वापरतात. याशिवाय, बिग टेक कंपन्यांनी एकतर्फीपणे सामग्री किंवा वापरकर्त्यांना प्लॅटफॉर्मवरून हटवण्याचे किंवा दडपण्याचे निर्णय घेतल्यास, जे सुरुवातीपासूनच अभिव्यक्ती स्वातंत्र्याला समर्थन देणाऱ्या राष्ट्रीय कायद्यांशी विसंगत असू शकतात, ते गंभीर समस्या निर्माण करू शकतात.
उदाहरणार्थ, 2016 मध्ये, फेसबुकने व्हिएतनाम युद्धातील पुलित्झर पुरस्कार विजेत्या 'नेपाम गर्ल' फोटोसह असलेल्या पोस्टला सेंसर केल्याबद्दल तीव्र टीका झाली, ज्यामध्ये नऊ वर्षांची किम फुक, नेपाम हल्ल्यादरम्यान रडत आणि नग्न अवस्थेत रस्त्यावर धावताना दिसते. व्यापक संतापानंतर, कंपनीने प्रतिमा पुन्हा स्थापित केली, स्पष्ट केले की नग्न मुलाचे चित्र सामान्यतः त्यांच्या समुदाय मानकांचे उल्लंघन करते, परंतु या प्रकरणात, "प्रतिमा सामायिक करण्याची परवानगी देण्याचे मूल्य समुदायाचे संरक्षण करण्याच्या मूल्यापेक्षा जास्त आहे" हे त्यांनी समजले. काही वर्षांनंतर, 2022 मध्ये, ट्विटर वादाच्या केंद्रस्थानी सापडले, जेव्हा अंतर्गत दस्तऐवजांनी उघड केले की कंपनीने 2020 च्या अमेरिकन निवडणुकीपूर्वी तत्कालीन अध्यक्ष जो बायडन यांचा मुलगा हंटरच्या युक्रेनमधील व्यावसायिक क्रियाकलापांबद्दलच्या मीडिया लेखांना दडपले होते. या उघडकीने ट्विटरने त्यांच्या प्लॅटफॉर्मवरील पोस्ट्स सेन्सॉर करण्यासाठी वापरलेल्या विविध सामग्री निर्बंध आणि ब्लॅकलिस्टिंग तंत्रांचा खुलासा केला.
अल्गोरिदम्स नियमितपणे धोरणांच्या सेवेत आणले जातात. फेसबुक, ट्विटर, आणि यूट्यूब सर्वच सामग्री मॉडरेट करण्यासाठी अल्गोरिदम्स वापरतात, आणि हे कोड्स ठरवतात की कोणती अभिव्यक्ती अनुमत आहे, वाढवायची आहे, किंवा दडपायची आहे. सरासरी, दररोज ३.७ दशलक्ष नवीन व्हिडिओज यूट्यूबवर अपलोड केले जातात, परंतु त्यांचे मूल्यांकन करण्यासाठी वापरले जाणारे अल्गोरिदम्स अपारदर्शक आहेत. यूट्यूबचा दावा आहे की त्यांचे AI अनुप्रयोग त्यांना ८० टक्के आक्षेपार्ह व्हिडिओज मानव मॉडरेटरकडे पाठवण्यापूर्वी ओळखून हटवण्यास अनुमती देतात. तथापि, सामग्री निर्माते अनेकदा हटवण्याच्या कारणांबद्दल गोंधळलेले असतात, आणि यूट्यूबच्या अपील प्रक्रियेच्या पारदर्शकतेच्या अभावामुळे निराश होतात. याव्यतिरिक्त, हटवण्यामुळे निर्मात्याच्या चॅनेलवर 'स्ट्राइक्स' होतात, ज्यामुळे तात्पुरते अपलोड निर्बंध लागू होतात; पुरेसे स्ट्राइक्स आल्यास चॅनेल कायमचे बंद होऊ शकते.
सामग्री मॉडरेशनचा मुद्दा आश्चर्यकारकपणे व्यवस्थापित करणे कठीण ठरला आहे. निःसंशयपणे, सोशल मीडिया प्लॅटफॉर्म्सच्या राजकीय आणि सांस्कृतिक पूर्वग्रहांचा आणि त्यांच्या जाहिरात महसूलाच्या पाठलागाचा त्यांच्या विविध प्रकारच्या सामग्रीच्या वागणुकीवर प्रभाव पडतो. तथापि, कमी वेतन आणि अति काम करणाऱ्या मानवी सामग्री मॉडरेटरच्या चुका, आणि फारसे अचूक नसलेले AI साधने देखील भूमिका बजावतात. 2017 मध्ये म्यानमारच्या रोहिंग्या मुस्लिमांविरुद्धच्या नरसंहाराच्या दोन वर्षांपूर्वी ऑनलाइन द्वेषपूर्ण भाषण वाढत असताना, असे आढळले की त्या कालावधीत फेसबुकने केवळ दोन बर्मी भाषिक मॉडरेटर नियुक्त केले होते. याव्यतिरिक्त, हानिकारक सामग्री ओळखण्यासाठी प्लॅटफॉर्म्सचा वाढता AI वर अवलंब देखील दोषपूर्ण आहे, कारण एआय अनेकदा स्थानिक भाषांशी योग्यरित्या जुळत नाही.
बहुतेक अपायकारक अभिव्यक्तीचे प्रकार, ज्यात द्वेषमूलक भाषण समाविष्ट आहे, मुख्यतः सोशल मीडियावर पसरतात, त्यामुळे त्यांना रोखण्याची जबाबदारी मोठ्या प्रमाणात सोशल मीडिया प्लॅटफॉर्म्सनी स्वीकारली पाहिजे. तथापि, विविध भौगोलिक क्षेत्रांमध्ये, हे व्यापकपणे मान्य आहे की प्लॅटफॉर्म्स या संदर्भात फारसे काही करत नाहीत.
उदाहरणार्थ, ट्विटरचे एलन मस्क यांनी अधिग्रहण केल्यापासून जागतिक स्तरावर द्वेषमूलक भाषणात वाढ झाली आहे, याचे पुरेसे पुरावे आहेत. फेसबुकने त्याच्या सामग्री धोरणांचा विसंगत किंवा स्पष्टपणे स्वार्थीपणे वापर करण्याचा दीर्घ इतिहास आहे. ऑस्ट्रेलियामध्ये, उदाहरणार्थ, बिग टेक प्लॅटफॉर्म्सने बाल लैंगिक शोषण सामग्री (CSAM) च्या प्रसाराबाबत आणि सोशल मीडियाच्या थेट मेसेजिंग सेवांद्वारे CSAM साइट्सच्या हजारो लिंक्सच्या वितरणाबाबत बेपर्वा वागणूक दिली आहे.
जेव्हा अपायकारक भाषणाच्या आरोपांची चर्चा होते, तेव्हा प्लॅटफॉर्म्स अनेकदा स्वतःचे संरक्षण करतात की ते सामग्री निर्माते आणि वापरकर्त्यांमधील केवळ मध्यस्थ आहेत, प्रकाशक नाहीत, आणि म्हणूनच पोस्ट्ससाठी जबाबदार धरले जाऊ शकत नाहीत. काही अंशी हे मान्य असू शकते. भारताच्या माहिती तंत्रज्ञान (IT) कायद्यासारख्या अनेक देशांच्या तंत्रज्ञान कायद्यात 'सुरक्षित आसरा' (safe harbour) तरतूद आहे, जे म्हणते की "मध्यस्थ कोणत्याही तृतीय-पक्षाच्या माहिती, डेटा किंवा संप्रेषण लिंकसाठी जबाबदार धरला जाणार नाही." तथापि, एक अट आहे: जर मध्यस्थ "अनधिकृत उद्देशांसाठी वापरल्या जाणाऱ्या सामग्रीबाबत सरकारने सूचित केल्यानंतरही" ती त्वरीत काढून टाकण्यात अयशस्वी ठरला, तर कारवाईला सामोरे जावे लागू शकते.
सोशल मीडिया प्लॅटफॉर्म्सकडून जबाबदारी सुनिश्चित करण्यासाठी एक महत्त्वाची यंत्रणा म्हणजे 2021 मध्ये IT कायद्याच्या अंतर्गत तयार केलेले IT (मध्यस्थ मार्गदर्शक तत्त्वे आणि डिजिटल मीडिया आचारसंहिता) नियम. हे नियम मध्यस्थांना प्रकाशित किंवा प्रसारित करू नये अशा अकरा प्रकारच्या सामग्रींची ओळख पटवतात. यामध्ये “अश्लील, बाल लैंगिक शोषण करणारी, इतरांच्या गोपनीयतेचा भंग करणारी माहिती, राष्ट्रीय सुरक्षेला धोका पोहोचवणारी, किंवा "स्पष्टपणे खोटी आणि असत्य किंवा दिशाभूल करणारी" माहिती समाविष्ट आहे. हे नियम केवळ अशा प्रकारची आक्षेपार्ह सामग्री सूचित केल्यावर काढून टाकण्याची मध्यस्थांची जबाबदारी निश्चित करत नाहीत. संदेश स्पष्ट आहे, मध्यस्थ आता ते काय होस्ट करतात याबाबत अज्ञान किंवा उदासीनता दाखवू शकत नाहीत. भारतीय न्यायालयांमध्ये झालेल्या अनेक प्रकरणांमध्ये, न्यायालयाने या नियमांच्या बाजूने आपले मत व्यक्त केले आहे, आणि बिग टेकवर काही प्रमाणात दबाव वाढला आहे.
इतर देश देखील सोशल मीडियाच्या उल्लंघनांविरुद्ध उपाययोजना करत आहेत आणि ऑनलाइन सुरक्षिततेला प्रोत्साहन देत आहेत. उदाहरणार्थ, ऑस्ट्रेलिया ऑनलाइन सेवा प्रदात्यांकडून (OSPs) अधिक नैतिक आणि जबाबदार वर्तन सुनिश्चित करण्यासाठी प्रणालीबद्धपणे अंमलबजावणी करत आहे. जून 2021 पासून प्रभावी असलेल्या देशाच्या ऑनलाइन सुरक्षा कायद्याचा एक मुख्य फोकस म्हणजे बिग टेक आणि इतर OSPs कडून सुरक्षिततेसाठी अधिक जबाबदारी स्वीकारणे, ज्यामध्ये 'मूलभूत ऑनलाइन सुरक्षा अपेक्षा' निश्चित केल्या आहेत, ज्या सेवा प्रदात्यांना CSAM आणि इतर आभासी हानिकारक गोष्टी अधिक सक्रियपणे हाताळण्यास भाग पाडतात. हा कायदा तंत्रज्ञान कंपन्यांना CSAM शोधण्यासाठी आणि काढण्यासाठी कोड विकसित करणे अनिवार्य करतो, अन्यथा eSafety ऑस्ट्रेलियाची ऑनलाइन सुरक्षा नियामक संस्था या उद्देशासाठी उद्योगव्यापी मानके लागू करू शकते. eSafety CSAM संबंधित तक्रारींच्या तपासणीला प्राधान्य देत असल्यामुळे, ऑस्ट्रेलियन वापरकर्त्यांसह OSPs वर त्यांच्या सुरक्षा प्रक्रियांना कायद्याच्या आवश्यकतांशी संरेखित करण्यासाठी दबाव आहे.
भारतीय आणि ऑस्ट्रेलियन उपक्रम उपयुक्त मॉडेल्स आहेत, आणि जगाच्या इतर भागांमध्येही अशा प्रकारचे दृष्टिकोन अंमलात आणले जात आहेत. तथापि, अभिव्यक्ती स्वातंत्र्य आणि सुरक्षा यांच्यात संतुलन साधणे म्हणजे स्पर्धात्मक हितसंबंधांचे मूल्यांकन करणे, जे समस्यात्मक आहे. फ्रान्सचा Avia कायद्याचा अनुभव ही द्विधा स्थिती दर्शवतो. 2019 मध्ये, एका फ्रेंच संसद सदस्याने Avia कायदा म्हणून ओळखल्या जाणाऱ्या विधेयकाची ओळख करून दिली, ज्याचा उद्देश सोशल मीडियावर द्वेषमूलक भाषणाचे नियमन करणे होता. या कायद्यानुसार, प्लॅटफॉर्म्सना नोटीस किंवा तक्रार प्राप्त झाल्यानंतर चोवीस तासांच्या आत द्वेषमूलक भाषण काढून टाकणे आवश्यक होते. मात्र, अभिव्यक्ती स्वातंत्र्याच्या समर्थकांनी या कायद्याला तीव्र विरोध केला, आणि फ्रेंच घटनात्मक न्यायालयाने शेवटी चोवीस तासांच्या आत सामग्री काढून टाकण्याच्या मुख्य तरतुदीला घटनाबाह्य ठरवले, कारण ती "अभिव्यक्ती आणि मत स्वातंत्र्याच्या अधिकाराचे उल्लंघन" करते. 2020 मध्ये लागू झालेला Avia कायद्याचा अंतिम आवृत्ती त्याच्या मूळ स्वरूपाच्या तुलनेत खूपच मर्यादित होती.
2023 मध्ये संयुक्त राष्ट्रांचे सरचिटणीस अँटोनियो गुटेरेस यांनी इशारा दिला होता, “ऑनलाईन पद्धतीने पसरवली जाणारी द्वेषभावना आणि खोट्या बातम्या आपल्या जगासाठी गंभीर हानी पोहोचवत आहेत. चुकीची माहिती, दिशाभूल करणारी माहिती आणि द्वेषपूर्ण भाषणामुळे समाजात पूर्वग्रह निर्माण होत आहे, हिंसाचाराला प्रोत्साहन दिलं जात आहे; समाजातील विभागणी व संघर्ष वाढत आहेत; अल्पसंख्याक समुदायांना लक्ष्य केलं जातंय; आणि निवडणुकांवरील विश्वास व पारदर्शकतेवर गदा येते आहे.” या पार्श्वभूमीवर, अभिव्यक्ती स्वातंत्र्य आणि समाजातील सुरक्षितता व स्थिरता यामधील संतुलन साधणे ही एक अत्यंत गरजेची बाब बनली आहे. अनेक देश या समस्येवर विविध प्रकारे उपाय शोधत आहेत. कठोर कायदे, तंत्रज्ञान कंपन्यांची स्वतःची जबाबदारी, आणि अनेक सुधारणा. अशा वेळी खालील काही उपाय महत्त्वपूर्ण ठरू शकतात:
१. ‘मध्यस्थ जबाबदारी’चा अधिक विस्तार करणे
आज बहुसंख्य डिजिटल संवाद सोशल मीडियाच्या माध्यमातून घडत असला, तरी त्या संवादाचे नियमन करणाऱ्या प्लॅटफॉर्म्सवर फार कमी जबाबदारी टाकली गेली आहे. म्हणून ‘मध्यस्थ जबाबदारी’ (intermediary liability) चा व्याप्ती वाढवली पाहिजे. फेसबुक, ट्विटर, युट्युब यांसारख्या कंपन्यांनी त्यांच्या प्लॅटफॉर्मवर प्रसिद्ध होणाऱ्या सामग्रीबद्दल अधिक जबाबदारी स्वीकारायला हवी. या कंपन्यांनी तंत्रज्ञानाच्या साहाय्याने आणि मानवसंसाधनाच्या माध्यमातून धोका निर्माण करणाऱ्या गोष्टी वेळेवर हटवण्याचे प्रयत्न अधिक सक्रियपणे करायला हवेत. फक्त सरकारकडून तक्रार आल्यानंतरच काही करण्याची भूमिका अपुरी आहे.
२. तथ्य तपासणी आणि माहिती पडताळणीची व्यवस्था निर्माण करणे
डिजिटल मीडियामध्ये खोटी माहिती आणि अपप्रचार सहजपणे पसरतो. यावर तोडगा म्हणून प्रत्येक देशाने स्थानिक पातळीवर तथ्य तपासणी (fact-checking), माहिती पडताळणी (verification) आणि माहितीची शहानिशा (validation) याची व्यवस्था निर्माण करावी. यासाठी डिजिटल मीडिया संस्थांमध्ये प्रशिक्षण कार्यक्रम, आचारसंहिता आणि कार्यपद्धती विकसित करणं गरजेचं आहे. नागरिकांनीही प्रत्येक बातमी किंवा पोस्टची सत्यता तपासणं, फॉरवर्ड करण्यापूर्वी विचार करणं—यासाठी जनजागृती आवश्यक आहे.
३. सुसंगत नियमन धोरणे तयार करणे
ऑनलाईन संवादाच्या संदर्भात वेगवेगळ्या देशांमध्ये वेगवेगळे कायदे, मार्गदर्शक तत्त्वं आणि स्वयं-नियमन यंत्रणा अस्तित्वात आहेत. या विविध यंत्रणांमध्ये समन्वय साधणं आणि एकत्रित धोरण आखणं गरजेचं आहे. अशा धोरणांत स्वयं-नियमन, समुदाय मार्गदर्शक तत्त्वं (community guidelines), आणि कायदे—या तिन्ही स्तरांवर भागधारकांची भूमिका निश्चित करणं महत्त्वाचं आहे. शासन, नागरिक, तंत्रज्ञान कंपन्या, आणि नागरी संस्थांच्या सहभागातून प्रभावी धोरणं घडवणं ही काळाची गरज आहे.
४. नागरी सहभागासाठी मार्ग खुलं करणे
प्लॅटफॉर्मच्या नियमन प्रक्रियेत केवळ सरकार आणि कंपन्यांचा सहभाग पुरेसा नाही. नागरी सहभागही तितकाच महत्त्वाचा आहे. लोकशाही मूल्य जपण्यासाठी आणि खऱ्या अर्थानं जनहितासाठी या धोरणांमध्ये सामान्य नागरिकांचा सहभाग असावा. या प्रक्रियेला वैध ठरवण्यासाठी, आणि ती अधिक प्रभावी व्हावी यासाठी पारदर्शकता, उत्तरदायित्व, आणि सामूहिक निर्णय यांची पूर्तता करणं आवश्यक आहे. जनतेच्या मतानुसार नियमन प्रक्रियेचं मार्गदर्शन करणं ही मुख्य बाब आहे.
५. ऑनलाईन धोके यावर एकमत व व्याख्या विकसित करणे
आज ऑनलाईन धोक्यांचं स्वरूप अत्यंत गुंतागुंतीचं आणि वेगाने बदलणारं आहे. त्यामुळे जागतिक स्तरावर धोके ओळखणं आणि त्याविरोधात नियम आखणं कठीण जातं. हे टाळण्यासाठी धोके काय आहेत यावर परिभाषात्मक एकमत होणं आवश्यक आहे. धोके म्हणजे फक्त द्वेषयुक्त भाषण नाही, तर त्यामध्ये खोटी माहिती, सायबर छळ, वैयक्तिक गोपनीयतेचा भंग, आणि परकीय हस्तक्षेपही येतात. यासाठी आंतरराष्ट्रीय पातळीवर समान व्याख्या व नियम बनवणं आवश्यक आहे.
६. स्थानिक भाषांसाठी AI-आधारित सुरक्षा प्रणाली विकसित करणे
दीर्घकालीन उपाय म्हणून, कृत्रिम बुद्धिमत्तेचा (AI) उपयोग करत सुरक्षितता वाढवण्याचं काम सुरू करणं आवश्यक आहे. मात्र, बहुतांश AI प्रणाली इंग्रजी भाषेसाठी विकसित करण्यात आल्या आहेत. भारतासारख्या बहुभाषिक देशांमध्ये स्थानिक भाषांमधून निर्माण होणाऱ्या सामग्रीसाठी यंत्रणा सक्षम नसतात. यासाठी मोठ्या प्रमाणावर स्थानिक भाषेतील कंटेंटचा संग्रह करावा लागेल, आणि त्यावर प्रशिक्षण दिलेल्या AI प्रणालींचा उपयोग करून अपप्रचार, द्वेषयुक्त भाषण किंवा अश्लील कंटेंट लवकर ओळखून हटवावा लागेल. अशा उपायांनी भविष्यातील धोके टाळता येतील.
मुक्त अभिव्यक्ती आणि समाजातील सुरक्षितता यामधील समतोल साधणं हे खूप कठीण काम आहे, पण ते टाळणं अशक्य आहे. तंत्रज्ञानाच्या वाढत्या प्रभावामुळे आणि सोशल मीडियाच्या व्याप्तीमुळे हे आव्हान अधिक तीव्र झालं आहे. या समस्येवर उपाय शोधताना केवळ कायद्यांचा आधार पुरेसा नाही. समाजातील प्रत्येक घटकाची भूमिका शासन, तंत्रज्ञान कंपन्या, नागरी संस्था आणि सामान्य जनता महत्त्वाची आहे. सामूहिक प्रयत्नांमधूनच आपण अधिक सुरक्षित, विश्वासार्ह आणि लोकशाही मूल्यांनी समृद्ध अशा डिजिटल समाजाची निर्मिती करू शकतो.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.
Dr. Anulekha Nandi is a Fellow - Centre for Security, Strategy and Technology at ORF. Her primary area of research includes digital innovation management and ...
Read More +Anirban Sarma is Director of the Digital Societies Initiative at the Observer Research Foundation. His research explores issues of technology policy, with a focus on ...
Read More +