Author : Prithvi Iyer

Published on May 01, 2020 Updated 0 Hours ago

इस विषय पर अब भी परिचर्चा नहीं हो रही है कि, तमाम सोशल मीडिया अपने मंच पर मौजूद आपत्तिजनक सामग्री के नियमितीकरण को लेकर क्या नियम और नीतियां अपनाते हैं. जबकि, सोशल मीडिया प्लेटफॉर्म के ये नियम क़ायदे हर रोज़ करोड़ों लोगों के जीवन पर प्रभाव डालते हैं. फिर भी ये विषय परिचर्चाओं की मुख्यधारा में नहीं आ सका है.

डिजिटल लैब: डिजिटल उपकरण का श्रमिक के मानसिक स्वास्थ्य पर प्रभाव

2018 में उस वक़्त एक बड़ा विवाद खड़ा हो गया था, जब फ़ेसबुक ने अपने एक यूज़र पर प्रतिबंध लगा दिया था. उस फ़ेसबुक सदस्य ने अपने फ़ेसबुक पेज पर अपने सबसे छोटे बच्चे को स्तनपान कराने वाली एक तस्वीर अपलोड की थी. इसके बाद कई लोगों ने फ़ेसबुक के कंटेंट के नियमितीकरण की प्रक्रिया और नीतियों पर सवाल उठाए थे. उस मामले में फ़ेसबुक ने उस यूज़र की पोस्ट को हटाने के बारे में जो नोटिस भेजा था, उसके अनुसार बच्चे को दूध पिलाने की वो फोटो सेक्सुअल कंटेंट का हिस्सा थी. और ज़्यादा स्पष्ट रूप से कहें तो ये मामला ऐसे सेक्सुअल कंटेंट का था, जिसमें एक नाबालिग को भी शामिल किया गया था. फ़ेसबुक ने इसे बच्चों के साथ यौन हिंसा की श्रेणी में डालकर प्रतिबंधित कर दिया था. लेकिन, एक मां के अपने बच्चे को दूध पिलाने की तस्वीर को इस तरह से पेश करके, फ़ेसबुक ने दिखाया था कि सोशल मीडिया या डिजिटल प्लेटफॉर्म पर मौजूद सामग्री को नियंत्रित करने की नीतियां इकतरफ़ा हैं. दिग्भ्रमित हैं. और उन्हें ये भी नहीं पता कि किसी पोस्ट के ऐसे वर्गीकरण से कैसे दुष्प्रभाव पड़ते हैं. फ़ेसबुक ने एक मां की अपने बच्चे को दूध पिलाने की तस्वीर को हटाया तो इस पर विवाद इस बात का शुरू हो गया कि क्या सार्वजनिक स्थलों पर मां के बच्चे को दूध पिलाने को अधर्म कहा जा सकता है? हालांकि, इस विषय पर अब भी परिचर्चा नहीं हो रही है कि, तमाम सोशल मीडिया अपने मंच पर मौजूद आपत्तिजनक सामग्री के नियमितीकरण को लेकर क्या नियम और नीतियां अपनाते हैं. जबकि, सोशल मीडिया प्लेटफॉर्म के ये नियम क़ायदे हर रोज़ करोड़ों लोगों के जीवन पर प्रभाव डालते हैं. फिर भी ये विषय परिचर्चाओं की मुख्यधारा में नहीं आ सका है.

इसी प्रकार से, डिजिटल प्लेटफॉर्म पर मौजूद आपत्तिजनक सामग्री को छांटने और उसे हटाने का काम करने वाले लोगों के काम की भी सार्वजनिक रूप से समीक्षा नहीं होती. डिजिटल कंपनियों के ये कंटेंट मॉडरेटर ही, सुरक्षित इंटरनेट सेवाओं की सुविधा सुनिश्चित करते हैं. उनके फ़ैसलों का लाखों लोगों पर प्रभाव पड़ता है. फिर भी उनके काम काज की समीक्षा न होना समझ से परे है. ऐसी ज़िम्मेदारी उठाने वाले पर ज्ञान संबंधी जो बोझ पड़ता है और इसका उनके मानसिक स्वास्थ्य और मुश्किलों का सामना करने की क्षमता पर जो असर पड़ता है, उसे कम करके नहीं आंका जाना चाहिए. मिसाल के तौर पर, भारत में कंटेंट मॉडरेटर को अक्सर बहुत कम पैसे दिए जाते हैं. जबकि उनके जैसा काम अमेरिका की सिलिकॉन वैली में करने वाले लोग कई गुना ज़्यादा वेतन पाते हैं. जबकि, कंटेंट मॉडरेटर को कई बार तो पलक झपकाते ही फ़ैसले लेने पड़ते हैं. दो हज़ार तस्वीरों को प्लेटफॉर्म पर मौजूद रहने दिया जाए, या फिर नहीं. इसका फ़ैसला उन्हें एक घंटे में करना होता है. उन्हें बहुत कम वक़्त मिलता है ये तय करने के लिए कि कहीं उनके फ़ैसले से जनता के जज़्बातों का अपमान तो नहीं होगा. कहीं उनके फ़ैसले से पोर्नोग्राफी या हिंसा को बढ़ावा तो नहीं मिलेगा. ऐसे फ़ैसले अगर सोच समझ कर नहीं लिए जाते हैं, तो उनके दूरगामी परिणाम होते हैं. इसी कारण से इस पेशे के लोगों पर दबाव बढ़ रहा है. उनकी मानसिक सेहत पर भी बुरा असर पड़ रहा है. जैसे-जैसे तमाम सोशल मीडिया प्लेटफॉर्म पर कंटेंट की समीक्षा करने और नुक़सानदेह चीज़ें हटाने की सार्वजनिक प्रतिबद्धता बढ़ी है, वैसे-वैसे कंटेंट मॉडरेटर की मांग भी बढ़ती जा रही है. ऐसे में ये महत्वपूर्ण हो गया है कि हम डिजिटल दुनिया में काम करने वालों के मानसिक स्वास्थ्य और उनके कल्याण के बारे में सोचें. ये इसलिए ज़रूरी है क्योंकि इससे ये पता चलता है कि कंटेंट मॉडरेट करने वाले लोग कितने मुश्किल हालात में काम करते हैं. और उनके काम का बारीक़ी से अध्ययन करके हम ये भी पता लगा सकता हैं कि वो किन मुश्किल हालात में काम करते हैं. और इससे उनके जीवन में तनाव कितना बढ़ जाता है. फिर, इस बढ़े हुए तनाव का उनके मानसिक स्वास्थ्य पर क्या असर पड़ता है. और ऐसा होने पर उनके निर्णय लेने की क्षमता पर किस तरह का असर होता है. क्योंकि कंटेंट मॉडरेटर ही ये तय करते हैं कि सोशल मीडिया प्लेटफॉर्म पर यूज़र को क्या देखने को मिले और क्या नहीं.

डिजिटल मीडिया के सभी लोकप्रिय प्लेटफॉर्म ऐसे संतुलित और हर देश की संस्कृति के प्रति संवेदनशीलता रखने वाली दख़लंदाज़ी की ज़रूरत महसूस करते हैं. इसके लिए उन्हें अपने मंच पर लगातार डाली जा रही बेशुमार पोस्ट की निगरानी करनी पड़ती है. उन्हें पढ़ना पड़ता है. इससे, कंटेंट मॉडरेटर की अपना ज़हनी सुकून ख़त्म हो जाता है

कुर्सी पर बैठा महज़ एक शरीर

कंटेंट मॉडरेटर के मानसिक स्वास्थ्य पर उसके काम का विपरीत असर पड़ने के दो प्रमुख कारण है. एक तो वो जिस तरह का काम करता है. दूसरा, उसके सामने जो ज़िम्मेदारियां होती हैं. आम तौर पर बड़ी सोशल मीडिया कंपनियां अपने प्लेटफॉर्म पर मौजूद सामग्री को नियमित करने के लिए फिलीपींस या भारत जैसे देशों में लोगों को ठेके पर रखते हैं. इसका नतीजा ये होता है कि ये कामगार, स्वास्थ्य बीमा और नियमित नौकरी की अन्य सुविधाओं से वंचित रह जाते हैं. दुनिया भर में फ़ेसबुक के दो अरब 38 करोड़ यूज़र हैं. इनके द्वारा की जाने वाली पोस्ट या कंटेंट की निगरानी के लिए फ़ेसबुक लगभग बीस हज़ार लोगों से कंटेंट मॉडरेट करने का काम कराता है. जिस तरह सोशल मीडिया पर हर सेकेंड नयी पोस्ट डाली जाती रहती है. उस नज़रिए से देखें, तो ये बीस हज़ार लोग भी हर पोस्ट को बारीक़ी से देख पाने के लिए कम हैं. पहले तो इन्हें तमाम तरह की पोस्ट को देखना होता है. जिसमें क़त्ल, बलात्कार और अन्य अमानवीय व हिंसक घटनाओं से जुड़ी जानकारियां होती हैं. इसके बाद इन कंटेंट मॉडरेटर को ये तय करना होता है कि ऐसे अपराधों से जुड़ी जो जानकारी उनके प्लेटफॉर्म पर डाली गई है, उसके पीछे नीयत ठीक है या नहीं. उसका संदर्भ उचित है अथवा ग़लत. और ये काम केवल फ़ेसबुक तक सीमित नहीं है. डिजिटल मीडिया के सभी लोकप्रिय प्लेटफॉर्म ऐसे संतुलित और हर देश की संस्कृति के प्रति संवेदनशीलता रखने वाली दख़लंदाज़ी की ज़रूरत महसूस करते हैं. इसके लिए उन्हें अपने मंच पर लगातार डाली जा रही बेशुमार पोस्ट की निगरानी करनी पड़ती है. उन्हें पढ़ना पड़ता है. इससे, कंटेंट मॉडरेटर की अपना ज़हनी सुकून ख़त्म हो जाता है. क्योंकि उन्हें हर रोज़ हज़ारों भयंकर घटनाओं से जुड़ी पोस्ट पढ़नी-देखनी पड़ती है. मिसाल के तौर पर कंटेंट मॉडरेटर से नियमित रूप से ये अपेक्षा की जाती है कि वो चाइल्ड पोर्नोग्राफ़ी और वियतनाम युद्ध की कालजयी तस्वीरों के बीच फ़र्क़ करना सीखें. इसके लिए उन्हें बुनियादी तौर पर ये तय करना होता है कि किस तस्वीर से मानवाधिकारों के उल्लंघन की बात उठाई जा रही है और किस पोस्ट के माध्यम से हिंसा का महिमामंडन किया जा रहा है. इसी तरह नफ़रत भरी पोस्ट से जुड़े दिशा निर्देश हर सोशल मीडिया प्लेटफॉर्म पर समानता से लागू नहीं किए जाते. इससे कई बार नस्लवादी और विदेशी लोगों के प्रति नफ़रत भरी पोस्ट ऑनलाइन रह जाती हैं. कई अन्य मामलों में ये सोशल मीडिया प्लेटफॉर्म संवैधानिक क़ानूनों का उल्लंघन करते हैं, ताकि अपने यूज़र को अभिव्यक्ति का निर्बाध अधिकार दे सकें. इसीलिए, हर देश मे सोशल मीडिया प्लेटफॉर्म पर मौजूद सामग्री में से क्या सही है और क्या ग़लत, ये हर देश की अलग अलग सांस्कृतिक पृष्ठभूमि के हिसाब से तय किया जाता है. यानी इसका कोई सार्वभौम नियम क़ायदा नहीं है. इस कारण से कंटेंट मॉडरेटर के ऊपर दबाव और बढ़ जाता है.

कंटेंट मॉडरेटर को अक्सर नॉन डिस्क्लोज़र समझौतों पर दस्तख़त करने पड़ते हैं. इससे किसी यूज़र की निजता को सुरक्षित रखने का प्रयास किया जाता है. लेकिन, अक्सर इस समझौते का इस्तेमाल कंटेंट मॉडरेटर की आवाज़ दबाने और उन्हें ख़ामोश रखने के लिए किया जाता है. इससे कंटेंट मॉडरेटर पर भावनात्मक दबाव और बढ़ जाता है

कंटेंट मॉडरेटर के काम की समीक्षा करके उन्हें प्रोत्साहन देने के लिए जो तौर तरीक़े अपनाए जाते हैं, उससे भी कर्मचारियों के मानसिक स्वास्थ्य पर विपरीत प्रभाव पड़ता है. किसी भी कंटेंट मॉडरेटर की उपलब्धियों की समीक्षा इस आधार पर की जाती है कि उन्होंने कितने सटीक फ़ैसले लिए. ख़ासतौर से अपने दफ़्तर के अन्य साथियों के मुक़ाबले उनके फ़ैसले कितने सही और कितने ग़लत रहे. अब जबकि इस बात का दबाव लगातार बढ़ता जा रहा है कि किसी कंटेंट के सही या ग़लत होने का फ़ैसला इस आधार पर लिया जाए कि उसमें सबकी सहमति शामिल हो. तो, अपने सहयोगियों का दबाव हर कंटेंट मॉडरेटर पर बढ़ जाता है. इस मामले में केसी न्यूटन द्वारा एक शानदार अध्ययन किया गया है. इस अध्ययन में जो प्रमुख बात सामने आई है कि अगर, कोई कर्मचारी किसी सामग्री को लेकर अपने साथियों से अलग विचार रखता है, तो कंटेंट मॉडरेटर को कई बार गंभीर नतीजे भुगतने की धमकी दी जाती है. कंटेंट मॉडरेटर को अक्सर नॉन डिस्क्लोज़र समझौतों पर दस्तख़त करने पड़ते हैं. इससे किसी यूज़र की निजता को सुरक्षित रखने का प्रयास किया जाता है. लेकिन, अक्सर इस समझौते का इस्तेमाल कंटेंट मॉडरेटर की आवाज़ दबाने और उन्हें ख़ामोश रखने के लिए किया जाता है. इससे कंटेंट मॉडरेटर पर भावनात्मक दबाव और बढ़ जाता है. तमाम क़ानूनी जोखिमों के बावजूद, कई कंटेंट मॉडरेटर ने अपने अपने अनुभव केसी न्यू़टन के साथ साझा किए थे. इसमें एक जानकारी ये भी थी कि कैसे 42 साल के एक व्यक्ति की मौत काम के दौरान दिल का दौरा पड़ने से हो गई थी. घटिया सामग्री को बार-बार देखने की वजह से इन कर्मचारियों को जिस तरह के तनाव का सामना करना पड़ता है, वो तब और बढ़ जाता है, जब इन कंटेंट मॉडरेटर को इकतरफ़ा नीतियों के अनुसार किसी सामग्री को काटना छांटना पड़ता है. इससे कंटेंट मॉडरेट करने वालों के मानसिक स्वास्थ्य पर विपरीत प्रभाव पड़ता है. मनोवैज्ञानिक इसे ‘सेकेंडरी ट्रॉमा’ (Secondary trauma) कह कर बुलाते हैं. इसके काफ़ी लक्षण पीटीएसडी (post traumatic stress disorder) से काफ़ी मिलते हैं. इसका प्रमुख कारण ये होता है कि सोशल मीडिया पर इन लोगों को अक्सर ऐसी पोस्ट का सामना करना पड़ता है, जिससे तनाव और तकलीफ़ बढ़ जाती है. हिंसक घटनाओं की जानकारी बार-बार मिलने से इनका काम और तनावपूर्ण हो जाता है. काम से जुड़े तनाव के प्रति ख़ुद को ढालने में कंटेंट मॉडरेटर अक्सर मुश्किलों का सामना करते देखे गए हैं. जैसा कि केसी न्यूटन ने लिखा है, कंटेंट मॉडरेटर आम तौर पर डोपामाइन की मदद से यौनेच्छा जगाने और मारिजुआना का इस्तेमाल करके ख़ुद को तनावमुक्त रखने का प्रयास करते हैं. न्यूटन के अध्ययन में शामिल एक व्यक्ति ने बताया कि, ‘हम नशा करते हैं और फिर काम करने के लिए वापस दफ़्तर जाते हैं. ये कोई पेशेवर तरीक़ा नहीं है.’ ‘जब हमें ये पता चलता है कि दुनिया की सबसे बड़ी सोशल मीडिया कंपनी के कंटेंट मॉडरेटर काम करते वक़्त ड्रग्स लेते हैं ये बात बहुत डराने वाली है.’ न्यूटन के लेख का ये हिस्सा इस बात की ओऱ इशारा करता है कि कंटेंट मॉडरेटर अक्सर ख़ुद को तबाह करने वाला काम कर रहे होते हैं. क्योंकि वो बाहरी तनाव का सामना करने में ख़ुद को अक्षम पाते हैं.

काम की बेहद मुश्किल परिस्थितियां और टॉयलेट जाने के लिए भी कम समय मिल पाने के साथ साथ कंटेंट मॉडरेटर को अपनी बेहतरी के लिए केवल ‘नौ मिनट का वेलनेस ब्रेक’ मिलता है. ऐसे में उनके लिए नशा करके काम करने का विकल्प चुन लेना सबसे आसान तरीक़ा लगता है. काम के ऐसे तौर तरीक़ों से उत्पन्न होने वाला तनाव और बढ़ जाता है, जब दफ़्तर में मानसिक स्वास्थ्य की चुनौतियों को लेकर जागरूकता नहीं होती. चर्चा नहीं होती. काम के ख़राब माहौल को लेकर लग रहे तमाम आरोपों के बाद कई बड़ी सोशल मीडिया कंपनियों ने इस बात के लिए अपनी प्रतिबद्धता को दोहराया है कि वो अपने कर्मचारियों के मानसिक स्वास्थ्य की सुरक्षा करेंगे. और उनकी मदद के लिए फ़ोन पर मनोचिकित्सकों की सुविधाएं उपलब्ध कराएंगे. लेकिन, अमरीका के ऑस्टिन स्थित एक बड़ी सोशल मीडिया कंपनी के कंटेंट मॉडरेटर द्वारा तैयार किए गए एक ख़ुले ख़त में ये आरोप लगाया गया था कि, एक्सेंचर (Accenture) कंपनी के प्रबंधकों ने बार-बार ऐसे मनोचिकित्सा के सलाहकारों पर ये दबाव बनाया कि वो कर्मचारियों की गोपनीयता को उजागर करें. हालांकि Accenture ने इन आरोपों का खंडन किया था. लेकिन, कंपनी के कर्मचारियों और प्रबंधकों के बीच इस तरह के टकराव का निश्चित रूप से कंपनी के हौसले पर बुरा प्रभाव पड़ता है. कर्मचारियों और प्रबंधकों के बीच के इस अविश्वास को एक कर्मचारी ने इन शब्दों में बख़ूबी बयां किया था. जब उसने कहा था, ‘उनके लिए तो हम बस कचरे का ढेर हैं. कुर्सी पर जमा एक शरीर.’

सोशल मीडिया पर मौजूद सामग्री का नियंत्रण करना एक विवादित मसला है. चूंकि, इस बात में कई शक नहीं है कि ये ऑनलाइन प्लेटफॉर्म के लिए एक बड़ी ज़रूरत है. क्योंकि सोशल मीडिया कभी भी नफ़रत भरा तूफ़ान खड़ा करने की ताक़त रखता है

पारदर्शिता बनाम निजता

सोशल मीडिया पर मौजूद सामग्री का नियंत्रण करना एक विवादित मसला है. चूंकि, इस बात में कई शक नहीं है कि ये ऑनलाइन प्लेटफॉर्म के लिए एक बड़ी ज़रूरत है. क्योंकि सोशल मीडिया कभी भी नफ़रत भरा तूफ़ान खड़ा करने की ताक़त रखता है. ख़ासतौर से राजनीतिक तौर पर संवेदनशील समय के दौरान, ऐसा होने की आशंका और बढ़ जाती है. लेकिन, कंटेंट की निगरानी करने की मानवीय क़ीमत बहुत अधिक है. दिक़्क़त तब और बढ़ जाती है, जब ऑनलाइन सुरक्षा की तमाम परिचर्चाओं से ये विषय नदारद रहता है. कंटेंट मॉडरेट करने के काम का विकेंद्रीकरण, आर्टिफ़िशियल इंटेलिजेंस की मदद, ये काम करने वालों का वेतन बढ़ाने और उनके काम के माहौल को बेहतर बनाने जैसे कई उपाय सुझाए गए हैं, ताकि कंटेंट मॉडरेटर के मानसिक स्वास्थ्य से जुड़ी चिंताओं को दूर किया जा सके. लेकिन, अब तक ऐसे सभी समाधानों के दूरगामी नतीजों को लेकर किसी निष्कर्ष पर नहीं पहुंचा जा सका है. तकनीक के विशेषज्ञ ऐसे सॉफ्टवेयर विकसित कर रहे हैं, जो किसी की आवाज़ पहचान सके. तस्वीरों का वर्गीकरण कर सके. और नेचुरल लैंग्वेज प्रोसेसिंग की शक्ति से लैस हो. इससे मानवीय दख़लंदाज़ी के बिना भी सोशल मीडिया पर मौजूद आपत्तिजनक सामग्री को हटाया जा सकेगा. इस समय, एल्गोरिद्म को इस बात के लिए प्रशिक्षित किया जा रहा है कि वो नग्नता से जुड़ी सामग्री को 96 प्रतिशत सटीक तरीक़े से हटा सकें. हालांकि, कई बार ये एल्गोरिद्म ऐसे सुरक्षित नग्न तत्वों पर भी आपत्ति जताते हैं, जिसे सुरक्षित नग्नता या Safe Nudity कहते हैं. जैसे कि किसी मां का अपने बच्चे को दूध पिलाना या फिर पुनर्जागरण के दौर की कोई पेंटिंग. इसीलिए एल्गोरिद्म पर पूरी तरह से कंटेंट मॉडरेटर का काम छोड़ देना समस्या पैदा करता है.

इस बीच, तकनीकी विश्लेषक इस बात की वक़ालत कर रहे हैं कि कंटेंट मॉडरेट करने के काम और इसकी नीतियों में अधिक पारदर्शिता लानी चाहिए. ताकि, यूज़र और स्वतंत्र संस्थाएं किसी ग़लती के लिए सोशल मीडिया कंपनियों को ज़िम्मेदार ठहरा सकें. इस समय ऐसे बहुत कम सोशल मीडिया प्लेटफॉ्र्म हैं, जो अपनी सेवा की शर्तों से जुड़ी जानकारियां सार्वजनिक करते हैं. या फिर अपने सामुदायिक नियमों को सार्वजनिक करते हैं. इसी वजह से किसी स्वतंत्र संस्था द्वारा उनके कंटेंट मॉडरेट करने के काम की निरपेक्ष रूप से समीक्षा कर पाना संभव नहीं है. और इसी वजह से इसमें सुधार के उपाय भी लागू नहीं किए जा सके हैं. कई नागरिक संगठनों और अकादमिक व्यक्तियों ने मिल कर सोशल मीडिया प्लेटफॉर्म से पारदर्शिता लाने के लिए सैंटा क्लारा सिद्धांत (2018) के नाम से एक अपील जारी की थी. जिसमें कहा गया था कि तकनीकी कंपनियों को व्यक्तिगत रूप से जानकारी मांगने वालों को भी ये बताना चाहिए कि उन्होंने किसी सामग्री को हटाने या अपने प्लेटफॉर्म पर बनाए रखने का फ़ैसला किस आधार पर लिया था. साथ ही उन्हें ये भी चाहिए कि विश्व स्तर पर लिए गए इस तरह के फ़ैसलों की जानकारी भी उपलब्ध कराएं. लेकिन, अधिक पारदर्शिता की मांग का यूज़र की निजता के अधिकार के साथ टकराव होने लगता है. इसी कारण से सोशल मीडिया प्लेटफॉर्म एक यूज़र से दूसरे यूज़र के बीच होने वाले संवाद को पूरी तरह से सुरक्षित बनाने की तकनीक यानी एंड टू एंड एनक्रिप्शन का इस्तेमाल करते हैं. हालांकि, ये शुरुआती क़दम उत्साह बढ़ाने वाले हैं. इनके साथ साथ छोटे स्तर पर अनुभवों पर आधारित तर्कों की मदद से व्यक्तिगत संवाद पर भी लागू किए जाने चाहिए. क्योंकि सोशल मीडिया प्लेटफॉर्म तो इन्हीं व्यक्तिगत संवादों की बुनियाद पर बने हैं. पारदर्शिता के साथ साथ, डिजिटल कामगारों की संख्या घटा कर, हम कंटेंट मॉडरेटर के मानसिक स्वास्थ्य से जुड़ी कई चुनौतियों का समाधान निकाल सकते हैं.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.