Authors : Pooja Haldea | Saksham

Published on Oct 28, 2021 Updated 0 Hours ago

हम कैसे सुनिश्चित करेंगे कि एक यूज़र को ये पता हो कि वो क्या सहमति दे रहा है जब किसी सेवा को इस्तेमाल करने के अल्पकालीन लाभ और लंबे समय में निजता के नुक़सान के बीच की गणना तुरंत स्पष्ट नहीं हो सकती है? 

आर्टिफिशियल इंटेलिजेंस और पक्षपात: जब एल्गोरिदम करने लगते हैं फ़ैसलों को तय और नियंत्रित.

लोकप्रिय धारणा के विपरीत 18वीं शताब्दी की लुडाइट क्रांति न सिर्फ़ प्रगति के ख़िलाफ़ लड़ी गई थी बल्कि प्रतिनिधित्व के लिए भी थी. बेहद कुशल बुनकरों, जिनमें महिलाएं भी शामिल थीं, ने मशीन की वजह से अपना रोज़गार और प्रतिनिधित्व छिनने के डर के बीच स्वायत्तता और श्रम अधिकार की लड़ाई लड़ी. इस नई तकनीक ने उत्पादन के साधनों पर नियंत्रण रखने वाले कपड़ा मिल मालिकों के पक्ष में शक्ति के संतुलन के झुकाव का संकट पैदा कर दिया. आज इन पुरानी तकनीकों की जगह एल्गोरिदम ने ले ली है. चूंकि आर्टिफिशियल इंटेलिजेंस (एआई) से लैस मशीनें हमारे फ़ैसलों पर नियंत्रण कर रही हैं, ऐसे में हमारे लिए उन चीज़ों को वापस पाने में काफ़ी देर हो जाएगी जो हमें इंसान बनाते हैं यानी स्वतंत्र इच्छा और स्वायत्तता. 

आर्टिफिशियल इंटेलिजेंस (एआई) से लैस मशीनें हमारे फ़ैसलों पर नियंत्रण कर रही हैं, ऐसे में हमारे लिए उन चीज़ों को वापस पाने में काफ़ी देर हो जाएगी जो हमें इंसान बनाते हैं यानी स्वतंत्र इच्छा और स्वायत्तता.  

चाहे वो यूज़र हों या नागरिक, लगभग जो भी बर्ताव होता है, उसकी एक डिजिटल निशानी होती है. निगरानी पूंजीवाद के युग में स्वतंत्र इच्छा के लिए लड़ाई में हार तय है. कैंब्रिज एनालिटिका के बाद की दुनिया में एल्गोरिदम व्यक्तिगत स्वतंत्रता और पसंद के मूल सिद्धांत को चुनौती देते हैं. ऐसे में इंसान की पसंद को सुरक्षित बचाए रखने के लिए महज़ मंज़ूरी और ज़िम्मेदार नियंत्रण के तौर-तरीक़ों से आगे बढ़ना होगा. 

क्रियाशील तरीक़े से आगे बढ़ना, व्यवहार का मुद्रीकरण

इंसान का व्यवहार हमेशा न्यायसंगत नहीं होता है, वो बाध्य तार्किकता से लाचार होता है. आदर्श रूप में मशीनें दरार को भर सकती हैं, पक्षपात को कम कर सकती हैं और इंसानी फ़ैसले लेने में मदद कर सकती हैं. लेकिन बिग टेक (बड़ी तकनीकी कंपनियां) अक्सर इंसान के फ़ैसले लेने में झूठे विश्वास का मुद्रीकरण करता है. कैंब्रिज एनालिटिका नागरिकों की प्राथमिकता के वस्तुकरण, मंज़ूरी को लेकर तिकड़म और ऑनलाइन फ़ैसले लेने की वजह से संभव हुआ. “अगर कोई चीज़ मुफ़्त है तो आप उत्पाद हैं” की कहावत सही लगती है. 

यद्यपि यूज़र अपने डाटा की निजता को लेकर चिंतित होंगे लेकिन उनका ऑनलाइन व्यवहार अक्सर इस बात को दिखाता नहीं है. यही निजता का विरोधाभास है. इसकी आंशिक वजह ये है कि आधुनिक समय में ऑनलाइन फ़ैसले लेने की गतिशीलता लोगों के पक्ष में नहीं है. मिसाल के तौर पर आप ऑनलाइन आवेदन के नियम और शर्तों को ले सकते हैं जो बेहद लंबे होते हैं. साथ ही शब्दजाल वाले दस्तावेज़ जो आम यूज़र की समझ में बहुत कम आते हैं. इस तरह के दस्तावेज़ जान-बूझकर पढ़ने के लिए मुश्किल बनाए जाते हैं और इनका मतलब लोगों को पसंद का झांसा देने का होता है. यहां तक कि जब इन्हें आसान बनाया जाता है तब भी यूज़र इस तरह के निजता वाले फ़ैसलों से जुड़े जोखिमों और फ़ायदों के बारे में सोच-समझकर विचार नहीं कर पाते हैं. किसी सेवा को इस्तेमाल करने के अल्पकालीन लाभ और लंबे समय में निजता के नुक़सान के बीच की गणना तुरंत स्पष्ट नहीं हो सकती है. 

अध्ययन में निर्णायक रूप से दिखाया गया है कि कैसे मरीज़ के जटिल इलाज़ों को सौंपने के लिए निर्धारित करने वाले एल्गोरिदम के द्वारा अश्वेत मरीज़ों के ऊपर श्वेत मरीज़ों को प्राथमिकता देने की संभावना ज़्यादा है.  

निजता का मुद्दा लोगों को हर स्तर पर सामंजस्य बिठाने के लिए मजबूर करता है. सरकारें इसे किफ़ायती तरीक़े से सूचना इकट्ठा करने के फ़ायदे के तौर पर देख सकती हैं जहां संरचना और एल्गोरिदम के साथ किसी व्यक्ति की निगरानी होती है. लेकिन इस तरह के डाटा को इकट्ठा करने की लागत उस वक़्त कई गुना बढ़ जाती है जब नागरिकों को ये नियंत्रण दिया जाता है कि किस सूचना को साझा करना है. इसी तरह प्रदान करने वाला भी नियंत्रण का अधिकार छोड़ने या उपभोक्ताओं की सूचना पर नियंत्रण रखने के बीच सामंजस्य बिठाता है. स्पष्ट नियमों और निजता संरक्षण की अनुपस्थिति मे सूचना नियंत्रण को हथियार बनाया जा सकता है जो किसी यूज़र की प्राथमिकता के लिए नुक़सानदेह होता है. 

मशीन में गड़बड़ी

अब ये भी काफ़ी हद तक साफ़ है कि एल्गोरिदम अक्सर ग़लत होते हैं. ये हैरानी की बात नहीं है कि मौजूदा एल्गोरिदम पक्षपात से भरे होते हैं और अल्पसंख्यकों के अधिकारों के साथ मेल नहीं खाते हैं. वास्तव में नस्ल और लिंग के जो पक्षपात ऑफलाइन होते हैं वो डिजिटल रूप में भी बदल जाते हैं. टिमनित गेबरू, जिन्हें गूगल से निकाला गया था, ने अपनी रिसर्च के ज़रिए एल्गोरिदम के भीतर संस्थागत और संरचनात्मक लैंगिक पक्षपात की चेतावनी दी थी. अपने एक रिसर्च पेपर में वो दिखाती हैं कि किस तरह फेशियल रिकॉग्निशन सॉफ्टवेयर में काले रंग की महिलाओ के लिए ग़लती की दर 34 प्रतिशत से ज़्यादा है जबकि गोरे रंग के पुरुषों के लिए सिर्फ़ 0.8 प्रतिशत. 

तकनीक के भीतर इस तरह की राजनीतिक वास्तविकताएं ज्ञान और व्यवहार से जुड़े पक्षपातों को सिर्फ़ बढ़ाएंगी. जब इस तकनीक को विकासशील देशों में लागू किया जाए तो ये देखना मुश्किल नहीं है कि क्यों इस तरह की तकनीक की उल्टी प्रतिक्रिया हो सकती है और कमज़ोर लोगों पर इसका असर होता है. व्यवहारवादी वैज्ञानिक सेंधिल मुल्लईनाथन के एक ताज़ा अध्ययन में दिखाया गया है कि कैसे अस्पतालों के एआई एल्गोरिदम में अश्वेत मरीज़ों के ख़िलाफ़ पक्षपात फैला हुआ है. अध्ययन में निर्णायक रूप से दिखाया गया है कि कैसे मरीज़ के जटिल इलाज़ों को सौंपने के लिए निर्धारित करने वाले एल्गोरिदम के द्वारा अश्वेत मरीज़ों के ऊपर श्वेत मरीज़ों को प्राथमिकता देने की संभावना ज़्यादा है. इस तरह के नस्लीय पक्षपातों ने संभवत: अस्पतालों में भर्ती लाखों मरीज़ों को प्रभावित किया. एल्गोरिदम का इस्तेमाल बढ़ने के साथ इस तरह की कई और घटनाएं हो सकती हैं. 

डिजिटल से बंटवारा, पक्षपात से एकता

सेंटर फॉर सोशल बिहेवियरल चेंज ने 10,000 भारतीय और केन्या के भागीदारों के बीच एक प्रयोग किया कि क्या मनाने से स्वीकृति ज़्यादा जानकारी भरी हो सकती है या वो निजता के फ़ैसलों के इर्द-गिर्द उपभोक्ताओं के व्यवहार में परिवर्तन करने में मदद कर सकते हैं. हमने पाया कि ज़ोर देकर मनाना, जिसके लिए नियामक आदेश की ज़रूरत हो सकती है, दूसरी चीज़ों के मुक़ाबले अच्छा काम करता है. इनमें स्टार रेटिंग शामिल हैं जो प्रदान करने वाले की निजता नीति या कूल डाउन अवधि का मूल्यांकन करती है जो यूज़र को किसी प्लैटफॉर्म पर निजता को लेकर फ़ैसला लेने से पहले रुकने को ज़रूरी बनाती है. डिफॉल्ट प्राइवेसी सेटिंग को नियंत्रित करना भी काम आता है क्योंकि अक्सर यूज़र डिफॉल्ट सेटिंग पर कायम रहते हैं. दूसरी तरफ़ हमने पाया कि यूज़र को ज़्यादा सावधान रहने या निजता नीति को आसान बनाने की सिर्फ़ जानकारी देना कम असरदायक तरीक़ा है. हमारे नतीजे इस तथ्य की ओर इशारा करते हैं कि खुला बाज़ार या उपभोक्ताओं के द्वारा अपने अच्छे फ़ैसले पर आधारित स्वयं नियंत्रण निजता की सुरक्षा करने में मदद नहीं कर सकता है. ये हमें निजता की सुरक्षा करने वाली नियामक रूप-रेखा की भूमिका के लिए दलील पेश करने पर छोड़ता है जो इस तरह के हस्तक्षेप को थोप सकता है. 

मशीन और इंसान के बीच के संघर्ष का समाधान करने का रास्ता ऑनलाइन अनुकूनलीय नियामक नियंत्रण का आह्वान करना है. इस तरह के नियंत्रण में न सिर्फ़ व्यवहारवादी दृष्टिकोण की ज़रूरत पड़ेगी बल्कि उत्तरदायित्व बढ़ाने के लिए मानवाधिकार आधारित पद्धति को भी ध्यान में रखना होगा. 

नियंत्रण की भूमिका

एल्गोरिदम के मुख्य भूमिका में आने के साथ ऑनलाइन पसंद को नियंत्रित करने की लड़ाई में ज़िम्मेदार और लोकतांत्रिक संस्थान उपभोक्ताओं की सुरक्षा में मदद कर सकते हैं. हमारे संघर्ष के नये स्थानों की चुनौतियों के लिए मूलभूत है नियंत्रण के लिए ज़रूरत जो तकनीक में आधुनिकता के साथ क़दम-ताल कर सकते हैं. एल्गोरिदम के अनैतिक पक्ष के ख़िलाफ़ सुरक्षा के लिए स्वीकृति की मौजूदा प्रणाली अप्रभावशाली बन गई है क्योंकि मौजूदा संरचना यूज़र को शक्तिहीन बनाती हैं. मात्रा और जटिलता को देखते हुए ख़राब आर्टिफिशियल इंटेलिजेंस को रोकने की कोशिश के तहत ऐसा भी अर्थ निकाला जा सकता है कि जांच-परख करने वाला कोई अच्छा आर्टिफिशियल इंटेलिजेस तैनात करके पक्षपात को ख़त्म किया जाए. 

मशीन और इंसान के बीच के संघर्ष का समाधान करने का रास्ता ऑनलाइन अनुकूनलीय नियामक नियंत्रण का आह्वान करना है. इस तरह के नियंत्रण में न सिर्फ़ व्यवहारवादी दृष्टिकोण की ज़रूरत पड़ेगी बल्कि उत्तरदायित्व बढ़ाने के लिए मानवाधिकार आधारित पद्धति को भी ध्यान में रखना होगा. काफ़ी हद तक जनरल डाटा प्रोटेक्शन रेगुलेशन (जीडीपीआर) की तरह यूरोपीय संघ (ईयू) ने आर्टिफिशियल इंटेलिजेंस को नियंत्रित करने और पक्षपातहीन बनाने के लिए ज़मीनी काम पहले ही शुरू कर दिया है. थेसियस (एथेंस का राजा) का जहाज़ मशीनों की जगह आर्टिफिशियल एल्गोरिदम से बन सकता है लेकिन ये निश्चित रूप से एक धीरे-धीरे बढ़ने वाला ट्रोजन हॉर्स (कंप्यूटर का मालवेयर) बना रहेगा जो स्वायत्तता और पसंद को नष्ट करता रहेगा. 

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.