Author : Ameen Jauhar

Published on Oct 21, 2021 Updated 0 Hours ago

उत्तरदायी और नैतिक आर्टिफ़िशियल इंटेलिजेंस भरोसे के मूलभूत ढांचे पर आधारित है; ये ज़रूरी है कि जवाबदेही और प्रशासनिक ढांचों में पारदर्शिता लायी जाए और पारदर्शिता के लिए निगरानी और संतुलन की व्यवस्था बनानी ज़रूरी है.

क़ानून-व्यवस्था में फेशियल रिकॉग्निशन का इस्तेमाल: ‘ज़िम्मेदार आर्टिफ़िशियल इंटेलिजेंस’ के क्षेत्र में भारत की प्रतिबद्धता का इम्तिहान!

वर्ष 2019 में राष्ट्रीय अपराध रिकॉर्ड ब्यूरो (NCRB) ने देश भर में स्वचालित फेशियल रिकॉग्निशन सिस्टम (AFRS) स्थापित करने के लिए सार्वजनिक रूप से प्रस्ताव भेजने की अधिसूचना (RFP) जारी की थी. बाद में NCRB को जारी किए गए एक क़ानूनी नोटिस में ये अधिसूचना वापस लेने की मांग की गई थी. ब्यूरो ने इस क़ानूनी नोटिस को देखते हुए कुछ हद तक अपने पैर पीछे खींचे थे. प्रस्ताव भेजने की सूचना को वापस तो ले लिया गया था, मगर इसे रद्द नहीं किया गया; पिछले साल जून में प्रस्ताव मंगाने की एक संशोधित अधिसूचना जारी की गई. नेशनल क्राइम रिकॉर्ड्स ब्यूरो द्वारा प्रस्ताव मांगने के लिए जारी की गई दोनों ही अधिसूचनाओं की तमाम ख़ामियों में से सबसे निराशाजनक तो वो इकतरफ़ा तरीक़ा है, जिसके तहत इस प्रक्रिया को आगे बढ़ाया जा रहा है. आज की तारीख़ तक भारत के क़ानूनों में ऐसी कोई व्यवस्था नहीं है, जिसमें स्वचालित फेशियल रिकॉग्निशन तकनीकों (AFRTs) के इस्तेमाल की मंज़ूरी, इनके नियमन और इनके क़ानूनी सबूत के तौर पर इस्तेमाल होने की व्यवस्था नहीं है. यानी हमारी घरेलू क़ानून व्यवस्था की प्रक्रियाओं और आपराधिक न्याय व्यवस्था के ढांचे में स्वचालित रूप से चेहरे की पहचान करने से जुड़ा कोई क़ानून है नहीं. इसमें अगर हम सबूतों के आधार पर निर्णय लेने से जुड़ी शर्तों को जोड़ दें, तो ऑटोमेटिक फेशियल रिकग्निशन तकनीक को बस इसी प्रशासनिक सोच के साथ आगे बढ़ाया जा रहा है कि ये एक बेहतर और ज़्यादा कारगर व्यवस्था है. हालांकि, ऐसा कोई निष्पक्ष तरीक़ा है नहीं, जिससे ये समझा जा सके कि इन तकनीकों के बेहतर होने का आकलन किस आधार पर किया जा रहा है. न ही, हम ये जानने की स्थिति में हैं कि इनके इस्तेमाल से नागरिकों के किन अधिकारों और स्वतंत्रताओं व तय क़ानूनी प्रक्रिया का हनन होगा. यहां इस बात का ज़िक्र करना भी उचित होगा कि चेहरे की शिनाख़्त की ये स्वचालित तकनीकें (AFRTs) न केवल राष्ट्रीय स्तर पर अपनाने की कोशिश हो रही है, बल्कि कई राज्यों की पुलिस भी किसी न किसी रूप में इनका इस्तेमाल कर रही हैं.

हमारी घरेलू क़ानून व्यवस्था की प्रक्रियाओं और आपराधिक न्याय व्यवस्था के ढांचे में स्वचालित रूप से चेहरे की पहचान करने से जुड़ा कोई क़ानून है नहीं. 

राज्य स्तर पर तो इनकी प्रक्रिया और वैधानिकता और भी सवालों के घेरे में है. पिछले छह महीनों के दौरान, सूचना के अधिकार के तहत जानकारियां जुटाने की लंबी चौड़ी कोशिश के दौरान, हमने चार राज्यों की पुलिस द्वारा AFRT तकनीक के इस्तेमाल को लेकर जानकारी जुटाने की कोशिश की. इस दौरान हमने- पंजाब, दिल्ली, हैदराबाद और मुंबई पुलिस द्वारा इन तकनीकों के इस्तेमाल से जुड़े सवाल पूछे. जब हमने ये पूछा कि आख़िर पुलिस ने कैसे इस तकनीक को अपनाने का फ़ैसला किया? या फिर, क्या फेशियल रिकॉग्निशन तकनीक अपनाने से जुड़े फ़ैसले लेने के लिए अंदरूनी स्तर पर आधिकारिक निर्देश जारी किए गए थे? लेकिन हमें इन सवालों के कोई जवाब नहीं मिले. दिल्ली पुलिस इकलौती संस्था थी, जिसने कम से कम से आंशिक तौर पर कुछ जानकारियां हमें दीं. जबकि मुंबई और पंजाब की पुलिस ने तो कोई जवाब ही नहीं दिया. ये हाल तब है जब पंजाब की पुलिस, पिछले कई वर्षों से पंजाब आर्टिफ़िशियल इंटेलिजेंस सिस्टम (PAIS) का इस्तेमाल कर रही है. जबकि इस पर निगरानी की कम से कम ऐसी कोई व्यवस्था हमें नहीं दिखी, जिसके बारे में जानकारी सार्वजनिक तौर पर उपलब्ध हो.

हमारे इन प्रयासों से एक बात बिल्कुल साफ़ हो जाती है कि इन तकनीकों पर आधारित व्यवस्था को किस तरह बनाया और इस्तेमाल किया जा रहा है, उसे लेकर न तो कोई पारदर्शिता है और न ही कोई जवाबदेही. ये हाल तब है, जब दुनिया के कई जाने माने रिसर्चरों और आर्टिफ़िशियल इंटेलिजेंस में नैतिकता की वकालत करने वालों ने AFRT तकनीक के पुलिस के कामकाज में सटीक और कुशल इस्तेमाल को लेकर सवाल खड़े किए हैं. भारत के लिए तो ख़ास तौर से और चिंता की बात है कि ये तकनीकी व्यवस्थाएं, पहले से ही जटिल और पक्षपातपूर्ण आपराधिक न्याय व्यवस्था में शामिल की जा रही हैं. जबकि न तो इनकी कोई निगरानी हो रही है और न ही पड़ताल. ये भारत के एक जवाबदेह आर्टिफ़िशियल इंटेलिजेंस के अपने ही विचारों से उलट स्थिति है. एक उत्तरदायी और नैतिक आर्टिफ़िशियल इंटेलिजेंस व्यस्था, भरोसे के मूलभूत ढांचे पर आधारित होती है; ये ज़रूरी है कि जवाबदेही और प्रशासनिक ढांचों में पारदर्शिता लायी जाए, और पारदर्शिता के लिए निगरानी और संतुलन की व्यवस्था बनानी ज़रूरी है.

दिल्ली पुलिस इकलौती संस्था थी, जिसने कम से कम से आंशिक तौर पर कुछ जानकारियां हमें दीं. जबकि मुंबई और पंजाब की पुलिस ने तो कोई जवाब ही नहीं दिया. ये हाल तब है जब पंजाब की पुलिस, पिछले कई वर्षों से पंजाब आर्टिफ़िशियल इंटेलिजेंस सिस्टम (PAIS) का इस्तेमाल कर रही है.

भारत की क़ानून-व्यवस्था में फ़ेशियल रिकॉग्निशन तकनीक का इस्तेमाल, अपारदर्शी होने के साथ साथ संवैधानिक और क़ानूनी चुनौतियां भी खड़ी करता है. इस साल नीति आयोग द्वारा प्रकाशित किए गए, जवाबदेह वाले आर्टिफ़िशियल इंटेलिजेंस के सिद्धांतों और AI के सुरक्षित और नैतिकता भरे इस्तेमाल को लेकर सरकार की सार्वजनिक घोषणाएं, साफ़ तौर पर इन तकनीकों के इस्तेमाल में ‘संवैधानिक नैतिकता’ को आधार बनाने की बात करती हैं. इसका मतलब ये है कि भारत में AI का किसी भी तरह से इस्तेमाल, संविधान के तहत आम जनता को मिले अधिकारों और स्वतंत्रताओं के दायरे के भीतर ही होना चाहिए.

तीन बड़े चिंताजनक सवाल 

हालांकि, ऑटोमैटिक फेशियल रिकॉग्निशन तकनीक के इस्तेमाल को लेकर तीन बड़े चिंताजनक सवाल खड़े होते हैं. पहला तो ये कि इस तकनीक से पुलिस और सरकार की अन्य एजेंसियों को ऐसी आधुनिक व्यवस्था मिल जाती है, जिससे वो कुछ ख़ास लोगों को निशाना बना सकते हैं. मिसाल के तौर पर आप ऐसी ख़बरों की बढ़ती तादाद को लें, जहां फेशियल रिकॉग्निशन तकनीक का दायरा बढ़ता दिखा है. दिल्ली में इस तकनीक का इस्तेमाल- जहां घोषित तौर पर तो लापता बच्चों की तलाश के लिए हो रहा है- वहां इसका इस्तेमाल शाहीन बाग़ में नागरिकता संशोधन क़ानून का विरोध करने वालों की पहचान करने के लिए भी हुआ. प्रदर्शनकारियों की पहचान करने की ऐसी मिसालें हमने 2019 में हॉन्ग कॉन्ग में लोकतंत्र समर्थक विरोध प्रदर्शनों और पिछले साल अश्वेतों के अधिकारों को लेकर हुए ब्लैक लाइव्स मैटर आंदोलन के दौरान भी देखी थीं. हो सकता है कि क़ानून व्यवस्था बिगाड़ने की साज़िशें सफल होने से रोकने के लिए इस तकनीक का इस्तेमाल ज़रूरी हो. लेकिन, इस तकनीक से विरोध की आवाज़ को कुचला भी तो जा सकता है. अगर हम इन इसमें नई तकनीक के इस्तेमाल को लेकर जवाबदेही की कमी को भी जोड़ दें, तो विरोध और विपक्ष को कुचलने में इन तकनीकों के इस्तेमाल का ख़तरा असली और काफ़ी बड़ा हो जाता है.

भारत के लिए तो ख़ास तौर से और चिंता की बात है कि ये तकनीकी व्यवस्थाएं, पहले से ही जटिल और पक्षपातपूर्ण आपराधिक न्याय व्यवस्था में शामिल की जा रही हैं. जबकि न तो इनकी कोई निगरानी हो रही है और न ही पड़ताल.

निजता से जुड़ी चिंताएं

दूसरी बड़ी चिंता ये है कि किसी भी सरकारी निगरानी व्यवस्था में नागरिकों की निजता से जुड़ी चिंताएं अपने आप खड़ी हो जाती हैं. पेगासस सॉफ्टवेयर के इस्तेमाल के आरोपों को लेकर अभी हाल ही में हुआ हंगामा साफ़ तौर पर ये इशारा करता है कि सरकार की इजाज़त से होने वाली निगरानी का किसी आम नागरिक के ख़िलाफ़ किस तरह बेज़ा इस्तेमाल हो सकता है. ऑटोमैटिक फेशियल रिकॉग्निशन तकनीकों के आने के बाद, लोगों के बायोमेट्रिक और निजी डेटा की मदद से उनके बारे में एक एल्गोरिद्म तैयार करने का ख़तरा तो बढ़ ही गया है. इसमें अगर हम लगातार निगरानी से बनने वाले डिजिटल इकोसिस्टम को भी जोड़ दें, तो ये तकनीक किसी व्यक्ति की निजता की राह में गंभीर चुनौतियां खड़ी कर सकती है. डेटा संरक्षण का नियमन करने वाले किसी क़ानून के अभाव में नागरिकों की निजता के लिए ये ख़तरा और भी बड़ा हो जाता है. हालांकि, 2019 के पर्सनल डेटा प्रोटेक्शन विधेयक के ड्राफ्ट में इस बारे में कुछ रियायतें सरकार को दी गई हैं कि वो तफ़्तीश के अधिकार का इस्तेमाल कर सकती है. तो, अगर प्रस्तावित विधेयक पास होकर क़ानून के रूप में लागू भी हो जाता है, तो भी AFRTs या इसी तरह की अन्य तकनीकों का निगरानी के लिए इस्तेमाल करने पर नियंत्रण या नियमन को लेकर गंभीर सवाल खड़े होते हैं.

क़ानून व्यवस्था से जुड़ी एजेंसियों द्वारा ऑटोमैटिक फ़ेशियल रिकॉग्निशन तकनीक के इस्तेमाल से जो तीसरी और आख़िरी संवैधानिक चुनौती खड़ी होती है, वो है, संविधान के अनुच्छेद 21 के तहत मिले तय प्रक्रिया के अधिकार का संभावित रूप से दुरुपयोग.

संवैधानिक चुनौती

क़ानून व्यवस्था से जुड़ी एजेंसियों द्वारा ऑटोमैटिक फ़ेशियल रिकॉग्निशन तकनीक के इस्तेमाल से जो तीसरी और आख़िरी संवैधानिक चुनौती खड़ी होती है, वो है, संविधान के अनुच्छेद 21 के तहत मिले तय प्रक्रिया के अधिकार का संभावित रूप से दुरुपयोग. वाजिब प्रक्रिया को प्रक्रिया से जुड़े संरक्षण और इकतरफ़ा क़दम उठाने के ख़िलाफ़ व्यापक अधिकार के तौर पर देखा जाता है. हालांकि इस वक़्त जिस तरह से पुलिस और क़ानून व्यवस्था से जुड़ी अन्य एजेंसियां  AFRTs का इस्तेमाल कर रही हैं, और जिस अपारदर्शी तरीक़े से इनके बारे में फ़ैसले लिए जा रहे हैं, उन्हें तय प्रक्रिया की नज़र से देखें, तो कई गंभीर प्रश्न खड़े होते हैं. चेहरे से शिनाख़्त की इन स्वचालित तकनीकों की भूमिका, इस्तेमाल और नियंत्रण कम से कम अभी तो पूरी तरह से सरकारी नियंत्रण में है. न तो इस पर जनता की किसी तरह से निगरानी है और न ही सार्वजनिक रूप से पारदर्शिता की समीक्षा करने की कोई व्यवस्था है. आपराधिक तफ़्तीशों में इन तकनीकों का इस्तेमाल करने, या फिर किसी घटना को रोकने के लिए इनका निगरानी में इस्तेमाल करने और ‘राष्ट्रीय सुरक्षा’ से जुड़े बड़े ख़तरों को नाकाम करने के लिए निगरानी और रोकथाम की एक व्यवस्था तो ज़रूरी है.

 पेगासस सॉफ्टवेयर के इस्तेमाल के आरोपों को लेकर अभी हाल ही में हुआ हंगामा साफ़ तौर पर ये इशारा करता है कि सरकार की इजाज़त से होने वाली निगरानी का किसी आम नागरिक के ख़िलाफ़ किस तरह बेज़ा इस्तेमाल हो सकता है.  

इन मुद्दों के साथ-साथ, सवाल AFRT की जवाबदेही का भी है. हो सकता है कि ये तकनीक ग़लत इंसान की पहचान कर लें, या फिर काम ही न करें. व्यवहारिक तौर पर कहें, तो पुलिस व्यवस्था का हिस्सा होने के चलते ये जोखिम किसी नागरिक की निजता और आज़ादी को काफ़ी नुक़सान पहुंचाने वाले हो सकते हैं. सच तो ये है कि ये महज़ काल्पनिक चिंताएं नहीं हैं. बल्कि, अमेरिका में तो ख़ास तौर से अश्वेत लोगों से जुड़े मामलों में ऐसा होते हुए देखा गया है. जब भी ऐसी घटनाएं होती हैं, तो फिर इसके लिए किसे ज़िम्मेदार माना जाएगा? ऐसी तकनीक इस्तेमाल करने वाली सरकार (या उसकी एजेंसियों को), या फिर ऐसी तकनीकों का विकास करने वालों को. जिन्हें उनकी तकनीक की ख़ामियों का ज़िम्मेदार ठहराया जाएगा. ऑटोमैटिक फेशियल रिकॉग्निशन तकनीक, हमारे देश की पुलिस और क़ानून व्यवस्था में और गहरी जड़ें जमाए, उससे पहले इन सवालों पर गंभीरता से विचार करने की ज़रूरत है. वरना हम उस पुरानी कहावत की मिसाल बनकर रह जाएंगे, जहां ‘क़ानून, तकनीक के पीछे पीछे भागेगा’ और दोनों के बीच लुका-छिपी चलती रहेगी.

ज़्यादातर अन्य तकनीकी उपायों के साथ होता है, AFRT के क़ानून व्यवस्था में बढ़ते इस्तेमाल से ऑटोमेशन को लेकर उस पूर्वाग्रह को भी बढ़ावा मिलेगा, जिसके तहत ये माना जाता है कि कोई भी ऑटोमेटेड सिस्टम, एनालॉग से तो बेहतर ही होता है.

क्या इससे पूर्वाग्रह को भी बढ़ावा मिलेगा?

आख़िर में, जैसा कि ज़्यादातर अन्य तकनीकी उपायों के साथ होता है, AFRT के क़ानून व्यवस्था में बढ़ते इस्तेमाल से ऑटोमेशन को लेकर उस पूर्वाग्रह को भी बढ़ावा मिलेगा, जिसके तहत ये माना जाता है कि कोई भी ऑटोमेटेड सिस्टम, एनालॉग से तो बेहतर ही होता है. हालांकि, अगर हम ऐसे सिस्टम की क्षमता (कुशलता की नहीं) का मूल्यांकन करें, तो ये केवल प्रक्रिया को तेज़ करने का मामला नहीं है. किसी भी तकनीक के इस्तेमाल को बढ़ावा देने से पहले उसकी उपयोगिता को लेकर एक व्यापक और निष्पक्ष रूप से समीक्षा होनी चाहिए. जिससे ये पता लग सके कि इसका क़ानून व्यवस्था के लिए ज़िम्मेदार एजेंसियों पर क्या असर पड़ेगा, और उससे भी अहम बात ये कि इसका हमारे समाज पर कैसा प्रभाव होगा. ये व्यापक निर्धारण इस बात के मूल्यांकन के लिए अहम होगा कि ये विवादित तकनीक, उस जवाबदेह और नैतिक आर्टिफ़िशियल इंटेलिजेंस के इम्तिहान में खरी उतरनी भी है या नहीं, जिसके प्रति भारत ने अपनी प्रतिबद्धता जताई है.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.