-
CENTRES
Progammes & Centres
Location
अदालती कार्रवाइयों में जब AI का इस्तेमाल किया जाता है, तो उसके कई ख़तरे पैदा होते हैं. सख़्त सुरक्षा उपायों और इंसानी निगरानी के बिना इसके प्रयोग से न्याय, विश्वसनीयता और नैतिकता के बीच संतुलन बनाना मुश्किल हो जाता है.
Image Source: Getty Images
कृत्रिम बुद्धिमत्ता, यानी आर्टिफिशियल इंटेलिजेंस (AI) भ्रम का अर्थ उन मामलों से है, जिनमें AI द्वारा तथ्यात्मक रूप से गलत, भ्रामक या मनगढ़ंत परिणाम दिया जाता है. इन नतीजों में संभावना आमतौर पर इतनी अधिक जताई जाती है कि उसके सच होने का भ्रम पैदा हो जाता है. कानून के क्षेत्र में इसके गंभीर अर्थ है. अब कानूनी क्षेत्र के पेशेवर अपने शोध-कार्य को व्यवस्थित करने, याचिकाओं का मसौदा तैयार करने और कानूनी तर्कों को जुटाने के लिए AI उपकरणों का तेज़ी से उपयोग करने लगे हैं. हालांकि, ये उपकरण बुनियादी कानूनी तर्कों के बजाय संभावित पूर्वानुमान जताते हैं, जिसके कारण वे ऐसे मामलों का भी कानूनी या न्यायिक संदर्भ बता देते हैं, जो कभी अदालत के सामने आए ही नहीं. वे उनको इतना बढ़ा-चढ़ाकर पेश करते हैं कि हक़ीक़त से अधिक सच का भ्रम पैदा हो जाता है. इसके गंभीर निहितार्थ निकल सकते हैं, जैसे कि अदालतों में काल्पनिक उदाहरण पेश किए जा सकते हैं, गलत फाइलिंग हो सकती है और वकील बनी-बनाई नैतिक व कानूनी मान्यताओं के उलट काम कर सकते हैं.
AI इसलिए भ्रम पैदा करता है, क्योंकि उसके प्रशिक्षण में गलत या पक्षपाती आंकड़े प्रयोग किए गए होते हैं. उसमें वास्तविक दुनिया के कानूनी तथ्य सही से इस्तेमाल नहीं किए जाते. फिर, बड़े भाषा मॉडल (LLM) की अपनी सीमाएं भी होती हैं, जो तथ्यों को पुष्ट करने से अधिक महत्व पाठ्य-सामग्री को समझने योग्य बनाने पर देता है. शब्दों का संदर्भ के मुताबिक अलग-अलग अर्थ होने से भी गलतियां होती हैं, क्योंकि AI मॉडल परिस्थिति के मुताबिक अर्थों की सही व्याख्या नहीं कर पाता. लिखित संग्रहों को लेकर पूर्वाग्रह भी इसकी एक बड़ी वज़ह है, क्योंकि कुछ मामलों में AI को अधूरी या पुरानी कानूनी किताबों से प्रशिक्षित किया गया होता है. इसका एक उल्लेखनीय उदाहरण ओपनAI की रिपोर्ट में भी मिलता है, जिसमें पता चला है कि उसके नए मॉडल- o3 और o4 मिनी ने प्रश्न-उत्तर (Q&A) के परीक्षण के दौरान क्रमशः 33 प्रतिशत और 48 प्रतिशत मामलों में भ्रम पैदा किया. चिंताजनक यह है कि भ्रम के बढ़ने की वज़ह अब भी पूरी तरह साफ़ नहीं हो सकी है.
जब AI भ्रम को बिना जांचे-परखे अदालत में इस्तेमाल किया जाता है, तो अनुभवी वकील भी इससे गुमराह हो सकते हैं, न्यायिक कार्रवाइयों में जनता का विश्वास कमज़ोर पड़ सकता है और वकीलों को दंड का सामना करना पड़ सकता है.
कानूनी क्षेत्र सटीकता, साक्ष्य और नैतिक ज़िम्मेदारी की मांग करता है. वहां AI से मिलने वाले सांख्यिकीय अनुमानों के अपने ख़तरे हैं, जिसका जोखिम नहीं उठाया जा सकता. AI उपकरणों में उन तर्कों और कानूनी फ़ैसलों का अभाव होता है, जिनका इस्तेमाल वकील जिरह के दौरान अपने कानूनी तर्कों को साबित करने के लिए करते हैं. जब AI भ्रम को बिना जांचे-परखे अदालत में इस्तेमाल किया जाता है, तो अनुभवी वकील भी इससे गुमराह हो सकते हैं, न्यायिक कार्रवाइयों में जनता का विश्वास कमज़ोर पड़ सकता है और वकीलों को दंड का सामना करना पड़ सकता है. इसलिए, AI भ्रम के तकनीकी और नैतिक आयामों को समझना ज़रूरी है, ताकि कानूनी AI उपकरणों का इंसानों की निगरानी में ज़िम्मेदारी से इस्तेमाल हो सके, उनके तथ्यों को पुष्ट किया जा सके और प्रशिक्षण का प्रोटोकॉल सख़्त बनाया जा सके.
विश्व में तमाम देशों में सामने आ रही घटनाएं बता रही हैं कि यह एक गंभीर मसला है. भारत में आयकर अपीलीय न्यायाधिकरण (ITAT) की बेंगलुरु पीठ को बकआई ट्रस्ट बनाम PCIT-1 बेंग्लोर मामले में कर संबंधी अपना फ़ैसला वापस लेना पड़ा, क्योंकि यह पाया गया कि यह आदेश जिन फ़ैसलों के आधार पर सुनाया गया था, वह AI उपकरण द्वारा पैदा किए गए काल्पनिक मामले थे. इसका अर्थ है कि जिन फ़ैसलों का ज़िक्र आदेश सुनाते वक्त किया गया था, वे कभी अदालत के सामने आए ही नहीं थे. नतीजतन, आदेश को तुरंत वापस लेना पड़ा. यह उदाहरण अपुष्ट AI नतीजों पर निर्भर रहने के ख़तरे बताता है.
इसी तरह, ब्रिटेन में हाईकोर्ट ऑफ जस्टिस किंग्स बेंच डिवीजन ने अपनी ‘मौलिक शक्तियों’ (जो उसे अदालती कार्रवाइयों को कानूनी रूप से व्यवस्थित करने और वकीलों के कर्तव्यों को लागू कराने के लिए मिली हुई हैं) का उपयोग करते हुए इस बात पर चिंता जताई कि वकील जेनरेटिव AI से मिलने वाले नतीजों को सही तरीके से पुष्ट किए बिना उनका प्रयोग कर रहे हैं. किंग्स बेंच डिवीजन की अध्यक्ष डेम विक्टोरिया शार्प ने जनता के विश्वास को प्राथमिकता देने की बात कही और न्यायिक अखंडता पर इससे पड़ने वाले ख़तरे पर चिंता जताई. उन्होंने कानूनी संस्थानों से सख़्त पेशेवर व नैतिक सिद्धांतों के पालन करने का भी आग्रह किया और ऐसा नहीं करने पर पेशेवरों को सरेआम फटकार लगाने से लेकर अदालती अवमानना का सामना करने तक की चेतावनी दी. ऐसे वकीलों पर प्रतिबंध लगाने की बात भी उन्होंने कही.
अमेरिका में भी वड्सवर्थ बनाम वॉलमार्ट इंक. मामले में तीन वकीलों पर इसीलिए प्रतिबंध लगा दिया गया, क्योंकि उन्होंने अपनी कंपनी के AI प्लेटफॉर्म MX2.law द्वारा बनाए गए आठ काल्पनिक मामलों का हवाला दिया था. सुधार के कदम उठाने के बावजूद, अदालत ने इस बात पर ज़ोर दिया कि कानूनी स्रोतों को सत्यापित करने की ज़िम्मेदारी खुद व्यक्ति की होनी चाहिए, किसी दूसरे की नहीं और AI उपकरणों पर आंख मूंदकर निर्भर रहना पेशेवर मानकों का उल्लंघन है. ये मामले बताते हैं कि AI का किस हद तक दुरुपयोग हो सकता है. इनको सिर्फ़ तकनीकी ख़ामी नहीं कहा जा सकता, बल्कि ये मामले कानूनी जांच-पड़ताल और नैतिक सिद्धांतों व दिशा-निर्देशों के पालन में कोताही से भी जुड़े हैं. जैसे-जैसे AI उपकरण अधिक बेहतर और सुलभ होते जा रहे हैं, उनका जानबूझकर या अनजाने में किया गया दुरुपयोग कानूनी विश्वसनीयता, अदालती प्रक्रियाओं और मुवक्किल के भरोसे को गंभीर रूप से चोट पहुंचा सकता है.
जैसे-जैसे AI उपकरण अधिक बेहतर और सुलभ होते जा रहे हैं, उनका जानबूझकर या अनजाने में किया गया दुरुपयोग कानूनी विश्वसनीयता, अदालती प्रक्रियाओं और मुवक्किल के भरोसे को गंभीर रूप से चोट पहुंचा सकता है.
इसीलिए, AI नतीजों को ईमानदारी से पुष्ट किए बिना उसके अनियंत्रित उपयोग से कानूनी दक्षता बेहतर बनाने की AI की बदलावकारी क्षमता प्रभावित हो सकती है, और विश्व स्तर पर न्याय व्यवस्था में रुकावटें पैदा हो सकती हैं. इससे बचने के लिए दुनिया भर में जवाबदेही, प्रशिक्षण और नियामक ढांचा बनाना महत्वपूर्ण होगा.
भारत में पहले से ही ऐसी नीतियां मौजूद हैं, जो AI भ्रम की मौजूदा समस्या को कम करने में सहायक हो सकती हैं. नीति आयोग का ‘रिस्पॉन्सिबल AI- अप्रोच डॉक्यूमेंट, पार्ट-1’ (2021) AI के विकास और उसके इस्तेमाल के लिए कुछ प्रमुख सिद्धांतों की वकालत करता है- जैसे, सुरक्षा और विश्वसनीयता, जवाबदेही और पारदर्शिता. यह दस्तावेज़ AI नतीजों का भरोसेमंद बनाने और उसके द्वारा होने वाले नुकसान को कम-से-कम करने के लिए AI तंत्र की गलतियों के परीक्षण और उस पर लगातार निगरानी को अनिवार्य बनाने पर ज़ोर देता है. इसका जवाबदेही सिद्धांत AI से पड़ने वाले प्रभावों के लिए सभी पक्षों को जिम्मेदार बनाने की बात कहता है, जबकि पारदर्शिता के लिए दस्तावेज़ीकरण और किसी तीसरे पक्ष द्वारा ऑडिट करने की व्यवस्था अपनाने की मांग करता है. यह AI भ्रम के ख़तरों को कम करने के एक बुनियादी ढांचे के रूप में काम कर सकता है.
कानूनी क्षेत्र में AI भ्रम से निपटने के लिए ज़रूरी है कि AI मॉडल विकसित करने वाले डेवलपर्स, उसे इस्तेमाल करने वाले लोग अथवा संस्थाएं, अदालतें, कानूनी संघ और पेशेवरों को शामिल करते हुए एक सहयोगात्मक नज़रिया बनाया जाए. इसमें सबसे पहला काम यह होना चाहिए कि डेवलपर अपने मॉडल में डेटा की मात्रा बढ़ाने की तुलना में उसकी गुणवत्ता को बेहतर बनाने पर ज़ोर दें और यह तय करें कि प्रशिक्षण वाले डेटासेट अलग-अलग मिज़ाज के हों और वे मौजूदा व आधिकारिक कानूनी स्रोतों से लिए गए हों. इसी तरह, पारदर्शिता पर ज़ोर देते हुए AI सिस्टम को इस तरह विकसित किया जाए कि उसके मॉडल, डेटा स्रोत और प्रदर्शन संबंधी मानकों के बारे में साफ़-साफ़ पता चल सके. कानूनी AI उपकरणों का लगातार ऑडिट किया जाना चाहिए, उससे पूर्वाग्रह हटाए जाने चाहिए और उसकी डेटा क्लीनिंग होती रहनी चाहिए, साथ ही इसके नतीजे सार्वजनिक मंचों पर प्रकाशित किए जाने चाहिए. AI उपकरण से प्राप्त नतीजे तात्कालिक समय के डेटा के साथ मिलान किए जाने चाहिए, जो सत्यापित कानूनी डेटाबेस से जुड़े होने चाहिए. इससे उपयोगकर्ता जानकारी के स्रोतों का पता लगा सकते हैं.
कानूनी दस्तावेज़ों में यदि AI का इस्तेमाल हुआ है, तो उसे अनिवार्य रूप से बताने की व्यवस्था अदालतों को बनानी चाहिए, जिससे पारदर्शिता को संस्थागत रूप मिल सकेगा.
इन सबके अलावा, कानूनी दस्तावेज़ों में यदि AI का इस्तेमाल हुआ है, तो उसे अनिवार्य रूप से बताने की व्यवस्था अदालतों को बनानी चाहिए, जिससे पारदर्शिता को संस्थागत रूप मिल सकेगा. ऐसा अमेरिकी न्यायाधीशों के हालिया आदेशों में देखा भी गया है. लॉ फर्म और अदालतें अपने लिए ऐसे नियम तय कर सकती हैं, जिनमें AI से तैयार सामग्रियों का इंसानी सत्यापन आवश्यक हो. इसके अलावा, कानूनी पेशेवरों को AI साक्षर बनाने की भी ज़रूरत है, ताकि वे उद्धरणों की दोबारा जांच कर सकें, उनका सटीक आकलन कर सकें और गलतियां बता सकें. सोसाइटी ऑफ़ इंडियन लॉ फर्म्स जैसी कानूनी संस्थाएं या संघ आदर्श दिशा-निर्देश विकसित कर सकते हैं, ताकि यह सुनिश्चित हो सके कि कंपनियां AI का ज़िम्मेदारी पूर्ण इस्तेमाल कर रही हैं. यह ठीक वैसे ही है, जैसे अनुसंधान और उच्च शिक्षण संस्थान AI के नैतिक उपयोग के लिए दिशा-निर्देश तय करते हैं. इन नियमों का पालन करने से AI उद्योग में खुद से निगरानी की व्यवस्था बन सकेगी.
अदालतों में किसी तरह के कर्तव्यों से समझौता किए बिना AI के लाभों का फायदा उठाने के लिए, मानवीय निगरानी, नैतिक मानक और तकनीकी पारदर्शिता का एक मज़बूत ढांचा बनाना आवश्यक है. इससे न्याय विकृत नहीं हो सकेगा. हमें यह समझना ही होगा कि सिर्फ़ सजग और सतर्क रहकर ही कानूनी क्षेत्र में न्याय पाने के लिए AI का लाभ उठाया जा सकता है.
(देबज्योति चक्रवर्ती ऑब्जर्वर रिसर्च फाउंडेशन में शोध सहायक हैं)
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.
Debajyoti Chakravarty is a Research Assistant at ORF’s Center for New Economic Diplomacy (CNED) and is based at ORF Kolkata. His work focuses on the use ...
Read More +