Author : Anulekha Nandi

Published on Mar 06, 2024 Updated 3 Hours ago

AI सिस्टम के लिए कानूनी व्यक्तित्व को लेकर सवाल उठ रहे हैं. इसकी वजह ख़राब असर की आशंका और ज़िम्मेदारी निर्धारित करने एवं सुधार के उपायों की आवश्यकता है.

आर्टिफिशियल इंटेलिजेंस और व्यक्तित्व: अधिकार और दायित्व का पारस्परिक असर

आर्टिफिशियल इंटेलिजेंस (AI) एक व्यापक विषय है जिसके तहत मशीन लर्निंग से लेकर नैचुरल लैंग्वेज प्रोसेसिंग और कंप्यूटर विज़न तक कई तरह के कंप्यूटेशनल अप्रोच आते हैं. इसमें लॉजिक (तर्क), प्रोबेबिलिटी (अनुमान), मैथमेटिक्स, परसेप्शन (अनुभूति), रीज़निंग (विवेक), लर्निंग (सीख) या एक्शन (कार्रवाई) की मुश्किल परस्पर क्रिया (इंटरप्ले) के ज़रिए डेटा और इंफॉर्मेशन के इंटिग्रेशन (एकीकरण) और एनालिसिस (विश्लेषण) जैसे अलग-अलग काम आते हैं. आर्टिफिशियल इंटेलिजेंस के व्यापक कामकाज और सामान्य मक़सद के इस्तेमाल को देखते हुए इस बात की संभावना है कि वित्त, राष्ट्रीय सुरक्षा, स्वास्थ्य देखभाल, आपराधिक न्याय, परिवहन, स्मार्ट सिटी और श्रम बाज़ार जैसे अलग-अलग क्षेत्रों पर इसका परिवर्तनकारी असर पड़ सकता है. एपल के सिरी और अमेज़न के एलेक्सा से लेकर सेल्फ ड्राइविंग कार तक कमर्शियल मोबाइल एप्लिकेशन और प्रोडक्ट्स के एक बड़े दायरे में स्पीच रिकॉग्निशन, कस्टमर सर्विस, इमेज क्लासिफिकेशन और रिकमंडेशन इंजन में इस्तेमाल के साथ ये हमारे रोज़ाना की ज़िंदगी का एक व्यापक पहलू बन गया है.

हालांकि हाल के दिनों में जेनरेटिव AI का उदय दूसरी बातों के अलावा कॉपीराइट और इंटेलेक्चुअल प्रॉपर्टी (बौद्धिक संपदा), डेटा प्राइवेसी और कंज़्यूमर प्रोटेक्शन (उपभोक्ता संरक्षण), कामकाज के भविष्य और उत्पाद की सुरक्षा जैसे मुद्दों में इसके परिवर्तनकारी प्रभावों के अर्थ के बारे में गंभीर सवाल खड़ा करता है. बदले में ये AI के लिए कानूनी व्यक्तित्व (लीगल पर्सनहुड) का सवाल खड़ा करता है यानी क्या रेगुलेशन (विनियमन) के लिए AI को एक अलग कानूनी इकाई के तौर पर माना जाना चाहिए.

आर्टिफिशियल इंटेलिजेंस के व्यापक कामकाज और सामान्य मक़सद के इस्तेमाल को देखते हुए इस बात की संभावना है कि वित्त, राष्ट्रीय सुरक्षा, स्वास्थ्य देखभाल, आपराधिक न्याय, परिवहन, स्मार्ट सिटी और श्रम बाज़ार जैसे अलग-अलग क्षेत्रों पर इसका परिवर्तनकारी असर पड़ सकता है

AI के नागरिक दायित्व (सिविल लायबिलिटी) का निर्धारण AI का स्टैंडर्ड तय करने और इनोवेशन में एक महत्वपूर्ण पहलू बन गया है, ख़ास तौर पर पक्षपात की आशंका, गलत बयानी, झूठी जानकारी पैदा करने या 'हैलुसिनेशन' और मुश्किल नैतिक पहेली, जिनका सामना AI सिस्टम को करना पड़ सकता है, को लेकर चिंताओं की वजह से. MIT के मोरल मशीन प्रोजेक्ट के ज़रिए एक उदाहरण मुहैया कराया गया. मोरल मशीन प्रोजेक्ट एक ऑनलाइन सॉफ्टवेयर टूल है जिसको उन नैतिक फैसलों को लेकर लोगों का फीडबैक जमा करने के लिए तैयार किया गया है जिन्हें सेल्फ ड्राइविंग कार को लेना चाहिए. इन फैसलों में नैतिक असमंजस शामिल हैं जैसे कि एक होने वाली दुर्घटना की स्थिति में कार को किसे प्राथमिकता देनी चाहिए- अपनी सवारी को या पैदल चलने वालों को? या फिर कार को लोगों की उम्र (यानी वयस्कों की तुलना में बच्चों को प्राथमिकता) या लोगों की संख्या (एक व्यक्ति की तुलना में ज़्यादा लोगों को बचाने को प्राथमिकता) या दूसरी महत्वपूर्ण कसौटी के आधार पर प्राथमिकता देकर नतीजों का निर्धारण करना चाहिए.

आर्टिफिशियल अधिकार और रेगुलेटरी नज़रिया

अनिश्चितता और कानूनी अधिकार नहीं होने की वजह से जब बात AI की होती है तो दायित्व से निपटने के मामले में पारंपरिक दृष्टिकोण को लागू करना मुश्किल हो जाता है. इसमें ख़राब नतीजों के मामले में ज़िम्मेदारी निर्धारित करने में AI एल्गोरिदम की अपारदर्शिता या अस्पष्टता या AI आउटपुट के पीछे कैज़ुअल चेन (कारण बताने वाली श्रृंखला) का पता लगाने की असमर्थता शामिल है. ये उस समय विशेष रूप से विवादित बन जाता है जब मुद्दे ये ध्यान में रखकर तय किए जाते हैं कि क्या AI सिस्टम और मॉडल के द्वारा चुने गए विकल्प एजेंट पर निर्भर हैं. इसके बाद जेनरेटिव AI आउटपुट के आधार पर दायित्व निर्धारित करते समय ये सवाल खड़ा होता है कि एजेंट कौन है- डेवलपर (विकास करने वाला), डेप्लॉयर (इस्तेमाल में लाने वाला) या AI सिस्टम ख़ुद? ये मुद्दे मल्टी-मॉडल और मल्टी-मॉडल AI सिस्टम की स्थिति में और जटिल हो जाते हैं. इसमें व्यापक AI क्षमताओं के साथ बुनियादी AI मॉडल जैसे कि लार्ज लैंग्वेज मॉडल (LLM) को जोड़ना शामिल है और जहां AI सिस्टम क्रमश: टेक्स्ट, इमेज, साउंड और वीडियो से जुड़े अलग-अलग तरह के डेटा से जानकारी हासिल कर सकते हैं.

कानूनी विषयों में प्राकृतिक (नेचुरल) और कानूनी व्यक्ति (लीगल पर्सन)- दोनों शामिल हो सकते हैं.  यहां लीगल पर्सन का मतलब कानूनी विषय हैं जो नेचुरल पर्सन नहीं हैं यानी कंपनी. व्यक्तित्व का विचार किसी इकाई के लिए कानून के तहत काम करने, उत्तरदायी ठहराए जाने या प्रिंसिपल-एजेंट संबंध की तरह किसी दूसरे की तरफ से काम करने में भी महत्वपूर्ण बन जाता है. इनमें से आख़िरी प्रिंसिपल और एजेंट के बीच एक विशेष कानूनी संबंध माना जाता है जहां एजेंट प्रिंसिपल की तरफ से काम करता है. इसमें एजेंट के अधिकार या किस हद तक एजेंट को प्रिंसिपल की तरफ से काम करने की अनुमति है, इसको सिद्ध करना महत्वपूर्ण बन जाता है. हालांकि कानूनी अधिकार की धारणाएं और आर्टिफिशियल अधिकार का विचार ज़िम्मेदारी और दायित्वों के स्थान के आसपास प्रमुख सवाल उठाते हैं.

AI सिस्टम एंड-यूज़र तक पहुंचने से पहले कई डेवलपर, डेप्लॉयर और यूज़र के बीच जटिल सीमा पार समझौतों का प्रोडक्ट होते हैं. एक-दूसरे पर निर्भरता की इस साझेदारी के अंतरराष्ट्रीय जाल में किसी को जवाबदेह ठहराना असंभव हो सकता है.

आर्टिफिशियल अधिकार किसी सिस्टम के भीतर एक-दूसरे से जुड़े तत्वों के एक समूह से लिया गया है जो कि अपने माहौल का जवाब देते हैं और जो दूसरे एजेंट के लिए काम करते हैं जहां उसकी स्वायत्तता (ऑटोनोमी) उसका स्व-संचालन (सेल्फ-स्टीयरिंग) और स्वशासन (सेल्फ-गवर्निंग) स्वभाव से हासिल होता है. इस धारणा के भीतर आर्टिफिशियल एजेंट कानूनी विषय की जगह कानूनी वस्तु या टूल्स होंगे. इसने इस तरह के सिस्टम को एक रिस्क मैनेजमेंट दृष्टिकोण के माध्यम से एक उत्पाद दायित्व व्यवस्था (प्रोडक्ट लायबिलिटी रिजिम) के भीतर रेगुलेट (विनियमित) करने की मांग खड़ी की है. इसमें तकनीक से जुड़े ख़तरे को काबू करने या उससे निपटने में सक्षम सबसे बेहतरीन पक्ष को मुकदमेबाज़ी में अकेले एंट्री प्वाइंट के रूप में सख्ती से उत्तरदायी ठहराया जाता है. ये AI और दूसरी उभरती तकनीकों के लिए दायित्व पर व्यापक यूरोपीय दृष्टिकोण और AI को कानूनी व्यक्तित्व नहीं देने की विशेषज्ञ समूह की सिफारिश के अनुरूप है. ये सिस्टम से होने वाली हानि या नुकसान के ख़तरे के लिए डेवलपर और डेप्लॉयर को ज़िम्मेदार ठहराता है जबकि सुरक्षित ढंग से काम करने और तकनीक के रख-रखाव के लिए यूज़र (उपयोगकर्ताओं) पर भार डालता है.

हालांकि इस स्थिति के लिए अपवाद भी रहे हैं. ज़्यादातर AI सिस्टम एंड-यूज़र तक पहुंचने से पहले कई डेवलपर, डेप्लॉयर और यूज़र के बीच जटिल सीमा पार समझौतों का प्रोडक्ट होते हैं. एक-दूसरे पर निर्भरता की इस साझेदारी के अंतरराष्ट्रीय जाल में किसी को जवाबदेह ठहराना असंभव हो सकता है. इसके अलावा कुछ AI सिस्टम की अस्पष्टता और सेल्फ-लर्निंग नेचर की वजह से हानि या नुकसान का ख़तरा इस तरह से हो सकता है जो इसके डेवलपमेंट और डेप्लॉयमेंट के लिए ज़िम्मेदार लोगों को नहीं दिखता है. इस तरह किसी विशेष इकाई पर दायित्व डालना मुश्किल हो जाता है.

हालांकि AI को कानूनी व्यक्तित्व देने के लिए कानून के अलग-अलग आयामों में कई कठिन कानूनी सवालों का सामना करने की ज़रूरत भी होगी जैसे कि क्या AI को प्रॉपर्टी रखने का हक है, क्या वो कॉन्ट्रैक्ट कर सकता है या मुकदमा दायर कर सकता है या किसी मुकदमे में उसका नाम हो सकता है, क्या उसे विशेष अधिकार मिल सकते हैं और इनके अलावा दूसरी कानूनी योग्यताएं जैसे कि व्यावसायिक किरदार के रूप में ख़रीदना और बेचना या बौद्धिक संपदा रखना. इसके अलावा AI को कानूनी व्यक्तित्व प्रदान करने से AI सिस्टम के मालिक, उत्पादक या डेवलपर ज़िम्मेदारी से मुक्त हो जाएंगे. वैसे तो कानून किसी इकाई को कानूनी व्यक्तित्व प्रदान कर सकता है अगर विधायिका को लगता है कि अपने नागरिकों के अधिकारों और हितों की रक्षा के लिए ऐसा करना ज़रूरी है लेकिन आपराधिक कानून या प्राइवेसी और गैर-भेदभाव जैसे संवैधानिक अधिकारों के उल्लंघन से जुड़े कानूनी व्यक्तित्व के लिए ऐसी इकाइयों की आवश्यकता लग रही है जिन्हें उनके काम के लिए ज़िम्मेदार ठहराया जा सकता है. जब कानूनी व्यक्ति जैसे कि कंपनियों को इस तरह की शर्तों के तहत ज़िम्मेदार ठहराया जाता है तो उन्हें जेल में नहीं रखा जा सकता है लेकिन सज़ा के दूसरे तरीके लागू होते हैं जैसे कि जुर्माना लगाना, काम-काज बंद करना या कंपनी बंद करना. तकनीकी विकास की तेज़ गति और इसके नतीजतन समाज और अर्थव्यवस्था में इसकी गहरी पैठ को देखते हुए ये देखा जाना बाकी है कि कैसे इन मुद्दों का समाधान होता है, समाधान कानून के ज़रिए होगा या क़ानून या कमर्शियल इनोवेशन के ज़रिए.

AI को रेगुलेट करने के लिए इनोवेशन, अधिकारों और ज़िम्मेदारियों के लिए संतुलन के तरीके की पहचान करने की ज़रूरत होगी ताकि कानूनी या रेगुलेटरी दृष्टिकोण को तय किया जा सके जिसमें दायित्वों और उपायों को साफ तौर पर बांटा और अलग किया गया है.

आगे का रास्ता

AI के लिए लीगल पर्सनहुड एक विवादित विषय बना हुआ है. इस बहस में दोनों तरफ से दमदार दलीलें दी जा रही हैं लेकिन इसके बाद भी नैतिक और कानूनी असमंजस बरकरार है. कुछ विश्लेषकों ने AI सिस्टम के लिए सीमित कानूनी व्यक्तित्व के एक विशेष वर्ज़न की दलील दी है जो कि उनकी ख़ास विशेषताओं के अनुरूप हो. दूसरी तरफ ये तर्क दिया जा सकता है कि जब आर्टिफिशियल जनरल इंटेलिजेंस या सेंटीनेंट (संवेदनशील) AI वास्तविकता में बदल जाए तो कानूनी व्यक्तित्व से जुड़े सवालों को बाहर निकाल देना चाहिए. इस बीच में मौजूदा कानूनों को अपडेट करके, नए कानून का मसौदा तैयार करके या लाइसेंसिंग की व्यवस्था जैसे कि अमेरिका में फूड एंड ड्रग एडमिनिस्ट्रेशन के काम-काज की तरह स्वीकार्य एप्लिकेशन या मॉडल को पहले से मंज़ूर करने को शामिल करके  मौजूदा AI कंप्यूटेशनल अप्रोच का निपटारा किया जा सकता है. AI और लीगल पर्सनहुड का सवाल एक खुला सवाल बना हुआ है और वर्तमान समय में दुनिया में किसी भी अधिकार क्षेत्र में AI को कानूनी अधिकार या ज़िम्मेदारी नहीं दी गई है.

हालांकि कॉपीराइट और प्राइवेसी के उल्लंघन के इर्द-गिर्द चिंताओं, विशेष रूप से डीपफेक के युग में जो तेज़ी से केंद्र में रहा है, की वजह से अधिकारों, ज़िम्मेदारियों और दायित्वों को लेकर भी सवाल खड़े हो रहे हैं. नुकसान का जोखिम अब सैद्धांतिक नैतिक असमंजसों तक ही सीमित नहीं है बल्कि इसने नागरिकों के लिए वास्तविक दुनिया में नतीजों का रूप ले लिया है. चूंकि भारत AI के प्रतिकूल परिणामों से होने वाले नुकसानों को कम करते हुए AI के नेतृत्व में कायापलट को संतुलित करने कि दिशा में काम कर रहा है, इसलिए उसने अलग-अलग अधिकार क्षेत्रों से सीखकर AI के लिए नागरिक दायित्व के मानकों को स्थापित करने की आवश्यकता को स्वीकार किया है. Meity (इलेक्ट्रॉनिक्स एवं इन्फॉर्मेशन टेक्नोलॉजी मंत्रालय) के द्वारा गठित साइबर सुरक्षा, सेफ्टी, कानूनी और नैतिक मुद्दों पर कमेटी की ड्राफ्ट रिपोर्ट में AI सिस्टम के लिए कानूनी व्यक्तित्व के सवाल पर अलग-अलग भागीदारों से चर्चा करने की ज़रूरत पर प्रकाश डाला गया है. लेकिन इसमें ये सावधानी बरतने की बात भी कही गई है कि कानूनी व्यक्तित्व प्रदान करने के साथ-साथ नुकसानों की भरपाई के लिए एक बीमा योजना या मुआवज़ा फंड भी होना चाहिए. आगे बढ़ें तो AI को रेगुलेट करने के लिए इनोवेशन, अधिकारों और ज़िम्मेदारियों के लिए संतुलन के तरीके की पहचान करने की ज़रूरत होगी ताकि कानूनी या रेगुलेटरी दृष्टिकोण को तय किया जा सके जिसमें दायित्वों और उपायों को साफ तौर पर बांटा और अलग किया गया है. इसमें AI सिस्टम की एजेंट वाली क्षमता की परिकल्पना के साथ व्यावहारिक विचारों को शामिल करना होगा ताकि स्वायत्त क्षमता, कैज़ुअल एजेंसी और दायित्व की प्रक्रियाओं को जोड़ा जा सके. ये उचित कानूनी साधनों या रेगुलेटरी ढांचा की पहचान करने या तैयार करने में मदद करेंगे. 

अनुलेखा नंदी ऑब्ज़र्वर रिसर्च फाउंडेशन में फेलो हैं.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.