Author : Shashidhar K J

Published on Jan 30, 2021 Updated 0 Hours ago

एक ऐसा क़ानूनी दबाव बनाए जाने की ज़रूरत है जो एक कानूनी ढांचा तैयार करे, और जिस के तहत कंपनियां, आर्टिफिशियल इंटेलिजेंस से जुड़े उत्पादों के प्रभाव के बारे में सोचने के लिए मजबूर हों, और कॉर्पोरेट्स की सामाजिक ज़िम्मेदारी को लेकर व्यापक बहस की शुरुआत हो.

बेहतर नियमन के लिए, क्यों आर्टिफिशियल इंटेलिजेंस को चाहिए एक नया नाम

पिछले कुछ सालों में, प्रौद्योगिकी कंपनियों ने आर्टिफिशियल इंटेलिजेंस (एआई) को आगे बढ़ाने में काफी प्रगति की है. आर्थिक सहयोग और विकास संगठन, ओईसीडी (Organisation for Economic Co-operation and Development, OECD) के अनुसार, 60 देशों में 300 से अधिक नीतिगत और रणनीतिक कोशिशें, समाज, व्यापार, सरकारों और पृथ्वी पर आर्टिफिशियल इंटेलिजेंस के इस्तेमाल और उसके प्रभाव को समझने पर ध्यान केंद्रित कर रही हैं. इन संस्थाओं को विनियमित करने और इस दिशा में बेहतर नियम बनाने के लिए यह ज़रूरी है कि एक तकनीक के रूप में, ‘आर्टिफिशियल इंटेलिजेंस’ का सटीक व सही नामकरण हो.

मोटे तौर पर, आर्टिफिशियल इंटेलिजेंस दो श्रेणियों में आती है- कृत्रिम सामान्य बुद्धि (artificial general intelligence) जो मनुष्य की सोचने समझने की शक्ति का अनुकरण करना चाहती है, और कृत्रिम संकीर्ण बुद्धि (artificial narrow intelligence) जिसे चिकित्सा क्षेत्र में जांच या ऑटोमोबाइल नेवीगेशन तंत्र में इस्तेमाल किया जाता है. वर्तमान में, आर्टिफिशियल इंटेलिजेंस से संबंधित अधिकांश कोशिशें और तकनीकी विकास, कृत्रिम संकीर्ण बुद्धि की श्रेणी में हो रहा है. इस तरह के कई एप्लिकेशन आगे चल कर कृत्रिम सामान्य बुद्धि में बदल सकते हैं, लेकिन अभी यह तकनीकी रूप से संभव नहीं है. फिर भी कई प्रमुख व्यक्तियों जैसे कि बिल गेट्स, एलोन मस्क और भौतिक विज्ञानी स्टीफन हॉकिंग ने कृत्रिम सामान्य बुद्धिमत्ता को लेकर अपना भय व्यक्त किया है, जो उनके अनुसार मानवीय क्षमताओं से आगे बढ़कर कहीं अधिक ताक़तवर हो सकती है, और उसके अस्तित्व के लिए ख़तरा पैदा कर सकती है. यह वजह है कि आर्टिफिशियल इंटेलिजेंस से जुड़े विकास आमतौर पर कृत्रिम संकीर्ण बुद्धि पर ही केंद्रित हैं.

कई प्रमुख व्यक्तियों जैसे कि बिल गेट्स, एलोन मस्क और भौतिक विज्ञानी स्टीफन हॉकिंग ने कृत्रिम सामान्य बुद्धिमत्ता को लेकर अपना भय व्यक्त किया है, जो उनके अनुसार मानवीय क्षमताओं से आगे बढ़कर कहीं अधिक ताक़तवर हो सकती है, और उसके अस्तित्व के लिए ख़तरा पैदा कर सकती है. यह वजह है कि आर्टिफिशियल इंटेलिजेंस से जुड़े विकास आमतौर पर कृत्रिम संकीर्ण बुद्धि पर ही केंद्रित हैं.

कृत्रिम संकीर्ण बुद्धि यानी आर्टिफिशियल नैरो इंटेलिजेंस में मशीन लर्निंग (machine learning), नेचुरल लैंग्वेज प्रोसेसिंग (natural language processing), स्वचालन यानी ऑटोमेशन (automation), न्यूरल नेटवर्क (neural network) और सोशल इंटेलिजेंस (social intelligence) जैसी विभिन्न उपधाराओं का अध्ययन शामिल है, जो तकनीक के माध्यम से विकसित, वर्चुअल असिसटेंट (virtual assistants) को यूज़र्स के साथ बातचीत करने में मदद करते हैं. हालांकि, इन प्रणालियों को किसी भी काम को बिना किसी निगरानी पूरा करने और स्वतंत्र रूप से निर्णय लेने के लिए प्रोग्राम किया जाता है. इसलिए, इस तरह के कार्यक्रमों को व्याख्यायित करने के लिए एक अधिक सटीक शब्द ‘स्वचालित’ (automated) या अनियंत्रित निर्णय प्रणाली (unsupervised decision system) है. कृत्रिम सामान्य बुद्धि यानी आर्टिफिशियल जनरल इंटेलिजेंस की शब्दावली हमें इस बात का आभास देती है कि यह अपने आप में आर्टिफिशियल इंटेलिजेंस का इकलौता ऐसा रूप है जिसके बारे में हमें चिंता करने की ज़रूरत है, और यही वजह है कि इस से संबंधित नीतिगत फ़ैसलों को अपरिहार्य रूप से अंतहीन समय में धकेल दिया गया है. लेकिन इन पद्धतियों, तकनीकों व वैज्ञानिक अवधारणाओं को संकीर्ण या यूं कहें कि केंद्रित तरीक़े से पुनर्परिभाषित करके, नीतिगत चर्चाओं और सार्वजनिक समझ को मौजूदा एआई अनुप्रयोगों के हिसाब से ढाला जा सकता है और इस के दायरे को बढ़ाया जा सकता है.

इस परिभाषा के साथ काम करना इस धारणा से दूर है कि आर्टिफिशियल इंटेलिजेंस एल्गोरिदम और सिस्टम पूरी तरह से अनजाने हैं और किसी छिपे हुए उद्देश्य से आर्टिफिशियल इंटेलिजेंस के ख़ुफ़िया प्रकार से उत्पन्न होते हैं. शब्दावली में यह बदलाव और आर्टिफिशियल इंटेलिजेंस को ले कर किस तरह से फ़ैसले लिए जाते हैं, वह इस बात की जवाबदेही तय कर सकती है कि आर्टिफिशियल इंटेलिजेंस को लेकर किस तरह के निर्णय लिए जाते हैं. इस परिभाषा के साथ काम करने के दौरान, यह भी समझने की ज़रूरत है कि यह प्रणालियां किस हद तक अनियंत्रित हैं, और इस आधार पर उन्हें कैसे वर्गीकृत किया जाता है. उदाहरण के लिए, एक ई-कॉमर्स वेबसाइट द्वारा उपयोग किए जाने वाले न्यूरल नेटवर्क (neural network) जो विज्ञापनों को दिखाने के लिए उपयुक्त किए जाते हैं, वह फ़ैक्टरी के फ़्लोर पर स्वचालन यानी ऑटोमेशन से संबंधित निर्णय लेने के लिए इस्तेमाल किए जाने वाले एल्गोरिथम जितने जटिल नहीं होते. यानी इस तरह के कार्यों के लिए अलग अलग जटिलताओं वाले एल्गोरिथम इस्तेमाल किए जाते हैं और इन से संबंधित निर्णय, इनके ऑटोमेशन का स्तर व उपयोगकर्ताओं के लिए इनका प्रभाव भी अलग अलग रहता जो अलग जोखिम ले कर आता है.

आर्टिफिशियल जनरल इंटेलिजेंस की शब्दावली हमें इस बात का आभास देती है कि यह अपने आप में आर्टिफिशियल इंटेलिजेंस का इकलौता ऐसा रूप है जिसके बारे में हमें चिंता करने की ज़रूरत है, और यही वजह है कि इस से संबंधित नीतिगत फ़ैसलों को अपरिहार्य रूप से अंतहीन समय में धकेल दिया गया है.

जैसे-जैसे हम आर्टिफिशियल इंटेलिजेंस के क्षेत्र में आगे बढ़ेंगे, अनियंत्रित निर्णय प्रणाली को ले कर दुनियाभर में सरकारों के सामने इस से जुड़े अधिक संवेदनशील और जटिल नैतिक मुद्दे आएंगे. उदाहरण के लिए, अमेरिका में सेल्फ-ड्राइव कारों से जुड़ी दुर्घटनाओं और जानलेवा घटनाओं के कई उदाहरण मौजूद हैं. इन मामलों को ले कर सीधे तौर पर जवाबदेही और दायित्व तय करने के सवाल पैदा होते हैं, क्योंकि कोई भी इंसान उन कारों और एल्गोरिदम को नहीं चला रहा था. ऐसे में क्या एक एल्गोरिथ्म को जवाबदेह ठहराया जा सकता है? कार कंपनी उबर (Uber) के मामले में, उस ऑपरेटर को ज़िम्मेदार ठहराया गया जो सेल्फ-ड्राइव सुविधा का परीक्षण कर रहा था, और जिस के चलते सड़क पर पैदल चलते एक व्यक्ति की जान गई. इस तरह इस मामले में उबर (Uber) कंपनी पर कोई आंच नहीं आई. लेकिन दंडात्मक कार्रवाई के रूप में एक एल्गोरिदम की ज़िम्मेदारी तय करना, क्या संभव होगा और अगर हां तो इसका क्या स्वरूप हो सकता है? साथ ही, क्या मौजूदा क़ानूनी ढांचा इस तरह की स्थिति को विनियमित कर सकता है?

“साथियों, निकाय भी लोगों का एक रूप हैं”

आर्टिफिशियल इंटेलिजेंस को किस तरह विनियमित किया जाए और इसे कैसे जवाबदेह बनाया जाए, इस बात पर बहस और विमर्श आसान नहीं है. मशीन से संबंधित नैतिकता (machine ethics) का क्षेत्र, आर्टिफिशियल इंटेलिजेंस को नैतिक दायरे में देखने और इस से जुड़ी नैतिक चिंताओं के अलावा खुद को और अधिक मानव-केंद्रित करने से जुड़ा है. मशीनी नैतिकता (machine ethics) इस बात पर भी सवाल उठाती है कि एक तकनीक के रूप में आर्टिफिशियल इंटेलिजेंस को किस तरह के अधिकार दिए जा सकते हैं, और इन अधिकारों को किस तरह अमल में लाया जा सकता है. आर्टिफिशियल इंटेलिजेंस को नियंत्रित करने के लिए एक नए किस्म के कानूनी ढांचे को बनाने की आवश्यकता हो सकती है, जिसमें पिछली औद्योगिक क्रांतियों से सबक सीखना शामिल है. यदि लक्ष्य, आर्टिफिशियल इंटेलिजेंस में मानवीय नैतिकता और नौतिक मूल्यों को संबद्ध करना और अंततः मशीनों को कुछ मानवाधिकार देना है, तो इस बात पर विमर्श ज़रूरी साबित हो सकता है कि मौजूदा कॉर्पोरेट क़ानून इस मामले में क्या कहते हैं, और उनके ज़रिए एक नए ढांचे को किस तरह अमल में लाया जा सकता है.

ध्यान रहे कि 18वीं और 20वीं शताब्दियों के दौरान, निगम व निकायों (corporations) को एक व्यक्ति के रूप में क़ानूनी मान्यता दी गई, और इस के चलते उन के पास वही अधिकार और जिम्मेदारियां हैं, जो क़ानूनी रूप से किसी व्यक्ति को दी जाती हैं. इंसानों की तरह, निगमों को संपत्ति रखने, ऋण लेने, मुक़दमा दायर करने और मुक़दमा चलाने की अनुमति दी गई है. उन के पास मानवाधिकारों के उपयोग का अधिकार है और उन अधिकारों के उल्लंघन के लिए उन्हें ज़िम्मेदार ठहराया जा सकता है. साथ ही निगम व निकाय धोखाधड़ी और हत्या जैसे अपराधों के आरोपी हो सकते हैं और इन अपराधों के लिए उन पर क़ानूनी कार्रवाई भी की जा सकती है.

जैसे-जैसे हम आर्टिफिशियल इंटेलिजेंस के क्षेत्र में आगे बढ़ेंगे, अनियंत्रित निर्णय प्रणाली को ले कर दुनियाभर में सरकारों के सामने इस से जुड़े अधिक संवेदनशील और जटिल नैतिक मुद्दे आएंगे. उदाहरण के लिए, अमेरिका में सेल्फ-ड्राइव कारों से जुड़ी दुर्घटनाओं और जानलेवा घटनाओं के कई उदाहरण मौजूद हैं. 

किसी निकाय के गठन से लोगों को एक समूह के रूप में काम करने की क़ानूनी मान्यता मिलती है, और इन सभी लोगों या कंपनियों को एक समूह के रूप में देखा जाता है. किसी भी निगम का व्यक्तित्व, इसे बनाने वाले व्यक्तियों से अलग होता है. इसी तरह, आर्टिफिशियल इंटेलिजेंस का विकास अक्सर विभिन्न लोगों से मिल कर होता है, जो संसाधन जुटाने, आर्थिक या दूसरे महत्वपूर्ण कारकों से जुड़े होते हैं. यही वजह है कि यह तर्क दिया जा सकता है कि निकाय का व्यक्तित्व समग्र है और वह अपने साथ जुड़े व्यक्तियों से अलग व्यक्तित्व रख सकता है, इसलिए निकायों को क़ानूनी रूप से एक व्यक्ति के रूप में पहचान दी जा सकती है.

कॉरपोरेट क़ानून से प्रेरणा फ़ायदेमंद

इस मायने में किसी भी नए क़ानूनी ढांचे को बनाने के लिए कॉरपोरेट क़ानून से प्रेरणा लेना फ़ायदेमंद साबित हो सकता है, क्योंकि यह अनियंत्रित, स्वायत्त व स्वचालित निर्णय प्रणालियों के विभिन्न प्रारूपों को एक कंपनी या निगम के रूप में पंजीकृत करने का रास्ता सुझा सकता है. यह इन प्रणालियों के जोखिमों की निगरानी और मूल्यांकन में भी सहायता करेगा और उन की बेहतर ढंग से निगरानी करने व नियमित करने में मदद करेगा.

इस मायने में किसी भी नए क़ानूनी ढांचे को बनाने के लिए कॉरपोरेट क़ानून से प्रेरणा लेना फ़ायदेमंद साबित हो सकता है, क्योंकि यह अनियंत्रित, स्वायत्त व स्वचालित निर्णय प्रणालियों के विभिन्न प्रारूपों को एक कंपनी या निगम के रूप में पंजीकृत करने का रास्ता सुझा सकता है. 

हालांकि, सीमित ज़िम्मेदारी की अवधारणा, जो किसी भी निगम के गठन के मूल में है और उसकी एक प्रमुख विशेषता है, उसे नए आर्टिफिशियल इंटेलिजेंस ढांचे पर लागू नहीं किया जाना चाहिए, यह देखते हुए कि यह तकनीक, मानवता के लिए किस हद तरह ख़तरा बन सकती है. सीमित ज़िम्मेदारी की अवधारणा ने उद्यमियों को आर्थिक रूप से लाभप्रद उद्देश्य के लिए बड़ी संख्या में धन को एक लक्ष्य के लिए खर्च करने की क्षमता दी है ताकि शेयरधारकों का लाभ हो और उन्हें बाहरी जोखिमों से बचाया जा सके. लेकिन आलोचकों का कहना है कि यह आगे चल कर शेयरधारकों के लाभ के नाम पर कॉर्पोरेट गैरज़िम्मेदारी और गलत कामों को भी बढ़ावा देता है. पिछले कई सालों से कॉरपोरेट्स के व्यवहार का अध्ययन करने वाले और क़ानूनी क्षेत्र में अध्ययन से जुड़े प्रोफेसर जोएल बकान के मुताबिक, निकायों का व्यवहार और व्यक्तित्व किसी साइकोपैथ (psychopath) की तरह होता है, जो लगातार अपने निजी मुनाफ़े और फ़ायदे के लिए काम करता है और इस प्रक्रिया में वह अपने यहां काम करने वालों, अपने ग्राहकों और आम लोगों को ख़तरे में डालता क्योंकि उसकी कार्य प्रणाली, पर्यावरण को नुकसान पहुंचाती है, और क़ानूनी रूप से वैध व्यवहार करने के सामान्य मानदंडों की अनदेखी करती है.

यही वजह है कि आर्टिफिशियल इंटेलिजेंस को निगमों के दायरे से बाहर और उनके लिए तय की गई सीमित ज़िम्मेदारी की अवधारणा से ऊपर रखा जाना चाहिए. आर्टिफिशियल इंटेलिजेंस को लागू करने में शामिल जोखिम, उस से संबंधित सिद्धांतों की सख़्त ज़िम्मेदारी या पूर्ण दायित्व के आधार पर यह तय किया जाना चाहिए कि कोई व्यक्ति, किसी अप्रत्याशित गतिविधि के लिए क़ानूनी रूप से ज़िम्मेदार है, यहां तक कि ग़लती या आपराधिक इरादे के अभाव में भी. यही भावना व लक्ष्य किसी भी नए ढांचे पर लागू होना चाहिए. ज़िम्मेदारी के इस सिद्धांत को लागू करने से यह सुनिश्चित करने में मदद मिल सकती है कि अनियंत्रित निर्णय प्रणाली को विकसित करने और उसे लागू करने से पहले उस से जुड़े डेवलपर्स की जवाबदेही तय हो और इसी जवाबदेही के साथ वह मनुष्यों के साथ इन तकनीकों के व्यवहार व आदान प्रदान को लागू करें व इस से जुड़े सभी बाहरी आयामों को सोच समझ कर आगे बढ़ें.

यदि लक्ष्य, आर्टिफिशियल इंटेलिजेंस में मानवीय नैतिकता और नौतिक मूल्यों को संबद्ध करना और अंततः मशीनों को कुछ मानवाधिकार देना है, तो इस बात पर विमर्श ज़रूरी साबित हो सकता है कि मौजूदा कॉर्पोरेट क़ानून इस मामले में क्या कहते हैं, और उनके ज़रिए एक नए ढांचे को किस तरह अमल में लाया जा सकता है.

आर्टिफिशियल इंटेलिजेंस के क्षेत्र में काम करने वाले कई प्रौद्योगिकी निगमों ने मानव अधिकारों की सुरक्षा और नैतिक मूल्यों को बचाय रखने के लिए साहसिक और सार्वजनिक रूप से अपनी बात सामने रखी है. उनका मानना है कि आर्टिफिशियल इंटेलिजेंस का ज़िम्मेदारी से इस्तेमाल होना चाहिए. निगमों व निकायों का कहना है कि वे नैतिकतावादियों के साथ मिल कर काम कर रहे हैं और इस तरह की आचार संहिता, समीक्षा बोर्ड, ऑडिट ट्रेल्स और प्रशिक्षण मॉड्यूल डिज़ाइन कर रहे हैं, जो आंतरिक रूप से इस ज़िम्मेदारी को बहाल करने का काम करें. हालांकि, कॉरपोरेट लक्ष्य मुनाफ़े को अधिक से अधिक बढ़ाने पर केंद्रित होते हैं और यही वजह है कि प्लैंटियर और क्लियरव्यू जैसी आर्टिफिशियल इंटेलिजेंस के क्षेत्र में काम करने वाली लाभकारी कंपनियां अपने उत्पादों को सरकारों व क़ानून प्रवर्तन एजेंसियों को बेच रही हैं, इस बात को नज़रअंदाज़ करते हुए कि इस से उपयोगकर्ताओं के अधिकारों का हनन होगा. साथ ही वह उन गहरी चिंताओं की भी अनदेखी कर रही हैं, जो इन एजेंसियों द्वारा इस तरह की तकनीक के संभावित दुरुपयोग से जुड़ी हैं. ऐसे माहौल में, एक ऐसा क़ानूनी दबाव बनाए जाने की ज़रूरत है जो एक कानूनी ढांचा तैयार करे, और जिस के तहत कंपनियां, आर्टिफिशियल इंटेलिजेंस से जुड़े उत्पादों के प्रभाव के बारे में सोचने के लिए मजबूर हों, और कॉर्पोरेट्स की सामाजिक ज़िम्मेदारी को लेकर व्यापक बहस की शुरुआत हो.


ये लेख  कोलाबा एडिट सीरीज़ का हिस्सा है.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.