Author : James Brusseau

Published on Oct 25, 2021 Updated 0 Hours ago

AI से जुड़े मूल्यों में यूज़र पर आधारित नज़रिया अपनाना, इस क्षेत्र में इनोवेशन के नियमन का एक विकल्प हो सकता है. क्योंकि आर्टिफ़िशियल इंटेलिजेंस के क्षेत्र में इतनी तेज़ी से इनोवेशन हो रहा है कि एक केंद्रीकृत नियामक संस्था इससे क़दम मिलाकर नहीं चल सकती.

आर्टिफ़िशियल इंटेलिजेंस में नैतिक मूल्यों का विकेंद्रीकरण क्यों ज़रूरी है?

आर्टिफ़िशियिल इंटेलिजेंस के नैतिक मूल्यों के विकेंद्रीकरण के पीछे का तर्क बिल्कुल साफ़ है: किसी एक नियामक संस्था के बजाय व्यक्तिगत स्तर पर तकनीक का इस्तेमाल करने वाले अपने तजुर्बों से लिए गए फ़ैसलों से व्यवस्था को नियंत्रित करें. आर्टिफ़िशियल इंटेलिजेंस से जुड़ी नई तकनीकों की राह सुगम बनाने के लिए तमाम देश मज़बूत फ्रेमवर्क बना सकते हैं. इसके लिए वो सभी यूज़र्स को भागीदारी के लिए सशक्त बना सकते हैं. विकेंद्रीकृत वित्तीय व्यवस्था की एक मिसाल हमारे सामने है: स्मार्ट कॉन्ट्रैक्ट को लागू करने और क्रिप्टोकरेंसी के शेयर बाज़ार को चलाने में ख़ुदयूज़र ही लेन देन की पुष्टि करते हैं और इसके भागीदारों को प्रतिबंधित करते हैं और कुछ ख़ास बर्तावों को बढ़ावा देते हैं. यहां अंतर ये है कि जब विकेंद्रीकृत वित्तीय व्यवस्था आर्थिक तरक़्क़ी को बढ़ावा देती है. वहीं तकनीक के नैतिक मूल्यों को लागू करने की विकेंद्रीकृत व्यवस्था से मानव केंद्रित AI इनोवेशन को बढ़ावा मिलेगा.

जब विकेंद्रीकृत वित्तीय व्यवस्था आर्थिक तरक़्क़ी को बढ़ावा देती है. वहीं तकनीक के नैतिक मूल्यों को लागू करने की विकेंद्रीकृत व्यवस्था से मानव केंद्रित AI इनोवेशन को बढ़ावा मिलेगा.

मशीन लर्निंग से हासिल हुए तजुर्बों के विश्लेषण

अफ़सरशाही के भरोसे चलने वाली एक केंद्रीकृत नियमन व्यवस्था की रफ़्तार इतनी धीमी होती है कि वो तेज़ी से हो रहे इनोवेशन से क़दमताल नहीं मिला पाती. मिसाल के तौर पर, मेडिसिन के क्षेत्र में AI को ही लें. कोपेनहेगेन यूनिवर्सिटी इमरजेंसी फोन कॉल की भाषा पहचान कर बीमारियों की पहचान करने की सेवा दे रही है. लेकिन, इससे जुड़े क़ानून पास करना तो छोड़िए, अब तक ऐसी स्वास्थ्य सेवाओं का नियमन करने वाले नियमों की तो कल्पना तक नहीं की गई है. क़ुदरती तौर पर भी जब केंद्रीकृत व्यवस्था के नियम, नए नए इनोवेशन को अपने दायरे में नहीं ला पाते तो इससे भविष्य के इनोवेशन की राह में मुश्किलें खड़ी होती हैं. ऐसा इसलिए होता है, क्योंकि नियम और क़ानून तो मौजूदा तकनीक के हिसाब से बनाए जाते हैं. मतलब ये कि जो सबने नए आविष्कार और प्रोजेक्ट होते हैं, नए क़ानून उनसे निपटने की क्षमता नहीं रखते. इससे इनोवेशन में भी बाधा आती है.

ये दोनों ही समस्याएं- फिर चाहे रफ़्तार हो या इनोवेशन का गला घोटना- इनका समाधान AI के मूल्यों का विकेंद्रीकरण करके निकाला जा सकता है. आर्टिफ़िशियल इंटेलिजेंस के नियमों से जुड़ी कोई केंद्रीकृत व्यवस्था ऊपर से नीचे की ओर काम करती है. इनका रुख़ विशेषज्ञों और उनके निष्कर्षों से यूज़र और उनकी गतिविधियों की तरफ़ होता है. इसकी एक अच्छी मिसाल वर्ष 2020 में फ्रैंकफर्ट बिग डेटा लैब से निकली थी. दार्शनिकों, कंप्यूटर वैज्ञानिकों, डॉक्टरों और वकीलों की एक पीएचडी स्तर की टीम ने एकजुट होकर, स्वास्थ्य के क्षेत्र में काम करने वाली AI पर आधारित स्टार्ट अप कंपनी से संपर्क किया. एक्सपर्ट की ये टीम, कंपनी के साथ मिलकर तकनीकी विकास के नैतिक पहलुओं की संभावनाएं तलाशना चाहती थी. इस समूह का काम आर्टिफ़िशियल इंटेलिजेंस के मूल्यों से जुड़े सिद्धांतों पर लंबी परिचर्चाओं से शुरू हुआ था और इस कोशिश का अंत केस स्टडी पर आधारित रिपोर्ट से हुआ. इन रिपोर्ट्स को अकादेमिक पत्रिकाओं में प्रकाशित किया गया था, जहां पर इन्हें संस्थाओं से जुड़े वकील और प्रशासक भी पढ़ सकते थे, और आख़िर में वो पारंपरिक तरीक़ों से AI से जुड़े क़ानूनों और नियमों को बनाने की शुरुआत कर सकते थे. तो इस प्रक्रिया की शुरुआत उच्च स्तर के विशेषज्ञों से शुरू होकर नीचे की तरफ़ आगे बढ़ी, ताकि अगले कई महीनों और बरसों का वक़्त लगाकर यूज़र के अनुभव को आकार दिया जा सके.

इस प्रोजेक्ट की बुनियाद वो छह नैतिक सिद्धांत हैं, जिन्हें काफ़ी मान्यता हासिल है और जो आर्टिफ़िशियल इंटेलिजेंस और इंसान अनुभवों से जुड़े हुए हैं. ये सिद्धांत हैं: व्यक्तिगत स्वायत्तता, व्यक्तिगत निजता, सामाजिक भलाई, सामाजिक निष्पक्षता, तकनीक का प्रदर्शन और तकनीकी जवाबदेही. 

इसकी तुलना में AI से जुड़े विकेंद्रीकृत नैतिक मूल्यों की शुरुआत ज़मीनी स्तर से होती है. विशेषज्ञों के बीच उच्च स्तर की परिचर्चाओं के बजाय, ये प्रक्रिया सामान्य और जनता के बीच की जानकारी से शुरू होती है. कंपनियां नियमित रूप से तिमाही कामकाज से जुड़े बयान जारी करती हैं. इन बयानों में निजता की रक्षा के लिए किए गए उपायों का ज़िक्र भी मिल सकता है. या फिर ऐसे प्रयासों की चर्चा हो सकती है, जिसके तहत आबादी के अलग अलग समदायों के बीच उनके उत्पादों के निष्पक्षता से काम करने का ज़िक्र हो. पड़ताल करने वाली पत्रकारिता से जुड़ी न्यूज़ रिपोर्टिंग भी अक्सर होती है, जिससे किसी भी प्लेटफॉर्म पर निजता की सुरक्षा के कमज़ोर उपायों या यूज़र को दबाने वाली सेंसरशिप के उपायों से पर्दा उठे. फिर इसके बाद सोशल मीडिया के अटूट बहाव से हमें मेडिसिन, बैंकिंग, बीमा और मनोरंजन के क्षेत्रों में यूज़र के अपने अनुभवों के बारे में जानकारी मिलती है. मंच कोई भी हो, प्रक्रिया की शुरुआत, इंसानों के व्यवहारिक उपयोग वाली तकनीक के असली कामकाज से जुड़ी जानकारी आसानी से हासिल हो पाने से होती है.

सार्वभौमिक नैतिक मूल्यांकन का तत्व

AI के विकेंद्रीकृत नैतिक मूल्यों का दूसरा तत्व सार्वभौमिक नैतिक मूल्यांकन होता है. कुछ ख़ास मौक़ों पर, गिने चुने लोगों, कंपनियों और उत्पादों को विशेष सेवाएं देने के बजाय, तकनीकी इनोवेशन का मूल्यांकन हमेशा और हर जगह होता रहता है. इसकी रफ़्तार तेज़ करने और दायरा बढ़ाने के लिए विशेषज्ञों की बातचीत की जगह क़ुदरती ज़बान ले लेती है. टेक्स्ट वाली मशीन लर्निंग के जो फिल्टर आम और सार्वजनिक जानकारियों में लगे होते हैं, वो इस बात का संकेत देते हैं कि कोई ख़ास तकनीक किस तरह से इंसानों की ज़िंदगी पर असर डाल रही है. नैतिकता स्वचालित है: AI ख़ुद ही अपनी नैतिकता के पैमाने AI पर आधारित कंपनियों पर लागू करता है.

आर्टिफ़िशियल इंटेलिजेंस को इस बात के लिए प्रशिक्षित करना एक चुनौती है. इसके बावजूद, शुरुआती प्रयास सितंबर 2021 में इटली की यूनिवर्सिटी ऑफ़ ट्रेंटो से शुरू हो रहे हैं. इस प्रोजेक्ट की बुनियाद वो छह नैतिक सिद्धांत हैं, जिन्हें काफ़ी मान्यता हासिल है और जो आर्टिफ़िशियल इंटेलिजेंस और इंसान अनुभवों से जुड़े हुए हैं. ये सिद्धांत हैं: व्यक्तिगत स्वायत्तता, व्यक्तिगत निजता, सामाजिक भलाई, सामाजिक निष्पक्षता, तकनीक का प्रदर्शन और तकनीकी जवाबदेही. इसके पीछे विचार ये है कि मशीन लर्निंग को लगातार और बड़े पैमाने पर सार्वजिनक रूप से आंकड़े जारी करने चाहिए और उनका पता भी लगाना चाहिए, जहां पर आर्टिफ़िशियल इंटेलिजेंस या तो इन सिद्धांतों का पालन करता पाया जाता है, या फिर इनके ख़िलाफ़ जाता दिखता है. तो मानवीय विशेषज्ञों द्वारा कभी कभार किसी ख़ास तकनीक का विश्लेषण करने के बजाय, हमारे पास मूल्य आधारित ऐसी जानकारी लगातार आती रहती है, जो मुख्यधारा की डिजिटल तकनीक से जुड़ी है.

आर्टिफ़िशियल इंटेलिजेंस के क्षेत्र में इस सवाल का जवाब AI के विकेंद्रीकृत नैतिक मूल्य हैं. इसका मतलब है कि सबसे पहले नैतिकता का मूल्यांकन कुछ विशेषज्ञों के बजाय सार्वजनिक रूप से उपलब्ध आंकड़ों के ज़रिए होता है. 

विकेंद्रीकृत AI मूल्यों का तीसरा पहलू उन्हें लागू करना है. तमाम तरह के यूज़र्स को उनके अपने सोच समझकर उठाए गए क़दमों के ज़रिए नई तकनीक को आकार देने के लिए सशक्त किया जा सकता है. आदर्श रूप से क़ुदरती ज़ुबान की प्रॉसेसिंग से नैतिक मूल्यों के बारे में मिली जानकारी सबके लिए उपलब्ध होनी चाहिए, ताकि वो इन मूल्यों को अपने स्तर पर ख़ुद से भी लागू कर सकें. हालांकि, हक़ीक़त में ऐसे मौक़े बहुत सीमित तौर पर ही उपलब्ध हैं. फिर भी, सशक्त व्यक्तियों की एक मिसाल AI ह्यूमन इंपैक्ट है. इस प्रोजेक्ट में AI के मूल्यों का इस्तेमाल निवेशक अपने वित्तीय फ़ैसले लेने के लिए करते हैं. इसका आधार ये है कि टिकाऊ आर्थिक सफलता उन्हीं कंपनियों और तकनीकों को मिलेगी जो इंसानों के मक़सद पूरे करें, न कि यूज़र्स का शोषण करें, उन्हें उकसाएं या उनके साथ छल करें. मानवीयता पर आधारित आर्टिफ़िशियल इंटेलिजेंस ऐसी तकनीक है जो किसी यूज़र की स्वायत्तता का समर्थन करती है. जो डेटा की निजता सुनिश्चित करती है और निष्पक्ष रूप से काम करते हुए सामाजिक भलाई के लिए काम करती है और पूरी जवाबदेही के साथ अच्छा काम करती है. ऐसे नैतिक मूल्यों से आर्थिक लाभ होता है और उसकी भविष्यवाणी भी की जा सकती है. ये भविष्यवाणी तब और विश्वसनीय हो जाती है, जब तकनीकों के नैतिक बर्ताव से जुड़ी सटीक जानकारी ज़्यादा से ज़्यादा लोगों को हासिल हो.

एआई ह्यूमन इंपैक्ट प्लेटफ़र्म मशीन लर्निंग से हासिल हुए तजुर्बों के विश्लेषण को ऐसे नतीजों में तब्दील करता है, जो सबके लिए खुले हुए हैं और ऐसे स्वरूप में उपलब्ध हैं, जो वित्तीय ज़ुबान में उपयोगी हैं. इसका नतीजा ये होता है कि हर शख़्स- फिर चाहे वित्तीय तकनीक के ज़रिए अपने पैसे का प्रबंधन करने वाले लोग ही क्यों न हों- वो सीधे और अक़्लमंदी से मानव आधारित AI कंपनियों से अपने फ़ायदे के लिए जुड़ सकते हैं. तो, अभी ऊपर से नीचे की ओर प्रवाह वाली व्यवस्था में कुछ ख़ास विशेषज्ञ और नियामक अधिकारी अपने फ़ैसलों से तकनीक को आकार देते, जिन्हें सबको अपनाना पड़ता है. इसके बजाय अब तमाम तरह के लोग खुलकर ऐसा कर सकते हैं और इनोवेशन को आकार दे सकते हैं.

निष्कर्ष

इस लेख ने जो सवाल उठाया था, वो ये था कि ‘सभी देश कैसे ऐसे मज़बूत ढांचे बना सकते हैं जो नई तकनीकों की दशा दिशा तय कर सकें?” आर्टिफ़िशियल इंटेलिजेंस के क्षेत्र में इस सवाल का जवाब AI के विकेंद्रीकृत नैतिक मूल्य हैं. इसका मतलब है कि सबसे पहले नैतिकता का मूल्यांकन कुछ विशेषज्ञों के बजाय सार्वजनिक रूप से उपलब्ध आंकड़ों के ज़रिए होता है. दूसरी बात ये है कि ये मूल्यांकन लंबी और थकाऊ मानवीय परिचर्चाओं से नहीं होता, बल्कि वास्तविक समय में होता है और नेचुरल लैंग्वेज प्रॉसेसिंग और मशीन लर्निंग के ज़रिए ये प्रक्रिया लगातार चलती रहती है. तीसरी बात ये है कि नैतिक मानकों को किसी सरकारी या किसी नियामक संस्था के ज़रिए लागू नहीं किया जाता. इसके बजाय ये काम यूज़र्स स्वतंत्र रूप से करते हैं. वो जानकारी के आधारत पर निजी फ़ैसले करते हैं. जो सब मिलकर सामूहिक रूप से आर्टिफ़िशियल इंटेलिजेंस की भविष्य की दिशा तय करते हैं.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.