Author : Kiran Yellupula

Expert Speak Terra Nova
Published on Mar 24, 2023 Updated 0 Hours ago

अगर पर्याप्त बचावकारी उपाय नहीं किए गए तो AI पर बढ़ती निर्भरता से प्रतिकूल परिणाम देखने को मिल सकते हैं.

AI यानी आर्टिफ़िशियल इंटेलिजेंस का फैलता जाल: ChatGPT से जुड़े पेचीदा सवाल!

आर्टिफ़िशियल इंटेलिजेंस के चैटबॉट (जैसे चैट GPT) फ़िलहाल प्रायोगिक तौर पर संचालित हैं. ये आकर्षक, उपयोगी और मुक्त औज़ार के तौर पर नज़र आते हैं, जो प्रयोगकर्ताओं के तमाम प्रश्नों का तत्काल जवाब देते हैं. बहरहाल, ये चैटबॉट सुरक्षा के मोर्चे पर गंभीर ख़तरे पेश करते हैं और इनपर अभी किसी भी तरह का क़ानूनी नियमन लागू नहीं हैं. ये हमारे कामकाज, जीवनयापन और राष्ट्र के तौर पर उभार के तौर-तरीक़ों में रुकावट डाल रहे हैं. क्या हम आवश्यक बचावकारी उपायों को अमल में लाए बग़ैर राष्ट्रीय सुरक्षा के मोर्चे पर ऐसे ख़तरों के लिए तैयार हैं?

क्या AI पर बढ़ती निर्भरता के चलते आपका दिमाग़ असंतुलित हो जाएगा? सच्चाई ये है कि किसी को भी इन सवालों के जवाब मालूम नहीं हैं. साथ ही जिन चंद किरदारों को इनका जवाब मालूम भी होगा वो भी इसे साझा नहीं करने वाले, क्योंकि इस पूरे खेल में काफ़ी ऊंचे दांव लगे हुए हैं. 

साइबर हथियारों की दौड़ में नया मोर्चा खोलता AI

आर्टिफ़िशियल इंटेलिजेंस (AI) से संबंधित हथियारों की दौड़ हमारे जीवन में ख़लल डाल रही है. प्रौद्योगिकी में आमूलचूल बदलाव मनुष्य, मशीन और राष्ट्रों के बीच वर्चस्व की लड़ाई को और भड़का रहा है. सवाल उठता है कि ऐसे वातावरण में इंसान होने के मायने क्या हैं? क्या मशीन अब सोच-विचार करने का काम भी कर सकती है? क्या मशीन मानवीय रचनात्मकता को पछाड़ सकती है? क्या AI से मनुष्य के अस्तित्व को ख़तरा पेश हो रहा है? क्या AI पर बढ़ती निर्भरता के चलते आपका दिमाग़ असंतुलित हो जाएगा? सच्चाई ये है कि किसी को भी इन सवालों के जवाब मालूम नहीं हैं. साथ ही जिन चंद किरदारों को इनका जवाब मालूम भी होगा वो भी इसे साझा नहीं करने वाले, क्योंकि इस पूरे खेल में काफ़ी ऊंचे दांव लगे हुए हैं. 

धारणा बनाने, समझने-बूझने और निर्णय लेने की क्षमता-प्राप्त AI प्रणालियों के उभार से आर्टिफ़िशियल इंटेलिजेंस का प्रायोगिक दायरा लगातार विशाल होता चला गया है. इससे हमारे जीवन पर गहरा असर हो रहा है. मिसाल के तौर पर ओपन AI की चैट GPT (माइक्रोसॉफ़्ट और गूगल बार्ड द्वारा संचालित) प्रायोगिक स्तर पर और संवाद के स्वरूप में कार्य कर रही है. ये आपके ‘प्रश्नों’ का जवाब देने के लिए ऑनलाइन सूचनाओं का इस्तेमाल करती है. हालांकि सवाल पूछने का मतलब होता है AI बॉट्स को निजी डेटा मुहैया कराना.   

वैश्विक प्रयोगों के अनियंत्रित जोख़िम

कार्यकारी तौर पर एडवांस्ड सर्च के तौर पर काम करने वाली ऐसी AI प्रणालियां आर्टिफ़िशियल इंटेलिजेंस के बॉट्स द्वारा संचालित विशाल वैश्विक AI प्रयोग हैं, जिसमें खुले तौर पर कर्ता की सहमति नहीं ली जाती. ऐसे प्रायोगिक अनुसंधान का लक्ष्य प्रयोगकर्ता के डेटा पर मुक्त रूप से फलना-फूलना है. मानवता के मुनाफ़े के लिए AI को आगे बढ़ाने की दुहाई देकर लाभ कमाने के लिए उत्पादों का शोधन किया जाता है. जैसा कि मशहूर भाषाविद् नोम चोम्स्की कहते हैं, “स्वतंत्र रूप से सोचने और सृजन करने की लोगों की क्षमता पर AI भारी असर डाल सकती है.” 

आपकी ओर से दी गई जानकारियों और पूछे गए सवालों को ‘ट्रेनिंग डेटा’ के तौर पर प्रयोग में लाया जाता है. इनसे ऐसे बॉट्स को मांझने का काम किया जाता है. साथ ही व्यक्तिगत परिणाम सामूहिक ख़ुफ़िया जानकारियों का हिस्सा बन जाते हैं. मानवता की भलाई के लिए प्रतिबद्ध कोई भी ज़िम्मेदार इकाई जनता के बीच आधी-अधूरी प्रौद्योगिकी को जारी नहीं करती. इसमें कई तरह के जोख़िम जुड़े होते हैं. इनमें निजता में घुसपैठ, रचनाओं की चोरी, ग़ैर-स्पष्टता, एलगोरिदम से जुड़े पूर्वाग्रह या सामाजिक सूचना-पारिस्थितिकी तंत्रों को पहुंचने वाले नुक़सान शामिल हैं. 

दिक़्क़त ये है कि एक ओर तो AI से जुड़े फ़र्म कह रहे हैं कि मानवता संभावित रूप से डरावने AI से ज़्यादा दूर नहीं है, लेकिन दूसरी ओर वो आर्टिफ़िशियल इंटेलिजेंस से जुड़ी प्रौद्योगिकी को सार्वजनिक रूप से जारी कर रही हैं. इन क़वायदों को नियमन व्यवस्था तय किए जाने से पहले ही अंजाम दिया जा रहा है. इससे मुट्ठी भर बिग टेक कंपनियों के लिए हमारे जीवन और समाज पर नियंत्रण क़ायम करने का रास्ता खुल जाएगा. लिहाज़ा, बिना किसी जवाबदेही के AI को मुनाफ़े के लिए इस्तेमाल करने वाले निगमों से लोगों का बचाव किए जाने की दरकार है. इन कंपनियों के कर्मचारी ट्रेनिंग डेटा के तौर पर AI-संचालित चैट GPT में संवेदनशील कारोबारी डेटा डाल रहे हैं. इससे सुरक्षा के मोर्चे पर चिंताएं बढ़ती जा रही हैं. साथ ही मालिक़ाना सूचनाओं या व्यापार से जुड़ी ख़ुफ़िया जानकारियां (रणनीति, रुख़, कारोबारी मॉडल्स) लीक होने का ख़तरा भी पैदा हो गया है. गोपनीय सूचनाओं से भरी प्रौद्योगिकी भी जोख़िम में आ जाती है. निजता से जुड़ी चिंताओं के चलते एमेज़ॉन, वॉलमार्ट, जेपी मॉर्गन, वेरिज़ॉन, गोल्डमैन सैक्स और केपीएमजी जैसी कंपनियां अपने कर्मचारियों द्वारा चैट GPT के इस्तेमाल पर अंकुश लगाने लगी हैं. ये तमाम कंपनियां इन क़वायदों के सुरक्षित तौर-तरीक़ों का मूल्यांकन कर रही हैं. सुरक्षा से जुड़े गंभीर ख़तरों के बीच न्यूयॉर्क से लेकर लेकर चीन तक स्कूलों, कॉलेजों, विश्वविद्यालयों और नियामकों द्वारा चैट GPT पर प्रतिबंध लगाए जा रहे हैं. अमेरिका के संघीय व्यापार आयोग ने सिलिकॉन वैली को AI से जुड़े झूठे दावों पर चेतावनी देते हुए उन्हें AI से संबंधित औज़ारों के इस्तेमाल में सच्चाई, निष्पक्षता और समानता बरतने की हिदायत दी है. 

भारत के लिए अब इन ख़तरों के बारे में जागने और उनके हिसाब से क़दम उठाना ज़रूरी हो गया है. लोगों के सामने असल चुनौती AI प्रणाली द्वारा प्रयोग में लाए गए डेटा की ‘अखंडता’ को लेकर है. साथ ही उसकी सटीकता, विश्वसनीयता और निरंतरता का भी सवाल मुंह बाए खड़ा है. ऐसा इसलिए क्योंकि मौजूदा मानवीय पूर्वाग्रह अक्सर ही आर्टिफ़िशियल इंटेलिजेंस को हस्तांतरित हो जाते हैं. साथ ही ताज़ातरीन AI बॉट्स “डेटा के विशाल भंडार” तक पहुंच के आधार पर काम करते हैं. इस प्रक्रिया में डेटा के इस्तेमाल के तौर-तरीक़े का ख़ुलासा किए बग़ैर आपकी चतुराई की नकल उतारने का लक्ष्य होता है. डेटा लेबलिंग, नेटवर्क पोर्टेबिलिटी, डेटा पोर्टेबिलिटी और डेटा के अंतरसंपर्कों से हमें AI-संचालित प्रणालियों पर लगाम लगाने में मदद मिलेगी.

सवाल उठता है कि चैट GPT द्वारा तैयार सामग्री पर स्वामित्व किसका होता है? मालिक़ उस सामग्री के साथ क्या कर सकता है? क्या इससे कॉपीराइट का उल्लंघन होता है? क्या इसकी “खुले तौर पर” चोरी या नकल होती है? क्या इसके ज़रिए उत्पन्न सामग्रियों का कॉपीराइट हो सकता है? क्या सामग्री से बौद्धिक संपदा अधिकारों और निजता का उल्लंघन होता है? क्या प्लेटफ़ॉर्म और मालिक़ जोख़िमों के प्रति जवाबदेह होंगे?

आर्टिफ़िशियल इंटेलिजेंस के सख़्त नियमन की दरकार    

संरचनात्मक रूप से ऊपर के तमाम सवालों की हद है चंद किरदारों के लाभ के लिए AI के उभार को आगे बढ़ाना. EU के उद्योग प्रमुख ने AI के कठोर नियमनों की मांग की है. OpenAI के संस्थापक सैम ऑल्टमैन का भी विचार है कि फ़िलहाल किसी भी अहम मसले के लिए चैटबॉट्स पर निर्भर रहने की क़वायद एक बड़ी भूल होगी. हालांकि, ऐसे दिशानिर्देशों को मोटे तौर पर नज़रअंदाज़ कर दिया गया है, जिससे आगे चलकर अवांछित परिणाम दिखाई दे सकते हैं.  

प्रौद्योगिकी से जुड़ी न्यूज़ साइट CNET ने लेख लिखने के लिए AI का इस्तेमाल किया. इन लेखों में गंभीर ग़लतियां पाई गईं, जिसने इस प्रकाशन की छवि पर बट्टा लगा दिया. प्रौद्योगिकी क्षेत्र से जुड़े प्रकाशन WIRED में नई सुर्ख़ियों या सोशल मीडिया पर संक्षिप्त पोस्ट से जुड़े लेखों को छोड़कर AI द्वारा तैयार किए गए या संपादित लेखों का प्रकाशन नहीं किया जाता. इसमें AI को ख़बरों पर विचार-मंथन के अलावा ज़्यादा से ज़्यादा सर्च इंजनों की तरह प्रयोग में लाया जाता है. दिलचस्प रूप से इस संस्थान ने AI द्वारा तैयार लेखों के आधार पर ख़बरों का प्रकाशन नहीं करने की प्रतिबद्धता जताई है. महज़ सुर्ख़ियों या संक्षिप्त सोशल मीडिया पोस्ट्स के लिए इस माध्यम के प्रयोग की बात कही गई है. ख़बरों पर मंथन करने या सिर्फ़ सर्च इंजन के तौर पर इनका प्रयोग करने का फ़ैसला लिया गया है.  

AI से जुड़ी नाकामियों में प्रतिष्ठा से जुड़े भारी जोख़िम जुड़े होते हैं. आज के दौर में ऐसी घटनाओं में बढ़ोतरी होने के आसार हैं. ऐसे में ‘चोरी-छिपे डेटा हथियाने और पूर्वाग्रह से पूर्ण ट्रेनिंग डेटा के प्रयोग’ की रोकथाम करने से AI से जुड़ी क़वायद ज़्यादा जवाबदेह हो जाएगी. AI से जुड़े तमाम किरदारों, नीति-निर्माता बिरादरी और सरकारों को सामाजिक मानदंड, सार्वजनिक नीति और शैक्षणिक कार्यक्रमों के निर्माण में निवेश करना चाहिए ताकि मशीन-निर्मित दुष्प्रचार को रोका जा सके. रोकथाम से जुड़ी ऐसी क़वायदों के लिए समूचे इकोसिस्टम में प्रभावी नीतियों और भागीदारियों की ज़रूरत पड़ेगी.

भारत के लिए अब इन ख़तरों के बारे में जागने और उनके हिसाब से क़दम उठाना ज़रूरी हो गया है. लोगों के सामने असल चुनौती AI प्रणाली द्वारा प्रयोग में लाए गए डेटा की ‘अखंडता’ को लेकर है. साथ ही उसकी सटीकता, विश्वसनीयता और निरंतरता का भी सवाल मुंह बाए खड़ा है. 

अनुसंधानों से संकेत मिले है कि आर्टिफ़िशियल इंटेलिजेंस पर अति-निर्भरता से जेनेरेटिव AI को पहले से ज़्यादा चतुर बनाने में मदद मिल सकती है, हालांकि इससे इंसान के दिनोंदिन अनाड़ी बनते जाने का ख़तरा रहेगा. अनोखे ज्ञान और विचारों की विविधता की उसकी शक्ति कम होती चली जाएगी. अगर इंसान AI उत्पाद की नक़ल उतारने लगे और अपने दिमाग़ पर ज़ोर देना बंद कर दे तो उसकी सोचने-विचारने की शक्ति बाधित हो सकती है. उसका अनोखा ज्ञान घट जाएगा, जिससे इंसान के सामूहिक प्रदर्शन का स्तर ज़रूरत से कम हो जाएगा. ये हालात नवाचार के लिए घातक होंगे. मानवीय वरीयताओं के समान प्रतिक्रियाओं के इर्द-गिर्द इकट्ठा होते जाने से मानवीय सटीकता तो बढ़ेगी, लेकिन मानवीय समझ का अनोखापन लगातार घटता चला जाएगा.

AI से जुड़े तमाम किरदारों, नीति-निर्माता बिरादरी और सरकारों को सामाजिक मानदंड, सार्वजनिक नीति और शैक्षणिक कार्यक्रमों के निर्माण में निवेश करना चाहिए ताकि मशीन-निर्मित दुष्प्रचार को रोका जा सके. रोकथाम से जुड़ी ऐसी क़वायदों के लिए समूचे इकोसिस्टम में प्रभावी नीतियों और भागीदारियों की ज़रूरत पड़ेगी.

AI से जुड़े हथियारों की दौड़ में सघनता के बीच भारत को शोध और विकास के क्षेत्र में पहले से ज़्यादा निवेश करना होगा. इसके साथ ही AI प्रणालियों के शासन-प्रशासन, ज़िम्मेदारी और उत्तरदायित्व पर सुचारू रूप से काम करना होगा ताकि निजता, सुरक्षा और अवांछित परिणामों से बचाव हो सके. प्रौद्योगिकी में लगातार सुधार होता जा रहा है. इस बीच देश का कोई भी क़ानून AI को मानव अधिकारों में दख़ल देने या बिना सहमति के इंसानी दिमाग़ में पैठ बनाने से नहीं रोक रहा. 

एलगोरिदम में किसी तरह की संवेदना नहीं होतीं. इसके बावजूद प्रोग्राम द्वारा “ख़ुद को प्रशिक्षित करने” के तौर-तरीक़ों से AI अपने वांछित परिणामों को अधिकतम करके सामाजिक पूर्वाग्रहों और दुर्भावनाओं को मज़बूत कर सकता है. अपने भविष्य को आकार देने को लेकर हम AI की किस प्रकार परिकल्पना करते हैं, इसको लेकर मनुष्य को बिल्कुल स्पष्टता रखनी चाहिए: क्या हम AIs द्वारा नकारात्मक बाहरी कारकों का निर्माण करते हुए अपने तंग लक्ष्यों को अधिकतम स्तर तक पहुंचाने की चाहत रखते हैं? या हम AI को प्रशिक्षित करके पहले से ज़्यादा चतुराई भरी दुनिया को उभार देना चाहते हैं (नुक़सानदेह पूर्वाग्रहों का अंत करते हुए)?    

AI पर बढ़ती आत्म-निर्भरता

भारत G7 द्वारा शुरू की गई आर्टिफ़िशियल इंटेलिजेंस पर वैश्विक भागीदारी (GPAI) का हिस्सा है. ऐसे में भारत को AI के इर्द-गिर्द डेटा गवर्नेंस, सुरक्षा और भरोसे के समानतापूर्ण नियमों को बारीक़ी से आगे बढ़ाना चाहिए. ये पूरी क़वायद गठजोड़पूर्ण शोध पर टिकी होनी चाहिए. इस कड़ी में वैश्विक स्तर पर उत्कृष्टता केंद्रों (COEs) की स्थापना की जानी चाहिए, जो मानव अधिकारों, समावेशन, विविधता, नवाचार और आर्थिक वृद्धि को बढ़ावा देते हों. दिलचस्प रूप से चीन ने अमेरिकी अगुवाई वाले GPAI से परहेज़ किया है, लेकिन वो 2030 तक AI के क्षेत्र में विश्व का नेतृत्व करने का मंसूबा पाले हुए है. भारत जिन देशों को AI के क्षेत्र में भरोसेमंद साथी बनाकर काम करना चाहता है, उनके साथ तमाम तरह के नफ़े-नुक़सानों का संतुलन बिठाना होगा. वैकल्पिक तौर पर उसे चीन की तरह आत्म-निर्भरता तैयार करने के लिए ठोस क़दम उठाने होंगे. इन तमाम क़वायदों के बग़ैर मेक AI इन इंडिया और मेक AI वर्क फ़ॉर इंडिया जैसे कार्यक्रमों के सीमित परिणाम ही देखने को मिलेंगे.

भले ही उपयोगी स्वरूप में मानवीय जीवन में AI का विस्तार हो रहा है, लेकिन इसके बावजूद ये प्रणालियां अपनी वरीयताओं पर लगाम लगाने की व्यक्तिगत क्षमताओं को कुंद कर सकती हैं. लिहाज़ा अगर AI पर क़ाबू नहीं रखा गया तो भविष्य में मुक्त और खुले समाज के लिए विनाशकारी संकट पैदा होने की आशंका रहेगी.

वैश्विक साइबर सुरक्षा एजेंसी GCHQ ने चेतावनी देते हुए चैटGPT और प्रतिद्वंदी चैटबॉट्स को सुरक्षा ख़तरा क़रार दिया है. चैटGPT को आगे बढ़ाने वाली प्रौद्योगिकियां भू-राजनीतिक औज़ारों को भी विस्तार दे सकती हैं. इनमें दुष्प्रचार, साइबर हमले, सिंथेटिक जीवविज्ञान या स्वायत्त-लड़ाकू विमान शामिल हैं, जो ज़बरदस्त आर्थिक शक्ति देते हैं. भले ही उपयोगी स्वरूप में मानवीय जीवन में AI का विस्तार हो रहा है, लेकिन इसके बावजूद ये प्रणालियां अपनी वरीयताओं पर लगाम लगाने की व्यक्तिगत क्षमताओं को कुंद कर सकती हैं. लिहाज़ा अगर AI पर क़ाबू नहीं रखा गया तो भविष्य में मुक्त और खुले समाज के लिए विनाशकारी संकट पैदा होने की आशंका रहेगी. संघीय व्यापार आयोग ने भी चेतावनी भरे लहज़े में साफ़ किया है कि AI के इस्तेमाल में नीति-निर्माताओं को सतर्कता से काम लेना चाहिए. 

ऐसे में मनुष्य इन ख़तरों से अपने भविष्य को कैसे सुरक्षित कर सकता है? दरअसल आर्टिफ़िशियल इंटेलिजेंस महज़ एक औज़ार है और इसे मानवता को परिभाषित करने की इजाज़त नहीं दी जा सकती. हमें अब भी सोच-विचार करने, जिज्ञासा प्रकट करने, परिस्थितियों के हिसाब से ढलने, हमदर्दी जताने, फ़ैसले लेने, रचनात्मकता दिखाने जैसे गुणों की दरकार है. साथ ही इन प्रौद्योगिकियों पर निगरानी रखने, उनकी मरम्मत करने और उन्हें तैयार करने से जुड़े कौशल की भी ज़रूरत है. AI के साथ गुज़ारा करने का मतलब है- सही सवाल खड़े करना, जवाबों पर प्रश्नचिन्ह लगाना और किसी परिणाम को स्वीकार किए जाने की सूरत में उससे जुड़े कारणों की व्याख्या करने के तौर-तरीक़े सीखना. 

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.