-
CENTRES
Progammes & Centres
Location
अगर पर्याप्त बचावकारी उपाय नहीं किए गए तो AI पर बढ़ती निर्भरता से प्रतिकूल परिणाम देखने को मिल सकते हैं.
आर्टिफ़िशियल इंटेलिजेंस के चैटबॉट (जैसे चैट GPT) फ़िलहाल प्रायोगिक तौर पर संचालित हैं. ये आकर्षक, उपयोगी और मुक्त औज़ार के तौर पर नज़र आते हैं, जो प्रयोगकर्ताओं के तमाम प्रश्नों का तत्काल जवाब देते हैं. बहरहाल, ये चैटबॉट सुरक्षा के मोर्चे पर गंभीर ख़तरे पेश करते हैं और इनपर अभी किसी भी तरह का क़ानूनी नियमन लागू नहीं हैं. ये हमारे कामकाज, जीवनयापन और राष्ट्र के तौर पर उभार के तौर-तरीक़ों में रुकावट डाल रहे हैं. क्या हम आवश्यक बचावकारी उपायों को अमल में लाए बग़ैर राष्ट्रीय सुरक्षा के मोर्चे पर ऐसे ख़तरों के लिए तैयार हैं?
क्या AI पर बढ़ती निर्भरता के चलते आपका दिमाग़ असंतुलित हो जाएगा? सच्चाई ये है कि किसी को भी इन सवालों के जवाब मालूम नहीं हैं. साथ ही जिन चंद किरदारों को इनका जवाब मालूम भी होगा वो भी इसे साझा नहीं करने वाले, क्योंकि इस पूरे खेल में काफ़ी ऊंचे दांव लगे हुए हैं.
आर्टिफ़िशियल इंटेलिजेंस (AI) से संबंधित हथियारों की दौड़ हमारे जीवन में ख़लल डाल रही है. प्रौद्योगिकी में आमूलचूल बदलाव मनुष्य, मशीन और राष्ट्रों के बीच वर्चस्व की लड़ाई को और भड़का रहा है. सवाल उठता है कि ऐसे वातावरण में इंसान होने के मायने क्या हैं? क्या मशीन अब सोच-विचार करने का काम भी कर सकती है? क्या मशीन मानवीय रचनात्मकता को पछाड़ सकती है? क्या AI से मनुष्य के अस्तित्व को ख़तरा पेश हो रहा है? क्या AI पर बढ़ती निर्भरता के चलते आपका दिमाग़ असंतुलित हो जाएगा? सच्चाई ये है कि किसी को भी इन सवालों के जवाब मालूम नहीं हैं. साथ ही जिन चंद किरदारों को इनका जवाब मालूम भी होगा वो भी इसे साझा नहीं करने वाले, क्योंकि इस पूरे खेल में काफ़ी ऊंचे दांव लगे हुए हैं.
धारणा बनाने, समझने-बूझने और निर्णय लेने की क्षमता-प्राप्त AI प्रणालियों के उभार से आर्टिफ़िशियल इंटेलिजेंस का प्रायोगिक दायरा लगातार विशाल होता चला गया है. इससे हमारे जीवन पर गहरा असर हो रहा है. मिसाल के तौर पर ओपन AI की चैट GPT (माइक्रोसॉफ़्ट और गूगल बार्ड द्वारा संचालित) प्रायोगिक स्तर पर और संवाद के स्वरूप में कार्य कर रही है. ये आपके ‘प्रश्नों’ का जवाब देने के लिए ऑनलाइन सूचनाओं का इस्तेमाल करती है. हालांकि सवाल पूछने का मतलब होता है AI बॉट्स को निजी डेटा मुहैया कराना.
कार्यकारी तौर पर एडवांस्ड सर्च के तौर पर काम करने वाली ऐसी AI प्रणालियां आर्टिफ़िशियल इंटेलिजेंस के बॉट्स द्वारा संचालित विशाल वैश्विक AI प्रयोग हैं, जिसमें खुले तौर पर कर्ता की सहमति नहीं ली जाती. ऐसे प्रायोगिक अनुसंधान का लक्ष्य प्रयोगकर्ता के डेटा पर मुक्त रूप से फलना-फूलना है. मानवता के मुनाफ़े के लिए AI को आगे बढ़ाने की दुहाई देकर लाभ कमाने के लिए उत्पादों का शोधन किया जाता है. जैसा कि मशहूर भाषाविद् नोम चोम्स्की कहते हैं, “स्वतंत्र रूप से सोचने और सृजन करने की लोगों की क्षमता पर AI भारी असर डाल सकती है.”
आपकी ओर से दी गई जानकारियों और पूछे गए सवालों को ‘ट्रेनिंग डेटा’ के तौर पर प्रयोग में लाया जाता है. इनसे ऐसे बॉट्स को मांझने का काम किया जाता है. साथ ही व्यक्तिगत परिणाम सामूहिक ख़ुफ़िया जानकारियों का हिस्सा बन जाते हैं. मानवता की भलाई के लिए प्रतिबद्ध कोई भी ज़िम्मेदार इकाई जनता के बीच आधी-अधूरी प्रौद्योगिकी को जारी नहीं करती. इसमें कई तरह के जोख़िम जुड़े होते हैं. इनमें निजता में घुसपैठ, रचनाओं की चोरी, ग़ैर-स्पष्टता, एलगोरिदम से जुड़े पूर्वाग्रह या सामाजिक सूचना-पारिस्थितिकी तंत्रों को पहुंचने वाले नुक़सान शामिल हैं.
दिक़्क़त ये है कि एक ओर तो AI से जुड़े फ़र्म कह रहे हैं कि मानवता संभावित रूप से डरावने AI से ज़्यादा दूर नहीं है, लेकिन दूसरी ओर वो आर्टिफ़िशियल इंटेलिजेंस से जुड़ी प्रौद्योगिकी को सार्वजनिक रूप से जारी कर रही हैं. इन क़वायदों को नियमन व्यवस्था तय किए जाने से पहले ही अंजाम दिया जा रहा है. इससे मुट्ठी भर बिग टेक कंपनियों के लिए हमारे जीवन और समाज पर नियंत्रण क़ायम करने का रास्ता खुल जाएगा. लिहाज़ा, बिना किसी जवाबदेही के AI को मुनाफ़े के लिए इस्तेमाल करने वाले निगमों से लोगों का बचाव किए जाने की दरकार है. इन कंपनियों के कर्मचारी ट्रेनिंग डेटा के तौर पर AI-संचालित चैट GPT में संवेदनशील कारोबारी डेटा डाल रहे हैं. इससे सुरक्षा के मोर्चे पर चिंताएं बढ़ती जा रही हैं. साथ ही मालिक़ाना सूचनाओं या व्यापार से जुड़ी ख़ुफ़िया जानकारियां (रणनीति, रुख़, कारोबारी मॉडल्स) लीक होने का ख़तरा भी पैदा हो गया है. गोपनीय सूचनाओं से भरी प्रौद्योगिकी भी जोख़िम में आ जाती है. निजता से जुड़ी चिंताओं के चलते एमेज़ॉन, वॉलमार्ट, जेपी मॉर्गन, वेरिज़ॉन, गोल्डमैन सैक्स और केपीएमजी जैसी कंपनियां अपने कर्मचारियों द्वारा चैट GPT के इस्तेमाल पर अंकुश लगाने लगी हैं. ये तमाम कंपनियां इन क़वायदों के सुरक्षित तौर-तरीक़ों का मूल्यांकन कर रही हैं. सुरक्षा से जुड़े गंभीर ख़तरों के बीच न्यूयॉर्क से लेकर लेकर चीन तक स्कूलों, कॉलेजों, विश्वविद्यालयों और नियामकों द्वारा चैट GPT पर प्रतिबंध लगाए जा रहे हैं. अमेरिका के संघीय व्यापार आयोग ने सिलिकॉन वैली को AI से जुड़े झूठे दावों पर चेतावनी देते हुए उन्हें AI से संबंधित औज़ारों के इस्तेमाल में सच्चाई, निष्पक्षता और समानता बरतने की हिदायत दी है.
भारत के लिए अब इन ख़तरों के बारे में जागने और उनके हिसाब से क़दम उठाना ज़रूरी हो गया है. लोगों के सामने असल चुनौती AI प्रणाली द्वारा प्रयोग में लाए गए डेटा की ‘अखंडता’ को लेकर है. साथ ही उसकी सटीकता, विश्वसनीयता और निरंतरता का भी सवाल मुंह बाए खड़ा है. ऐसा इसलिए क्योंकि मौजूदा मानवीय पूर्वाग्रह अक्सर ही आर्टिफ़िशियल इंटेलिजेंस को हस्तांतरित हो जाते हैं. साथ ही ताज़ातरीन AI बॉट्स “डेटा के विशाल भंडार” तक पहुंच के आधार पर काम करते हैं. इस प्रक्रिया में डेटा के इस्तेमाल के तौर-तरीक़े का ख़ुलासा किए बग़ैर आपकी चतुराई की नकल उतारने का लक्ष्य होता है. डेटा लेबलिंग, नेटवर्क पोर्टेबिलिटी, डेटा पोर्टेबिलिटी और डेटा के अंतरसंपर्कों से हमें AI-संचालित प्रणालियों पर लगाम लगाने में मदद मिलेगी.
सवाल उठता है कि चैट GPT द्वारा तैयार सामग्री पर स्वामित्व किसका होता है? मालिक़ उस सामग्री के साथ क्या कर सकता है? क्या इससे कॉपीराइट का उल्लंघन होता है? क्या इसकी “खुले तौर पर” चोरी या नकल होती है? क्या इसके ज़रिए उत्पन्न सामग्रियों का कॉपीराइट हो सकता है? क्या सामग्री से बौद्धिक संपदा अधिकारों और निजता का उल्लंघन होता है? क्या प्लेटफ़ॉर्म और मालिक़ जोख़िमों के प्रति जवाबदेह होंगे?
संरचनात्मक रूप से ऊपर के तमाम सवालों की हद है चंद किरदारों के लाभ के लिए AI के उभार को आगे बढ़ाना. EU के उद्योग प्रमुख ने AI के कठोर नियमनों की मांग की है. OpenAI के संस्थापक सैम ऑल्टमैन का भी विचार है कि फ़िलहाल किसी भी अहम मसले के लिए चैटबॉट्स पर निर्भर रहने की क़वायद एक बड़ी भूल होगी. हालांकि, ऐसे दिशानिर्देशों को मोटे तौर पर नज़रअंदाज़ कर दिया गया है, जिससे आगे चलकर अवांछित परिणाम दिखाई दे सकते हैं.
प्रौद्योगिकी से जुड़ी न्यूज़ साइट CNET ने लेख लिखने के लिए AI का इस्तेमाल किया. इन लेखों में गंभीर ग़लतियां पाई गईं, जिसने इस प्रकाशन की छवि पर बट्टा लगा दिया. प्रौद्योगिकी क्षेत्र से जुड़े प्रकाशन WIRED में नई सुर्ख़ियों या सोशल मीडिया पर संक्षिप्त पोस्ट से जुड़े लेखों को छोड़कर AI द्वारा तैयार किए गए या संपादित लेखों का प्रकाशन नहीं किया जाता. इसमें AI को ख़बरों पर विचार-मंथन के अलावा ज़्यादा से ज़्यादा सर्च इंजनों की तरह प्रयोग में लाया जाता है. दिलचस्प रूप से इस संस्थान ने AI द्वारा तैयार लेखों के आधार पर ख़बरों का प्रकाशन नहीं करने की प्रतिबद्धता जताई है. महज़ सुर्ख़ियों या संक्षिप्त सोशल मीडिया पोस्ट्स के लिए इस माध्यम के प्रयोग की बात कही गई है. ख़बरों पर मंथन करने या सिर्फ़ सर्च इंजन के तौर पर इनका प्रयोग करने का फ़ैसला लिया गया है.
AI से जुड़ी नाकामियों में प्रतिष्ठा से जुड़े भारी जोख़िम जुड़े होते हैं. आज के दौर में ऐसी घटनाओं में बढ़ोतरी होने के आसार हैं. ऐसे में ‘चोरी-छिपे डेटा हथियाने और पूर्वाग्रह से पूर्ण ट्रेनिंग डेटा के प्रयोग’ की रोकथाम करने से AI से जुड़ी क़वायद ज़्यादा जवाबदेह हो जाएगी. AI से जुड़े तमाम किरदारों, नीति-निर्माता बिरादरी और सरकारों को सामाजिक मानदंड, सार्वजनिक नीति और शैक्षणिक कार्यक्रमों के निर्माण में निवेश करना चाहिए ताकि मशीन-निर्मित दुष्प्रचार को रोका जा सके. रोकथाम से जुड़ी ऐसी क़वायदों के लिए समूचे इकोसिस्टम में प्रभावी नीतियों और भागीदारियों की ज़रूरत पड़ेगी.
भारत के लिए अब इन ख़तरों के बारे में जागने और उनके हिसाब से क़दम उठाना ज़रूरी हो गया है. लोगों के सामने असल चुनौती AI प्रणाली द्वारा प्रयोग में लाए गए डेटा की ‘अखंडता’ को लेकर है. साथ ही उसकी सटीकता, विश्वसनीयता और निरंतरता का भी सवाल मुंह बाए खड़ा है.
अनुसंधानों से संकेत मिले है कि आर्टिफ़िशियल इंटेलिजेंस पर अति-निर्भरता से जेनेरेटिव AI को पहले से ज़्यादा चतुर बनाने में मदद मिल सकती है, हालांकि इससे इंसान के दिनोंदिन अनाड़ी बनते जाने का ख़तरा रहेगा. अनोखे ज्ञान और विचारों की विविधता की उसकी शक्ति कम होती चली जाएगी. अगर इंसान AI उत्पाद की नक़ल उतारने लगे और अपने दिमाग़ पर ज़ोर देना बंद कर दे तो उसकी सोचने-विचारने की शक्ति बाधित हो सकती है. उसका अनोखा ज्ञान घट जाएगा, जिससे इंसान के सामूहिक प्रदर्शन का स्तर ज़रूरत से कम हो जाएगा. ये हालात नवाचार के लिए घातक होंगे. मानवीय वरीयताओं के समान प्रतिक्रियाओं के इर्द-गिर्द इकट्ठा होते जाने से मानवीय सटीकता तो बढ़ेगी, लेकिन मानवीय समझ का अनोखापन लगातार घटता चला जाएगा.
AI से जुड़े तमाम किरदारों, नीति-निर्माता बिरादरी और सरकारों को सामाजिक मानदंड, सार्वजनिक नीति और शैक्षणिक कार्यक्रमों के निर्माण में निवेश करना चाहिए ताकि मशीन-निर्मित दुष्प्रचार को रोका जा सके. रोकथाम से जुड़ी ऐसी क़वायदों के लिए समूचे इकोसिस्टम में प्रभावी नीतियों और भागीदारियों की ज़रूरत पड़ेगी.
AI से जुड़े हथियारों की दौड़ में सघनता के बीच भारत को शोध और विकास के क्षेत्र में पहले से ज़्यादा निवेश करना होगा. इसके साथ ही AI प्रणालियों के शासन-प्रशासन, ज़िम्मेदारी और उत्तरदायित्व पर सुचारू रूप से काम करना होगा ताकि निजता, सुरक्षा और अवांछित परिणामों से बचाव हो सके. प्रौद्योगिकी में लगातार सुधार होता जा रहा है. इस बीच देश का कोई भी क़ानून AI को मानव अधिकारों में दख़ल देने या बिना सहमति के इंसानी दिमाग़ में पैठ बनाने से नहीं रोक रहा.
एलगोरिदम में किसी तरह की संवेदना नहीं होतीं. इसके बावजूद प्रोग्राम द्वारा “ख़ुद को प्रशिक्षित करने” के तौर-तरीक़ों से AI अपने वांछित परिणामों को अधिकतम करके सामाजिक पूर्वाग्रहों और दुर्भावनाओं को मज़बूत कर सकता है. अपने भविष्य को आकार देने को लेकर हम AI की किस प्रकार परिकल्पना करते हैं, इसको लेकर मनुष्य को बिल्कुल स्पष्टता रखनी चाहिए: क्या हम AIs द्वारा नकारात्मक बाहरी कारकों का निर्माण करते हुए अपने तंग लक्ष्यों को अधिकतम स्तर तक पहुंचाने की चाहत रखते हैं? या हम AI को प्रशिक्षित करके पहले से ज़्यादा चतुराई भरी दुनिया को उभार देना चाहते हैं (नुक़सानदेह पूर्वाग्रहों का अंत करते हुए)?
भारत G7 द्वारा शुरू की गई आर्टिफ़िशियल इंटेलिजेंस पर वैश्विक भागीदारी (GPAI) का हिस्सा है. ऐसे में भारत को AI के इर्द-गिर्द डेटा गवर्नेंस, सुरक्षा और भरोसे के समानतापूर्ण नियमों को बारीक़ी से आगे बढ़ाना चाहिए. ये पूरी क़वायद गठजोड़पूर्ण शोध पर टिकी होनी चाहिए. इस कड़ी में वैश्विक स्तर पर उत्कृष्टता केंद्रों (COEs) की स्थापना की जानी चाहिए, जो मानव अधिकारों, समावेशन, विविधता, नवाचार और आर्थिक वृद्धि को बढ़ावा देते हों. दिलचस्प रूप से चीन ने अमेरिकी अगुवाई वाले GPAI से परहेज़ किया है, लेकिन वो 2030 तक AI के क्षेत्र में विश्व का नेतृत्व करने का मंसूबा पाले हुए है. भारत जिन देशों को AI के क्षेत्र में भरोसेमंद साथी बनाकर काम करना चाहता है, उनके साथ तमाम तरह के नफ़े-नुक़सानों का संतुलन बिठाना होगा. वैकल्पिक तौर पर उसे चीन की तरह आत्म-निर्भरता तैयार करने के लिए ठोस क़दम उठाने होंगे. इन तमाम क़वायदों के बग़ैर मेक AI इन इंडिया और मेक AI वर्क फ़ॉर इंडिया जैसे कार्यक्रमों के सीमित परिणाम ही देखने को मिलेंगे.
भले ही उपयोगी स्वरूप में मानवीय जीवन में AI का विस्तार हो रहा है, लेकिन इसके बावजूद ये प्रणालियां अपनी वरीयताओं पर लगाम लगाने की व्यक्तिगत क्षमताओं को कुंद कर सकती हैं. लिहाज़ा अगर AI पर क़ाबू नहीं रखा गया तो भविष्य में मुक्त और खुले समाज के लिए विनाशकारी संकट पैदा होने की आशंका रहेगी.
वैश्विक साइबर सुरक्षा एजेंसी GCHQ ने चेतावनी देते हुए चैटGPT और प्रतिद्वंदी चैटबॉट्स को सुरक्षा ख़तरा क़रार दिया है. चैटGPT को आगे बढ़ाने वाली प्रौद्योगिकियां भू-राजनीतिक औज़ारों को भी विस्तार दे सकती हैं. इनमें दुष्प्रचार, साइबर हमले, सिंथेटिक जीवविज्ञान या स्वायत्त-लड़ाकू विमान शामिल हैं, जो ज़बरदस्त आर्थिक शक्ति देते हैं. भले ही उपयोगी स्वरूप में मानवीय जीवन में AI का विस्तार हो रहा है, लेकिन इसके बावजूद ये प्रणालियां अपनी वरीयताओं पर लगाम लगाने की व्यक्तिगत क्षमताओं को कुंद कर सकती हैं. लिहाज़ा अगर AI पर क़ाबू नहीं रखा गया तो भविष्य में मुक्त और खुले समाज के लिए विनाशकारी संकट पैदा होने की आशंका रहेगी. संघीय व्यापार आयोग ने भी चेतावनी भरे लहज़े में साफ़ किया है कि AI के इस्तेमाल में नीति-निर्माताओं को सतर्कता से काम लेना चाहिए.
ऐसे में मनुष्य इन ख़तरों से अपने भविष्य को कैसे सुरक्षित कर सकता है? दरअसल आर्टिफ़िशियल इंटेलिजेंस महज़ एक औज़ार है और इसे मानवता को परिभाषित करने की इजाज़त नहीं दी जा सकती. हमें अब भी सोच-विचार करने, जिज्ञासा प्रकट करने, परिस्थितियों के हिसाब से ढलने, हमदर्दी जताने, फ़ैसले लेने, रचनात्मकता दिखाने जैसे गुणों की दरकार है. साथ ही इन प्रौद्योगिकियों पर निगरानी रखने, उनकी मरम्मत करने और उन्हें तैयार करने से जुड़े कौशल की भी ज़रूरत है. AI के साथ गुज़ारा करने का मतलब है- सही सवाल खड़े करना, जवाबों पर प्रश्नचिन्ह लगाना और किसी परिणाम को स्वीकार किए जाने की सूरत में उससे जुड़े कारणों की व्याख्या करने के तौर-तरीक़े सीखना.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.
Kiran Yellupula has over two decades of leadership experience in managing strategic communications for IBM, Accenture, Visa, Infosys, JLL and Adfactors. He also has a ...
Read More +