Author : Siddharth Yadav

Published on Dec 12, 2023 Updated 0 Hours ago

AI हमें चरम प्रचुरता वाले युग की ओर ले जाएगा; तेज़ी से सक्षम AI के विकास पर निगरानी रखी जानी चाहिए क्योंकि वो व्यापक समाज के सामने जोख़िम प्रस्तुत करते हैं.

अटकलबाज़ियों से परे: जेनेरेटिव AI में यथार्थवादी तौर-तरीक़ों को आकार देना ज़रूरी

जेनेरेटिव आर्टिफिशियल इंटेलिजेंस (AI) के उदय के साथ, पिछले वर्ष में टेक्नोलॉजी के परिदृश्य को नाटकीय रूप से नया आकार मिला है. ये मशीन लर्निंग क्षमताओं में एक महत्वपूर्ण छलांग है. साल 2022 के अंत में OpenAI के ChatGPT के जारी होने के बाद तमाम अन्य तकनीकी कंपनियों में AI की दौड़ में शामिल होने की होड़ मच गई. इस कड़ी में OpenAI से प्रतिस्पर्धा करने के लिए गूगल ने अपने BARD AI का प्रदर्शन किया, डीपमाइंड ने चिनचिला AI, मेटा ने LLaMA, और एलॉन मस्क की अगुवाई वाले Xai ने अपने जेनेरेटिव AI-संचालित चैटबॉट Grok को जारी किया. ऑपरेशनल AI महज एक नया औज़ार होने की स्थिति से आगे निकल गया है और धीरे-धीरे तमाम क्षेत्रों में आधारशिला का रूप ले रहा है, जिनमें शिक्षा, उद्योग और सामाजिक क्षेत्र शामिल हैं. AI प्लेटफॉर्मों की हालिया कामयाबी और उनमें सुधार की तेज़ रफ़्तार के आधार पर उद्योग जगत के नेतृत्वकर्ता, आने वाले दशक में और प्रभावपूर्ण AI क्रांति की भविष्यवाणी कर रहे हैं. इस क्रांति के केंद्र में “आर्टिफिशियल कैपेबल इंटेलिजेंस” (ACI) या “AI-संचालित एजेंट” की परिकल्पना है. ये AI को उस उपकरण के रूप में संदर्भित करते हैं जो ज्ञान उत्पन्न करने के लिए डेटा का विश्लेषण कर सकता है और निर्णय लेने और वैश्विक अर्थव्यवस्था में हिस्सा लेने के लिए उस ज्ञान का उपयोग कर सकता है. ये पेपर निकट भविष्य में AI के भावी विकास और ढीली-ढाली सूचना रणनीतियों के जोख़िमों की पड़ताल करता है.

 ये पेपर निकट भविष्य में AI के भावी विकास और ढीली-ढाली सूचना रणनीतियों के जोख़िमों की पड़ताल करता है.

जेनेरेटिव AI का संभावित भविष्य

पिछले वर्ष AI के इर्द-गिर्द गहमागहमी और प्रचार ने निकट अवधि में इसके प्रभाव और निवेश संभावना को लेकर गंभीर विचार और अध्ययन का वातावरण बना दिया. ChatGPT के जारी होने के कुछ ही अर्से बाद जेनेरेटिव AI को दो श्रेणियों में बांट दिया गया: टेक्स्ट जेनेरेशन (जैसे ChatGPT, बार्ड, LLaMA) और ऑडियो-विज़ुअल मीडिया जेनरेशन  (जैसे DALL-E और मिडजर्नी). हालांकि पिछले महीनों में OpenAI ने अपने अगुवा प्लेटफॉर्मों के गतिशीलतापूर्ण नए संस्करण जारी किए हैं जो उपयोगकर्ताओं को शब्दों और चित्रों का निर्माण करने और डेटा एनालिटिक्स करने की सुविधा देते हैं. सीखने के सुलभ रास्ते के साथ उपयोगकर्ता के अनुकूल उत्पाद से लैस तमाम कार्यात्मकताओं के एकीकरण ने OpenAI और मेटा जैसी कंपनियों को उद्यमों और संस्थानों के लिए डिज़ाइन किए गए उद्यम-स्तर के जेनेरेटिव AI उत्पादों को प्रस्तुत करने का अवसर दिया है.

फ़िलहाल, कल्पनाओं पर काम करने, आंकड़ों का विश्लेषण करने, वर्कफ्लो तैयार करने और चित्र निर्माण करने में AI प्लेटफार्म  कितने भी ताक़तवर क्यों ना हों, उसे हर चरण में उपयोगकर्ता के संकेतों की दरकार होती है. नवंबर 2023 में बिल गेट्स ने कहा कि AI के विकास में अगला चरण AI एजेंटों का निर्माण करना होगा जो स्वायत्त रूप से निर्णय ले सकेंगे और कार्यों को पूरा कर सकेंगे. उत्पादकता बढ़ाने के अतिरिक्त, AI एजेंट “आपको कारोबारी योजना लिखने, उसके लिए प्रेजेंटेशन  तैयार करने और यहां तक कि आपका उत्पाद कैसा दिख सकता है, उसके चित्र बनाने में भी मदद कर सकता है.” गेट्स के मुताबिक “व्हाइट-कॉलर पर्सनल असिस्टेंट” सर्वव्यापी हो जाएंगे.

गेट्स ऐसी भविष्यवाणी करने वाले तकनीकी जगत के इकलौते महारथी नहीं हैं. डीपमाइंड के सह-संस्थापक और इंफ्लेक्शन AI के मौजूदा CEO मुस्तफा सुलेमान ने कहा है कि ACI आने वाले दशक में सामने आ जाएगा. उनका तर्क है कि बड़े-भाषा मॉडल (LLM) AIs की मौजूदा क्षमताओं को देखते हुए मशहूर संवाद-आधारित ट्यूरिंग टेस्ट जैसे पारंपरिक मापदंड, AI नवाचार के मूल्यांकन के लिए अपर्याप्त हैं. इसकी बजाए, वो एक आधुनिक ट्यूरिंग टेस्ट का प्रस्ताव करते हैं जो इस बात का आकलन नहीं करेगा कि AI क्या करने में सक्षम है, बल्कि इस बात का आकलन करेगा कि वो दुनिया में क्या हासिल कर सकता है. सुलेमान के परीक्षण में AI को कारोबार तैयार करने, लॉबिंग, बिक्री, विनिर्माण, भर्ती, योजना बनाने और नतीजतन न्यूनतम मानवीय निगरानी के साथ निवेश पर मुनाफ़े सुरक्षित करने जैसे कामों को अंजाम देने की ज़रूरत होगी. व्यापक दृष्टिकोण ये है कि AI के ज़बरदस्त विकास से “कोई भी लक्ष्य हासिल करने की लागत काफ़ी कम हो जाएगी,” लगातार विस्तृत होते डेटासेट्स पर निरंतर प्रबलीकरण सीखने से “सर्व-उपयोगी” AI का “अति-विकास” होगा, जो बदले में “चरम प्रचुरता” के युग की ओर ले जाएगा. ऐसी भविष्यवाणियां भले ही कपोल कल्पना लगें, लेकिन ये समझना अहम है कि तकनीकी उन्नति का विकास पथ आम तौर पर काल्पनिकता और भयावहता के बीच पड़ता है क्योंकि ये अक्सर अप्रत्याशित होता है. इस बात से परे कि सर्व-उपयोगी AI चरम प्रचुरता के युग की अगुवाई करेगा; तेज़ी से सक्षम सक्षम AI के विकास पर निगरानी रखी जानी चाहिए क्योंकि वो समाज के लिए बड़े पैमाने पर जोख़िम पेश करते हैं.  

अटकलबाज़ियों और वास्तविकताओं को अलग-अलग करना

AI विकास के इर्द-गिर्द विमर्शों में एक मुख्य मुद्दा (भले ही ये उद्योग जगत के नेताओं और विशेषज्ञों के ज़रिए हो) अटकलों को वास्तविकतापूर्ण पूर्वानुमानों से अलग करना है. विद्वानों ने बताया है कि कैसे तकनीकी डेमो, विज्ञान के क़िस्से कहानियों और उभरती टेक्नोलॉजियों के बारे में प्रेस विज्ञप्तियों का उपयोग करके डेवलपर्स द्वारा रकम जुटाई जाती है. समस्या ये है कि तकनीकी विकास की ज़बरदस्त रफ़्तार से विज्ञान कथाओं को वैज्ञानिक अटकलों से अलग करना मुश्किल हो जाता है. मानव अस्तित्व के सामने AI-प्रेरित जोख़िमों को लेकर विशेषज्ञों की चेतावनियों को नज़रअंदाज़ करना भले ही आसान हो, आश्चर्यजनक क्षमताओं वाले AI के प्रसार और बड़े पैमाने पर स्वीकार्यता से जुड़ी क़वायद हरेक अनोखे अटकल को कम अविश्वसनीय बना देती है. लिहाज़ा, निकट भविष्य में ACI के AI-संचालित एजेंटों के चलते पैदा होने वाली संभावित समस्याओं को रेखांकित करना तार्किक है, भले ही ऐसी तकनीक “चरम प्रचुरता” के युग की अगुवाई ना करे.

स्पष्ट मुद्दा जो AI के निहितार्थों पर नीति-संबंधी और भविष्य बताने वाले शोध के बाद उभरता है, वो तकनीकी प्रकाशनों में और उद्योग जगत के नेतृत्वकर्ताओं द्वारा की गई भविष्यवाणियों पर या तो अविश्वास या उनके हिसाब से पूर्ण तालमेल है..

एक स्पष्ट मुद्दा जो AI के निहितार्थों पर नीति-संबंधी और भविष्य बताने वाले शोध के बाद उभरता है, वो तकनीकी प्रकाशनों में और उद्योग जगत के नेतृत्वकर्ताओं द्वारा की गई भविष्यवाणियों पर या तो अविश्वास या उनके हिसाब से पूर्ण तालमेल है. इसके अलावा, जेनेरेटिव AI जैसे बेहद प्रभावपूर्ण तकनीकों से लैस तकनीकी क्षेत्र में कोई रुकावट या अफ़रातफ़री होने पर नीति-निर्माताओं, शोधकर्ताओं और स्टेकहोल्डर्स के लिए अनावश्यक भ्रम पैदा हो सकते हैं. इस असमंजस का एक सटीक उदाहरण नवंबर में OpenAI में हुआ कांड है. OpenAI के CEO सैम ऑल्टमैन को बिना किसी स्पष्ट कारण के बोर्ड द्वारा बर्खास्त कर दिया गया और आगे उथल-पुथल मचने पर कुछ दिनों बाद दोबारा पद पर बहाल भी कर दिया गया. इस घटनाक्रम ने समूचे टेक सेक्टर में भ्रम और अटकलों की लहर पैदा कर दी. अंदरूनी  तौर पर एक ख़बर लीक होने और उसके प्रसार से उथल-पुथल के हालात और विकट हो गए. इस लीक में बताया गया कि OpenAI ने अपने GPT-4 बुनियादी मॉडल में एक नई कामयाबी हासिल कर ली है जो मानवता के लिए संभावित रूप से ख़तरा हो सकती है. कंपनी में ऑल्टमैन के दोबारा प्रवेश के बाद इस लीक की सत्यता के बारे में कोई बयान नहीं दिया गया है. पारदर्शिता की ऐसी कमी के वैसे ही निहितार्थ हैं जैसे निकट-अवधि में AI प्लेटफॉर्मों के भविष्य को लेकर पहले प्रस्तुत की गई काल्पनिक अटकलबाज़ियों के. व्यापक रूप से समाज और नीति निर्माताओं के लिए सामान्य स्थिति से जुड़े पूर्वाग्रह या विनाशकारी स्थितियों में ना पड़ने को लेकर विनियामकों के लिए एक विवेकपूर्ण रुख़ ये होगा कि वो पारदर्शिता, उत्पादों और सेवाओं की व्याख्या क्षमता और AI कंपनियों द्वारा मार्केटिंग अभियानों के लिए दिशानिर्देश जारी करें.

वैश्विक स्तर पर नीति निर्माता पहले ही जेनेरेटिव AI, मेटावर्स और सिंथेटिक  मीडिया के साथ निरंतर उभरते तकनीकी परिदृश्य को लेकर नियमनों का मसौदा तैयार की जद्दोजहद कर रहे हैं. अगर AI-संचालित एजेंटों (जैसे उत्पाद, जो अब तक अपने विकास चक्र में प्रवेश भी नहीं कर पाए हैं) के निकट-अवधि वाले भविष्य के बारे में काल्पनिक अटकलों और असत्यापित लीक को बेलगाम रूप से जारी रहने दिया गया तो इससे असमंजस में सिर्फ़ बढ़ोतरी होगी. ये प्रक्रिया मूल्यवान समय और संसाधनों को सामने खड़े मसलों से दूर ले जा सकती है. मिसाल के तौर पर, ChatGPT के लॉन्च से पहले मशीन लर्निंग (ML) या AI के साथ प्रेडिक्टिव एनालिटिक्स का सम्मिश्रण उद्यम-स्तर के उत्पादों और सेवाओं की क्षमताओं के वास्तविकता से अधिक आकलन तक पहुंच गया. इसके अलावा, गतिशील रूप से विकसित हो रहे AI ऐप्लिकेशंस के बारे में भरोसेमंद और जांची-परखी विशेषज्ञ जानकारी का अभाव है. मीडिया में बढ़ा-चढ़कर प्रचार-प्रसार किए जाने और सनसनीख़ेज बनाए जाने से ये समस्या और पेचीदा हो गई है. इससे रकम जुटाने के लिए स्टार्ट अप की ओर से ग़लतबयानी का जोख़िम बढ़ जाता है.

आगे की राह  

इस पेपर का तर्क ये नहीं है कि टेक्नोलॉजी तेज़ गति से विकसित नहीं हो रही है, या बिना नियमन वाला AI दुनिया भर के समाजों के सामने बड़े पैमाने के आर्थिक और सामाजिक-राजनीतिक जोख़िम पेश नहीं करता है. इस पेपर की दलील ये है कि हाल के वर्षों में तकनीकी उन्नति की तीव्र गति के कारण ही AI-संबंधित तकनीकी उत्पादों के विकास पथ को विनियमित करने के लिए रूढ़िवादी  दृष्टिकोण आवश्यक है. सीमांत टेक्नोलॉजी के अराजकता भरे माहौल में प्रभावपूर्ण रणनीति, सीमांत तकनीक विकसित कर रही कंपनियों के लिए उपयोगकर्ता-उन्मुख कठोर दिशानिर्देश हो सकती हैं. चार क्षेत्रों में इन दिशानिर्देशों को क्रियान्वित किया जा सकता है:

वर्गीकरण: माइक्रोसॉफ्ट ने नीति पत्र “गवर्निंग AI: ए ब्लूप्रिंट फॉर इंडिया” में सिफ़ारिश की है कि सरकार को नाज़ुक बुनियादी ढांचे के नियंत्रण को लेकर तैनात की जा रही उच्च-जोख़िम वाली AI प्रणालियों के लिए एक वर्गीकरण तैयार करना चाहिए. AI कंपनियों को मिलता-जुलता दिशा निर्देश  जारी किया जा सकता है. इस कड़ी में उनकी ओर से प्रस्तुत बड़े जोख़िम के आधार पर आंतरिक परियोजनाओं के लिए वर्गीकरण तैयार करने की ज़रूरत रखी जानी चाहिए. भले ही कंपनियां प्रतिस्पर्धी बढ़त बनाए रखने के लिए ज़ाहिर तौर पर अपनी उन्नतियों को गोपनीय रखना चाहेंगी, लेकिन AI जैसी गंभीर प्रभावों वाली टेक्नोलॉजी के संदर्भ में कंपनियों के लिए समझदारी यही होगी कि वो विकसित किए जा रहे उत्पादों और सेवाओं की प्रकृति और जोख़िम-स्तर के बारे में नीति निर्माताओं और स्टेकहोल्डर्स को सूचित रखें.

 नीति आयोग द्वारा प्रकाशित आर्टिफिशियल इंटेलिजेंस के लिए राष्ट्रीय रणनीति में स्वीकार किया गया है, ये क़दम भारत और अन्य विकासशील देशों के लिए अहम हो सकता है.

व्याख्यात्मकता (एक्सप्लेनेबिलिटी): एक श्वेत पत्र में गूगल ने AI उत्पादों और सेवाओं के लिए एक्सप्लेनेबिलिटी मानक स्थापित करने का तर्क दिया है ताकि उद्योग और आम उपयोगकर्ता उन्नत AI प्लेटफॉर्मों के फ़ायदों, सीमाओं और संभावित पूर्वाग्रहों को समझ सकें. जैसा कि नीति आयोग द्वारा प्रकाशित आर्टिफिशियल इंटेलिजेंस के लिए राष्ट्रीय रणनीति में स्वीकार किया गया है, ये क़दम भारत और अन्य विकासशील देशों के लिए अहम हो सकता है जहां तकनीक को लेकर सामान्य साक्षरता विकसित देशों के स्तर तक नहीं है. व्याख्यात्मक मानकों की स्थापना से स्पष्ट रूप से देश-विशिष्ट और क्षेत्र-विशिष्ट दायित्व ढांचों का रास्ता साफ़ हो सकेगा, जो सामाजिक और नैतिक रूप से ज़िम्मेदार तकनीकी विकास को प्रोत्साहित करते हैं.

पारदर्शिता: अक्टूबर 2023 में लंदन में यूनाइटेड किंगडम के प्रधानमंत्री की मेज़बानी में आयोजित AI सुरक्षा शिखर सम्मेलन के मिशन वक्तव्य में इस बात का ज़िक्र किया गया था कि जेनेरेटिव AI जैसी सीमांत तकनीक में एक प्रमुख जोख़िम कारक उसके विकास की अनिश्चित और त्वरित रफ़्तार है. OpenAI जैसी अग्रणी कंपनियों में प्रबंधन में अचानक बदलाव और उच्च-जोख़िम वाली परियोजनाओं का आंतरिक लीक इस जोख़िम के ज्वलंत उदाहरण हैं. हालांकि मुनाफ़े के लिए संचालित होने वाली कंपनियों को अपने व्यापार रहस्यों को गोपनीय रखने के लिए कुछ छूट दी जानी चाहिए, अंतरराष्ट्रीय स्तर पर नीति निर्माताओं और विनियामकों को AI कंपनियों से गोपनीय ढंग से और सुरक्षित रूप से जानकारियों का अनुरोध करना चाहिए. अचानक घटनाओं के सामने आने पर नियामकों और निवेशकों के स्तर पर घबराहट को टालने के लिए इस तरह की क़वायद ज़रूरी है.

मार्केटिंग: अमेरिकी सरकार ने अमेरिकी संघीय व्यापार आयोग (FTC) के ज़रिए इस दिशा में उपयोगी क़दम उठाए हैं. प्रशासकीय निकाय ने मार्च 2023 में कंपनियों को चेतावनी जारी करके AI-संबंधित उत्पादों के बारे में ऐसे दावों को बढ़ा-चढ़ाकर पेश नहीं करने की नसीहत दी है जिन्हें सत्यापित नहीं किया जा सकता. इन दिशानिर्देशों को भारतीय तकनीकी क्षेत्र में भी लागू किया जा सकता है, क्योंकि ये कंपनियों को अपने AI उत्पादों की क्षमताओं को बढ़ा-चढ़ाकर पेश करने से रोकेंगे. इस तरह आम जनता और निवेशकों के बीच झूठी सूचनाओं और अवास्तविक उम्मीदों का जोख़िम कम हो जाएगा. प्रमुख कार्रवाइयों में AI उत्पादों के विकासात्मक चरण (मसलन, प्रोटोटाइप, बीटा, व्यावसायिक रिलीज़ आदि) के बारे में ख़ुलासों को अनिवार्य बनाना शामिल होगा.  

निष्कर्ष के तौर पर कहें तो AI प्लेटफॉर्मों के तीव्र विकास से नीति निर्माण में संतुलित और सतर्क रुख़ अनिवार्य हो जाता है. चूंकि हम बाधाकारी तकनीकी प्रगति की कगार पर खड़े हैं, लिहाज़ा अटकलों भरे प्रचार-प्रसार और वास्तविक क्षमता या संभावना के बीच अंतर करना निहायत ज़रूरी है. AI तकनीकों के वर्गीकरण, व्याख्यात्मकता, पारदर्शिता और मार्केटिंग पर दिशानिर्देश स्थापित करना महत्वपूर्ण होगा. ये दृष्टिकोण ना सिर्फ़ तकनीक के ज़िम्मेदारी भरे विकास को आगे बढ़ाएगा बल्कि जोख़िमों को भी कम करेगा. इस तरह ये सुनिश्चित होगा कि AI वैश्विक समाज के लिए अभिशाप नहीं बल्कि वरदान के तौर पर काम करें . चुनौती ऐसी नीतियां तैयार करने की हैं जो डिजिटल तकनीकों के बढ़ते दबदबे वाले युग में नवाचार को बाधित करने और सामाजिक हितों की रक्षा करने के बीच बारीक़ रेखा पर सूझबूझ से आगे बढ़ती हो.

सिद्धार्थ यादव इतिहास, साहित्य और सांस्कृतिक अध्ययन की पृष्ठभूमि वाले पीएचडी स्कॉलर हैं. उन्होंने दिल्ली विश्वविद्यालय से इतिहास में बीए (ऑनर्स) और एमए की डिग्री प्राप्त की, इसके बाद यूनिवर्सिटी ऑफ लंदन के SOAS से एशिया, अफ्रीका और मध्य पूर्व के सांस्कृतिक अध्ययन पर एमए किया.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.