आजकल हर कोई आर्टिफिशियल इंटेलिजेंस (AI) के बारे में बात कर रहा है. चाहे राजनेता हों, कारोबार जगत के अगुवा हों, श्रमजीवी कार्यकर्ता हों, या सुरक्षा विशेषज्ञ हों, हर ओर बस AI की चर्चा है. चूंकि AI टेक्नोलॉजी लोगों का ध्यान खींचती है, लिहाज़ा AI को ज़िम्मेदार, सुरक्षित और निष्पक्ष बनाने के लिए इसके विनियमन के बारे में काफ़ी बातें हो रही हैं. जब AI क्षमताओं का इतना व्यावसायीकरण हो गया है तब डिजिटल निजता या गोपनीयता के प्रभावों पर भी वाजिब विमर्श हो रहा है. प्रशिक्षित डेटासेट्स के कॉपीराइट, विशाल भाषा मॉडलों को ग़ैर-पक्षपाती बनाने, और नापाक उद्देश्यों के लिए AI के दुरुपयोग को रोकने से जुड़े सवाल, सैद्धांतिक और व्यावहारिक दोनों स्तर के प्रश्न हैं, जिन पर AI समुदाय के नाते हमें काम करने की ज़रूरत है.
जिस प्रकार अमेरिकी सेना ने न्यू मैक्सिको रेगिस्तान के बीच ख़ुफ़िया परियोजनाओं के ज़रिए परमाणु की ताक़त का कामयाबी से दोहन किया था, संभवत: ताज़ा AI तकनीकों के लिए भी ऐसा ही किया जा सकता है.
फिर भी, एक ऐसा जिन्न है जो बार-बार निकलकर सामने आ जाता है.
इस बार गर्मियों में फ़िल्म ओपनहाइमर की रिलीज़ के साथ “AI के लिए मैनहट्टन परियोजना” या ऐसी मिलती-जुलती क़वायदों के लिए मांगें ज़ोर पकड़ रही थीं. जिस प्रकार अमेरिकी सेना ने न्यू मैक्सिको रेगिस्तान के बीच ख़ुफ़िया परियोजनाओं के ज़रिए परमाणु की ताक़त का कामयाबी से दोहन किया था, संभवत: ताज़ा AI तकनीकों के लिए भी ऐसा ही किया जा सकता है. कुछ लोग “AI सुरक्षा के लिए मैनहट्टन परियोजना” या “जेनेरेटिव AI के लिए मैनहट्टन परियोजना” के बारे में विचार रखते हैं. कुछ तो इससे भी आगे बढ़कर ये कहते हुए कि कैसे भू-राजनीतिक विरोधी पहले से ही ऐसा कर रहे हैं “सैन्य AI के लिए मैनहट्टन परियोजना” का आह्वान कर रहे हैं.
इसके प्रस्तावक AI की ज़बरदस्त अहमियत और मैनहट्टन परियोजना की प्रभावशीलता की ओर इशारा करते हैं. जब भौतिकी के विशेषज्ञों का एक समूह युद्धकालीन लामबंदी के ज़रिए इतिहास बदलने वाला हथियार बनाने में सफल रहा, तब कल्पना करें कि आज के समय में तमाम संसाधनों और तवज्जो के साथ हम किस AI का निर्माण कर सकते हैं. इन सभी सुझावों के लिए, कुछ साझा सूत्र हैं: वांछनीय उद्देश्य (सैन्य या जेनेरेटिव या सुरक्षित AI, आदि) के लिए AI प्रणाली तैयार करने को लेकर ऊपर से नीचे और समन्वित ढांचे में AI के क्षेत्र में दुनिया के सबसे प्रतिभाशाली लोगों के एक दल को एक साथ लाने के लिए सरकार द्वारा भारी मात्रा में रकम लगाए जाने की दरकार है. ये प्रस्ताव अमेरिकी सरकार (या इस संदर्भ में कोई भी सरकार) से AI के अनुसंधान और विकास (R&D) में अगुवा ताक़त बनने, विश्वविद्यालयों और निजी उद्यमों के बीच अपनी तकनीकी शोध क्षमताओं का समन्वय और निर्देशन करने का आह्वान करते हैं.
परमाणु सामग्रियों और इनसे जुड़े ज्ञान के हस्तांतरण पर आयात-निर्यात के कड़े नियंत्रण रहे. दूसरी ओर, AI ने अपनी उन्नति का एक अहम हिस्सा ना सिर्फ़ वाणिज्यिक क्षेत्र के बंद कोड से बल्कि ओपन-सोर्स परियोजनाओं से भी आते देखा.
हालांकि, AI परमाणु तकनीक नहीं है. इसे परमाणु टेक्नोलॉजी की तरह विनियमित नहीं किया जाना चाहिए. “X AI के लिए मैनहट्टन परियोजना” की ये मानसिकता एक ज़िम्मेदार, सुरक्षित और निष्पक्ष AI के निर्माण के लिए भी हानिकारक है जो विभिन्न प्रकार की आवाज़ों को बाहर कर देगी जिनमें युवा और अन्य अल्पसंख्यक शामिल हैं.
AI परमाणु हथियारों की तरह काम नहीं करता
ये स्वीकार करना ज़रूरी है कि दोहरे उपयोग वाली अन्य तकनीकों की तरह AI का नागरिक और सैन्य दोनों क्षेत्रों में काफ़ी महत्व है. वैसे तो निजी क्षेत्र ने AI में अनुसंधान और विकास की अच्छी-ख़ासी मात्रा का संचालन किया है, सरकार की अगुवाई में परमाणु तकनीक विकास का उदाहरण कम पड़ जाता है. गूगल जैसी प्रमुख तकनीक़ी कंपनियों और OpenAI जैसे दौलतमंद स्टार्ट अप के योगदान ने परमाणु क्षेत्र में अमेरिकी सरकार द्वारा किसी ज़माने में किए गए अनुसंधान की झलक दिखलाई है. मुद्रास्फीति के साथ समायोजित किए जाने पर मैनहट्टन परियोजना की लागत तक़रीबन 30 अरब डॉलर है, जबकि पिछले दशक में गूगल का AI अनुसंधान बजट लगभग 200 अरब डॉलर रहा है.
इसके उलट, परमाणु बिजली के क्षेत्र में सरकारों ने कड़ा नियंत्रण बनाकर रखा है. परमाणु तकनीक पर गोपनीयता का पर्दा रहा और ये कभी भी ओपन-सोर्स नहीं रही. परमाणु सामग्रियों और इनसे जुड़े ज्ञान के हस्तांतरण पर आयात-निर्यात के कड़े नियंत्रण रहे. दूसरी ओर, AI ने अपनी उन्नति का एक अहम हिस्सा ना सिर्फ़ वाणिज्यिक क्षेत्र के बंद कोड से बल्कि ओपन-सोर्स परियोजनाओं से भी आते देखा. ओपन सोर्स विशाल भाषा मॉडल जैसे OpenLLaMa और विकुना, इमेज और वीडियो जेनेरेटिव मॉडल जैसे स्टेबल डिफ्यूज़न, और कई अन्य परियोजनाएं दर्शाती हैं कि चाहे अच्छे या बुरे के लिए, लेकिन कोई इकलौता सरकारी संगठन, निगम, शोध संस्थान या इकाई इस क्षेत्र को नियंत्रित नहीं करती है. पर्याप्त कौशल से लैस कोई भी व्यक्ति या संस्था इन मॉडलों को तैनात कर सकती है या बेहतर बना सकती है.
मैनहट्टन परियोजना की मिसाल
AI विकास पर सरकारों का एकाधिकार नहीं है और यही वजह है कि “AI के लिए मैनहट्टन परियोजना” ऐसी हानिकारक रूपरेखा है- ये बताता है कि सरकार इसे एकतरफ़ा तरीक़े से कर सकती है. ये नीति निर्माताओं और आम जनता को परमाणु युग के ग़ैर-पारदर्शी राज्य बर्तावों को आगे बढ़ाने का संकेत करता है. असलियत में, ज़िम्मेदार AI को बढ़ावा देने में किसी भी सार्थक प्रगति के लिए अनेक हितधारकों (स्टेकहोल्डर्स) वाला दृष्टिकोण आवश्यक हो जाता है जो ज़िम्मेदार मानकों को स्थापित करने के लिए विभिन्न परिप्रेक्ष्यों को शामिल करता है. अमेरिकन फेडरेशन ऑफ साइंटिस्ट्स के दिव्यांश कौशिक और मैट कोर्डा ने इसे संक्षेप में बेहतरीन रूप से पेश किया है: “अगर हम परमाणु हथियार नियंत्रण के दशकों से सबक़ लेते हैं तो वो सबक़ ये होना चाहिए कि पारदर्शिता, बारीक़ी और सक्रिय संवाद सबसे अहम हैं.” मैं उस सूची में समावेशन को भी जोड़ा चाहूंगा.
परमाणु युग से हासिल सबक़ों को दोबारा लिया जाना चाहिए ताकि ये सुनिश्चित हो सके कि वैश्विक AI प्रशासन में स्टेकहोल्डर्स की एक विविध श्रृंखला शामिल हो, ख़ास तौर से युवा जो इस डिजिटल संसार से गहराई से जुड़े हैं. लिहाज़ा एकतरफ़ा नियंत्रण की बजाए सहभागिता पर ध्यान दिया जाना चाहिए. विश्व में इंटरनेट के उपयोगकर्ताओं में से आधे की उम्र 30 साल से कम है, ऐसे में ये साफ़ है कि डिजिटल परिदृश्य को आकार देने में युवा अहम भूमिका निभाते हैं. ये AI अपनाने और नवाचार में भी सबसे आगे हैं. संयुक्त राष्ट्र (UN) की एक रिपोर्ट बताती है कि उनके वैश्विक सर्वेक्षण में प्रतिक्रिया जताते हुए तक़रीबन 68 प्रतिशत नौजवानों ने आर्टिफिशियल इंटेलिजेंस पर “काफ़ी विश्वास” जताया और एक अन्य रिपोर्ट से ज़ाहिर होता है कि 44 प्रतिशत किशोरों द्वारा अपने होमवर्क के लिए AI का उपयोग किए जाने की संभावना है. किशोरों और युवाओं के इनपुट के बिना नीतियों के विकास की क़वायद ना केवल रास्ते से भटक जाएगी बल्कि प्रतिकूल परिणाम देने वाली भी साबित होगी. जिस प्रकार नौजवानों ने इंटरनेट संस्कृति को आगे बढ़ाया, AI संस्कृति के लिए भी ऐसी ही उम्मीद है. AI नीति निर्माण में युवा मस्तिष्क को शामिल करने से ये सुनिश्चित होता है कि AI नीतियां ना सिर्फ़ समावेशी हों बल्कि सबसे ज़्यादा प्रभावित लोगों से भी सूचित हो.
जिस प्रकार नौजवानों ने इंटरनेट संस्कृति को आगे बढ़ाया, AI संस्कृति के लिए भी ऐसी ही उम्मीद है. AI नीति निर्माण में युवा मस्तिष्क को शामिल करने से ये सुनिश्चित होता है कि AI नीतियां ना सिर्फ़ समावेशी हों बल्कि सबसे ज़्यादा प्रभावित लोगों से भी सूचित हो.
निष्कर्ष के तौर पर, “AI के लिए मैनहट्टन परियोजना” इसके शासन से जुड़ी चुनौतियों को ज़रूरत से ज़्यादा सरल बना देती है. AI की गतिशील और तेज़ी से उभरने वाली प्रकृति के लिए एक ताज़े परिप्रेक्ष्य की दरकार है, जो सहभागिता, समावेशन और अनुकूलनशीलता को अपनाता हो. ज़िम्मेदार मानक तैयार करने और सामूहिक हित के लिए AI की ताक़त का दोहन करने के लिए, हमें परमाणु युग के दौरान सीखे गए सबक़ों पर ध्यान देना चाहिए और एक ऐसा मार्ग तैयार करना चाहिए जो सभी स्टेकहोल्डर्स, ख़ासतौर से युवाओं को सशक्त बनाए.
जून बेक सॉफ्टवेयर इंजीनियर के तौर पर कार्य करते हैं और OECD यूथ एडवाइज़री मेंबर हैं.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.