Image Source: Getty
साल 2024 में ओपन AI के सह-संस्थापक जॉन शुलमैन और शोधकर्ता जान लीके इस कंपनी को छोड़कर चले गए. उनका कंपनी छोड़ना काफी हाईप्रोफाइल घटना रही. अब ये दोनों एआई एकरूपता (अलाइनमेंट) अनुसंधान पर ध्यान केंद्रित करना चाहते हैं. ये काम करने के लिए उन्होंने ओपन एआई की प्रतिद्वंदी कंपनी एंथ्रोपिक का चुनाव किया. AI अनुसंधान की एक शाखा के रूप में एआई एकरूपता का काम बढ़ता जा रहा है. एआई सुरक्षा को लेकर बढ़ रही चिंताओं के बीच एआई संरेखन पर फोकस बढ़ गया है क्योंकि आर्टिफिशियल इंटेलिजेंस को सिर्फ कानून या शासन द्वारा नियंत्रित कर पाना मुश्किल साबित हो रहा है. हालांकि इसकी परिभाषाएं और दृष्टिकोण अलग-अलग हैं, लेकिन अगर आसान शब्दों में समझाया जाए तो AI सिस्टम से पैदा होने वाले नुकसान के ज़ोखिमों को कम करने के लिए उसमें मानव मूल्यों को एन्कोडिंग करने को एआई एकरूपता कहा जाता है. इसमें व्यापक सामाजिक और प्रासंगिक बारीकियों को समझना शामिल है, जिसके तहत एआई सिस्टम संचालित होते हैं.
AI एकरूपता की आवश्यकता क्यों है?
एआई एकरूपता की ज़रूरत इसलिए भी है क्योंकि मिसअलाइनमेंट यानी गलत एकरूपता की वज़ह से कई क्षेत्रों में नुकसान भी हो जाता है. इसमें स्वास्थ्य सेवा (एआई असुरक्षित और गलत कैंसर उपचार का सुझाव देता है), सोशल मीडिया पर AI-संचालित कंटेंट मॉडरेशन (अभिव्यक्ति की आज़ादी और हानिकारक सामग्री के बीच संतुलन), वित्तीय बाजार (तेजी से एल्गोरिथम व्यापार जिसके, जिसकी वज़ह से 2010 में अमेरिकी शेयर बाजारों में 'फ्लैश क्रैश' हुआ), आपराधिक न्याय (नस्ल के आधार पर अपराध की पुनरावृत्ति के स्कोर देने वाला एल्गोरिदम) समेत कई दूसरे क्षेत्र शामिल हैं.
AI अनुसंधान की एक शाखा के रूप में एआई एकरूपता का काम बढ़ता जा रहा है. एआई सुरक्षा को लेकर बढ़ रही चिंताओं के बीच एआई संरेखन पर फोकस बढ़ गया है क्योंकि आर्टिफिशियल इंटेलिजेंस को सिर्फ कानून या शासन द्वारा नियंत्रित कर पाना मुश्किल साबित हो रहा है.
AI अलाइनमेंट का उद्देश्य गलत एकरूपता के मुद्दों की सक्रिय रूप से निगरानी और उसके समाधान के लिए ऐसा निरीक्षण करना है, जिसकी गणना की जा सके. इसके अलावा निष्पक्ष और संदर्भ-उपयुक्त प्रतिक्रियाओं को सुनिश्चित करने के लिए सामान्यीकरण करना भी इसका काम है. अप्रत्याशित परिस्थितियों में अनिश्चित व्यवहार को रोकने के लिए मज़बूती, इंसानों का ये बताना कि उनके फैसले लेने का सीक्वेंस क्या था, एआई सिस्टम के विकास, उसमें लगातार सुधार और इस सब पर मानव के नियंत्रण को सुनिश्चित करना AI एकरूपता के तहत ही आता है. ये भी कोशिश की जाती है कि एआई के विकास और इस्तेमाल के लिए शासन यानी सरकारों द्वारा जो मानक और दिशानिर्देश बनाए जाएं, वो सैद्धांतिक और नैतिक सीमाओं के भीतर ही हों.
AI संचालन सिद्धांतों के अपेक्षाकृत आसान नुस्खों के बावजूद संदर्भ, वरीयताओं, भाषाओं और संवेदनशीलता की विविधता और परिवर्तनशीलता की एन्कोडिंग करना बहुत मुश्किल काम है. इनकी अस्पष्टता और एआई एल्गोरिदम की अपारदर्शी प्रकृति के कारण एकरूपता सुनिश्चित करना काफ़ी जटिल होता है. पारदर्शिता और व्याख्या और उन मॉडलों की कंप्यूटेशनल व्यवस्था के साथ-साथ उनके प्रदर्शन के बीच हमेशा एक ट्रेड ऑफ यानी किसी एक का चुनाव करना होता है. कठोरता और प्रासंगिकता के लिहाज से देखें तो कंप्यूटेशनल गणितीय मूल्यांकन तकनीक सामाजिक वास्तविकता की विविध और गतिशील प्रकृति को पूरी तरह नहीं समझ सकती है. ऐसा इसलिए होता है क्योंकि सामाजिक वास्तविकताएं कई बार भावनाओं से संचालित होती हैं.
जैसे-जैसे AI की क्षमता बढ़ती जा रही हैं, वैसे-वैसे एआई सिस्टम के साथ अति आत्मविश्वास, मतिभ्रम या चाटुकारिता विकसित करने वाले मॉडलों के ख़तरे बने हुए हैं. इसका नुकसान ये होता है कि तथ्यात्मक सटीकता के बावजूद एआई सिस्टम, उपयोगकर्ता के साथ सहमत हो जाता है. यहीं चीजें ये बताती हैं कि AI में लगातार निरीक्षण की ज़रूरत क्यों होती है. यहां तक कि रिइंफोर्समेंच लर्निंग थ्रू ह्यूमन फीडबैक (आरएलएचएफ) जैसे तरीकों के साथ होने के बावजूद एआई मॉडल स्वयं प्रतिक्रिया में पूर्वाग्रह के लिए अतिसंवेदनशील रहते हैं. इससे वो मानव व्याख्याकारों से अनुमोदन हासिल करने की मॉडल की प्रवृत्ति को बढ़ाते हैं.
तकनीकी-संस्थागत दृष्टिकोण के रूप में ज़िम्मेदार नवाचार
सूचना प्रणाली के प्रबंधन में हुए शोध में अक्सर ये पाया गया है कि सूचना प्रौद्योगिकी एकरूपता को तकनीकी क्षमताओं और संगठनात्मक रणनीति और संचालन, मौजूदा प्रथाओं और व्यापक सामाजिक संदर्भ के बीच एक सामंजस्य सुनिश्चित करने की कोशिश के रूप में देखा जाता है. ये एक ऐसी गतिशील और निरंतर चलने वाली प्रक्रिया है जो तकनीकी प्रणालियों और उनके संदर्भों के बीच समायोजन का काम करती है. जब हम ज़िम्मेदार इनोवेशन की बात करते हैं तो इसकी जड़ें विज्ञान की सामाजिक ज़िम्मेदारी के आसपास की चर्चाओं में हैं. दूसरे शब्दों में कहें तो ये वैज्ञानिक और तकनीकी नवाचार द्वारा निर्मित, परिवर्तित और इससे होने वाले विघ्न के लिए सामूहिक ज़िम्मेदारी के बारे में बात करता है. हालांकि, भविष्य में किसी चीज की आशंका पर वर्तमान में कोई कार्रवाई करना सावधानियों, वैज्ञानिक स्वायत्तता और छूटे हुए अवसरों के ज़ोखिमों को संतुलित करना चुनौतीपूर्ण काम होता है. ज़िम्मेदार नवाचार को स्थापित करने के लिए एक मज़बूत तकनीकी सीमा बनाने के साथ-साथ नीतियों, प्रक्रियाओं और संस्थानों में गहन प्रणालीगत परिवर्तन की आवश्यकता होती है.
जब हम ज़िम्मेदार इनोवेशन की बात करते हैं तो इसकी जड़ें विज्ञान की सामाजिक ज़िम्मेदारी के आसपास की चर्चाओं में हैं. दूसरे शब्दों में कहें तो ये वैज्ञानिक और तकनीकी नवाचार द्वारा निर्मित, परिवर्तित और इससे होने वाले विघ्न के लिए सामूहिक ज़िम्मेदारी के बारे में बात करता है.
शोध में इस बात का भी उल्लेख किया गया है कि कार्रवाई और प्रभाव के बीच कम अनिश्चितता होती है तो उसकी ज़िम्मेदारी सीधी होती है. उदाहरण के लिए, नौकरी में रखने में महिला उम्मीदवारों के खिलाफ भेदभाव करने वाले एल्गोरिदम पूर्वाग्रह का एक स्पष्ट रूप से पहचाने जाने योग्य मामला है. इसे ठीक किया जाना है. लेकिन जहां कार्रवाई और उसके प्रभाव को मापना में ज़्यादा अनिश्चितता होती है, वहां ज़िम्मेदारी तय करना जटिल माना जाता है. उदाहरण के लिए AI द्वारा अभिव्यक्ति की स्वतंत्रता और हानिकारक सामग्री की सीमाओं का निर्धारण करना. ज़िम्मेदारी के मुद्दे तब और भी जटिल हो जाते हैं जब मामला ऐसे क्षेत्र का हो, जिसे पेशेवर उत्कृष्टता के रूप में गिना जाता है. यहां वो परिचालन और व्यवहारिक अनिवार्यताओं के अनुरूप होने के लिए ज़िम्मेदार एकरूपता की आवश्यकता का संकेत देते हैं. इसके अलावा ये भी देखा गया है कि एआई का विकास एक ऐसे इकोसिस्टम में होता है, जिसमें कई हितधारक शामिल होते हैं. ये भी एक वज़ह है जो बताती है कि आई सिस्टम में ज़िम्मेदारी और नियंत्रण ज़रूरी क्यों है?
इकोसिस्टम के भीतर हितधारक की स्थिति के आधार पर ज़िम्मेदारी तय करने से ना सिर्फ मानदंडों और मूल्यों पर बाहरी अनुरूपता खोजने में मदद मिलती है, बल्कि संगठन क्षमताओं के आधार पर आंतरिक तौर पर ही उचित बनाया जाता है.
ज़िम्मेदार AI इकोसिस्टम
भरोसेमंद नवाचार के रूप में एआई एकरूपता प्रतिक्रियावादी नहीं बल्कि ज़्यादा सक्रिय है. यानी AI अलाइनमेंट संभावित अवांछित परिणामों की जवाबदेही से भी आगे जाता है. इसमें ये कोशिश की जाती है कि जवाबदेही को डिजाइन और उत्पाद के साथ पुनरावृत्ति वाले जुड़ाव में शामिल किया जा सके. समावेशी और अपेक्षित मूल्यों के साथ एकरूपता सुनिश्चित हो सके. चूंकि AI सिस्टम का विकास वितरित स्वामित्व और नियंत्रण के साथ संसाधनों और हितधारकों की एक विस्तृत श्रृंखला के बीच आपसी निर्भरता के माध्यम से होता है. ऐसे में ये समझना महत्वपूर्ण हो जाता है कि इन विभिन्न हितधारकों को एक इकोसिस्टम में कैसे व्यवस्थित किया जाए. जिस मूल्य श्रृंखला में वो योगदान करते हैं, उसके आधार पर संबंधित जिम्मेदारियों के निर्धारण में इससे मदद मिलती है. उदाहरण के लिए, बड़े मूलभूत मॉडल तेज़ी से उन क्षेत्रों में एआई एप्लीकेशन के विकास का आधार बन रहे हैं जहां उनकी रचनाओं में पूर्वाग्रह इसके शीर्ष पर विकसित एप्लीकेशन में प्रवेश कर सकते हैं. ऐसे में इस प्रौद्योगिकी को बनाने वाले और इन्हें तैनात करने वाले, दोनों की ज़ोखिम कम करने में महत्वपूर्ण भूमिका है. इकोसिस्टम के भीतर हितधारक की स्थिति के आधार पर ज़िम्मेदारी तय करने से ना सिर्फ मानदंडों और मूल्यों पर बाहरी अनुरूपता खोजने में मदद मिलती है, बल्कि संगठन क्षमताओं के आधार पर आंतरिक तौर पर ही उचित बनाया जाता है. यानी ये देखा जाता है कि क्या ज़िम्मेदार AI पहल उनकी स्थिरता सुनिश्चित करने के लिए परिचालन अनिवार्यताओं के अनुरूप है. ये तकनीकी प्रबंधन, इकोसिस्टम एप्रोच और संस्थागत क्षमता के माध्यम से ज़िम्मेदार इनोवेशन के रूप में AI एकरूपता के त्रिपक्षीय प्रबंधन की की ज़रूरत पर ज़ोर देता है.
अनुलेखा नंदी ऑब्ज़र्वर रिसर्च फाउंडेशन में फेलो हैं
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.