Author : Jaibal Naduvath

Published on Mar 22, 2024 Updated 0 Hours ago

जनतंत्रों को चाहिए कि वो आर्टिफिशियल इंटेलिजेंस (AI) की असीम क्षमताओं का दोहन करके चुनाव के नतीजों में हेरा-फेरी पर आमादा दुश्मन ताक़तों की साज़िशों से अपनी हिफ़ाज़त करें.

AI: ‘चुनाव, आर्टिफिशियल इंटेलिजेंस और विदेशी दख़लंदाज़ी!’

2024 के चुनावों पर मंडराता AI का ख़तरा

2024 में लगभग आधी दुनिया में चुनाव होने जा रहे हैं. इनमें भारत, अमेरिका और यूरोपीय संघ (EU) भी शामिल हैं. ऐसे में जनप्रिय नैरेटिव में घुसपैठ करने और चुनाव के नतीजों को प्रभावित करने में आर्टिफिशियल इंटेलिजेंस और ख़ास तौर से जेनरेटिव AI की भूमिका पर बहुत अधिक ध्यान केंद्रित किया जा रहा है. निर्णय लेने और लोकतांत्रीकरण के औज़ार के तौर पर AI में काफ़ी संभावनाएं हैं. इसके ज़रिए मतदाताओं से संपर्क और भागीदारी को बढ़ाने से लेकर, कम क़ीमत वाले प्रचार अभियान की योजना बनाने, सटीक संभावनाओं का आकलन करने और आंकड़ों के विशाल भंडार का आसानी से विश्लेष किया जा सकता है. फिर भी, अगर ये तकनीकी औज़ार ग़लत हाथों में पड़ जाए, तो इसकी असीम क्षमताएं क़हर बरपा सकती हैं, झूठ का प्रचार कर सकती हैं. लोगों के ज़हन में आशंकाएं पैदा करके वोट को प्रभावित कर सकती हैं और इस तरह लोगों की क़िस्मतें भी तय कर सकती हैं. हाल ही में अमेरिका के राष्ट्रपति बाइडेन की नक़ल वाली AI से तैयार आवाज़ के ज़रिए न्यू हैम्पशायर के मतदाताओं के फोन पर मैसेज भेजे गए कि वो वहां रिपब्लिकन पार्टी के प्राइमरी चुनाव में शामिल न हों. इस मिसाल से ही AI के ख़तरों का अंदाज़ा हो जाता है. अब AI के जोखिम जनता के ज़हन पर छाप छोड़ रहे हैं. आर्टिफिशियल इंटेलिजेंस पॉलिसी इंस्टीट्यूट द्वारा कराए गए एक पोल में दिखा कि भारी तादाद में अमरीकी मतदाता ये मानते हैं कि अनियमित AI से ऐसा हादसा हो सकता है, जो तबाही मचाने वाली घटनाबन जाए. विश्व आर्थिक मंच के ग्लोबल रिस्क्स परसेप्शन सर्वे 2023-2024 ने दुनिया भर में फैली इन आशंकाओं की तरफ़ इशारा किया है. सर्वे में शामिल लगभग आधे लोगों ने AI से तैयार ग़लत जानकारी से 2024 में सबसे भयानक संकट पैदा करने की आशंकाजताई है.

 

चुनाव में दख़लंदाज़ी के खेल को ऐसे समझें

 

दुनिया भर में मची हलचल के बीच, इस चुनावी सीज़न में एक पहलू ऐसा है, जो निश्चित रूप से सुर्ख़ियां बटोरेगा. वो है, चुनाव में बदनीयती से विदेशी दख़लंदाज़ी. रूस पर इल्ज़ाम लगा था कि उसने 2016 के अमेरिकी राष्ट्रपति चुनाव में दख़लंदाज़ी की थी, और बहुत से लोग ये मानते हैं कि रूस के इस हस्तक्षेप का असर चुनाव के नतीजों पर भी पड़ा था. आज की तुलना में उस वक़्त निश्चित रूप से सरल तकनीकों का ज़माना था, जब ई-मेल हैक करने और सोशल मीडिया इंजीनियरिंग को बड़े पैमाने पर इस्तेमाल करके ख़ास नतीजे हासिल करने की कोशिश की गई थी. हालांकि, आर्टिफिशियल इंटेलिजेंस के क्षेत्र में तरक़्क़ी ने अब इस मोर्चे को पूरी तरह से तब्दील कर दिया है. इसकी वजह से दुश्मन किरदारों द्वारा ग़लत सूचना के प्रचार की क्षमता में ग़ज़ब का इज़ाफ़ा हो गया है, और इनके स्रोत तक पहुंचना भी मुश्किल हो गया है. जिन जनतांत्रिक देशों में चुनाव विशेष रूप से गुटबाज़ी वाले होते हैं, वहां ऐसे ग़लत इरादों वाले हस्तक्षेप से दूरियों की खाई और गहरी हो सकती है, तनाव बढ़ सकता है. सामाजिक दरारों और छोटी छोटी दिक़्क़तों को तोड़-मरोड़कर और बढ़ा-चढ़ाकर पेश किए जाने की आशंका बढ़ जाती है.

 आर्टिफिशियल इंटेलिजेंस पॉलिसी इंस्टीट्यूट द्वारा कराए गए एक पोल में दिखा कि भारी तादाद में अमरीकी मतदाता ये मानते हैं कि अनियमित AI से ऐसा हादसा हो सकता है, जो तबाही मचाने वाली घटनाबन जाए.

आर्टिफिशियल इंटेलिजेंस के टूल आज अरबों बाइट डेटा में से ज़रूरत की चीज़ को पलक झपकते ही खोज सकते हैं. उन्हें इस्तेमाल के लायक़ जानकारी में तब्दील कर सकते हैं और फिर सटीक प्रभाव के इस्तेमाल लायक़ बना सकते हैं, जो मतदाताओं के पूर्वाग्रहों का दुरुपयोग करें. फिर इनको बड़े पैमाने पर लागू किया जा सकता है. झूठ-मूठ की गढ़ी गई ख़बरें, डीपफेक, सोशल मीडिया पर झूठी और अतार्किक टिप्पणी, ई-मेल स्वैपिंग और रोबोटिक कॉल जैसे माध्यमों का इस्तेमाल मतदाताओं को एक ख़ास तरह से लामबंद करने के लिए किया जा सकता है. पूर्वाग्रहों को मज़बूत बनाने वाले ख़ास तौर से तैयार कंटेंट का इस्तेमाल ख़ास तबक़े को निशाना बनाने के लिए हो सकता है. इसके लिए एल्गोरिद्म की मदद से व्यक्तिगत पसंद नापसंद के मुताबिक़ ऐसा कंटेंट पेश किया जा सकता है, जिससे ध्रुवीकरण और बढ़ जाए. ग़लत सूचना की बाढ़ को टेलीग्राम और व्हाट्सऐप जैसे मैसेजिंग ऐप्स के ज़रिए भी अंजाम दिया जा सकता है. क्योंकि आज के दौर में आम लोगों के बीच सूचना के ये इतने अहम माध्यम बन गए हैं कि इन्हें यूनिवर्सिटीजैसे आम हो चुके नाम से भी जाना जाता है. गढ़े गए नैरेटिव्स की ऐसी बाढ़ से ऐसे मुद्दों से ध्यान बंट जाएगा, जो अहम हैं. इसके बजाय, विरोधी ताक़तें अपने एजेंडे का प्रचार कर सकती हैं, जिससे चुनावी प्रक्रिया को अभूतपूर्व स्तर तक जाकर प्रभावित किया जा सकता है.

 

डिजिटल कठपुतलीबाज़ों के घातक किरदार

 

रूस, चीन, उत्तर कोरिया और ईरान जैसे देशों पर अक्सर ऐसी दुश्मनी भरी हरकतें करने का शक होता है. इन देशों के बारे में माना जाता है कि इन्होंने सूचना के माहौल को संक्रमित करने की अपनी क्षमता इतनी अधिक बढ़ा ली है, जिसके बारे में पहले ये सोचा जाता था कि ये तो नामुमकिन है. बेल्फर सेंटर का नेशनल साइबर पावर इंडेक्स 2022 कहता है कि चीन और रूस दुनिया की दूसरी और तीसरी सबसे व्यापक साइबर ताक़ते हैं. इनमें भी चीन निगरानी करने में इस क्षमता के इस्तेमाल में काफ़ी आगे है. इस सूचकांक में उत्तर कोरिया सातवें और ईरान दसवें स्थान पर है. दूसरे राष्ट्रों में इन देशों की साज़िशों में इनके काम वो कुशलता भी आएगी, जिसका ये देश अपने नागरिकों की निगरानी करने और उनके पूर्वाग्रहों को ख़त्म करने में इस्तेमाल करते आए हैं. मिसाल के तौर पर चीन में निगरानी की एक व्यापक मल्टी-मोडल व्यवस्था है, जिसके दायरे में चीन की 1.4 अरब की लगभग सारी आबादी आती है. इस निगरानी व्यवस्था का इस्तेमाल लोगों के निजी बर्तावों का पूर्वानुमान लगाने और उन गतिविधियों की पहले से ही रोकथाम के लिए किया जाता है, जिसे देश और कम्युनिस्ट पार्टी के ख़िलाफ़ माना जाता है. AI के उभार और AI पर आधारित काट-छांट वाले उन्नत औज़ारों की उपलब्धता ने कम्युनिस्ट पार्टी की शाखाओं और चीन की सुरक्षा व्यवस्था संभालने वालों को ऐसी ताक़त दे दी है, जिससे वो डेटा के विशाल भंडार को प्रॉसेस करके हर व्यक्ति के बारे में काम लायक़ जानकारी निकाल सकते हैं, जिसे स्थानीय भाषा में आम तौर पर एक व्यक्ति, एक फाइलकहा जाता है. आज निश्चित रूप से चीन के पास विदेश से बारीक़ से बारीक़ आंकड़े जुटाकर उसका विश्लेषण करने की भारी क्षमता है. इसके लिए वो तमाम तरह के औज़ार इस्तेमाल करता है. इसके लिए चीन, दूसरे देशों से बड़े पैमाने पर डेटा की चोरी और कारोबारी बिचौलियों से लेकर डार्क वेब की गतिविधियों, समुदायों में छुपे एजेंटों, औद्योगिक जासूसी और दूरसंचार के उपकरणों अवैध रूप से छुपाकर लगाए गए उपकरणों के ज़रिए तमाम देशों पिछले दरवाज़े से घुसपैठ करने और दूसरे देशों में चीन से हमदर्दी रखने वालों तक का इस्तेमाल करता है. जेनरेटिव AI के आसानी से उपलब्ध औज़ारों के प्रसार और उनके दुरुपयोग को रोकने की सीमित क्षमता ने चीन की इन कोशिशों को कई गुना बढ़ा दिया है. अहम रूप से ये भी कहा जाता है कि चीन, विज्ञान और तकनीकी शिक्षा को इसलिए प्राथमिकता दे रहा है, ताकि वो साइबर अभियानों के लिए अपने नागरिकों के बीच क़ाबिल लोगों के विशाल समूह का निर्माण कर सके.

 

आर्टिफिशियल इंटेलिजेंस में आगे निकलने की बढ़ती होड़

 

चूंकि दांव पर बहुत कुछ लगा है, इसलिए 2024 में हम AI पर आधारित ग़लत सूचनाओं से निपटने के औज़ारों और तकनीकों के विकास से लेकर उन्हें लागू करने के मामले में अभूतपूर्व उभार आते देख सकते हैं. ऐसे तकनीकी आविष्कारों के केंद्र में AI से तैयार कंटेंट की पहचान करने वाले औज़ार होंगे. जैसे कि कंटेंट आईडी और छुपाए गए वाटरमार्क. हालांकि, एक बड़ी चुनौती तब उभरती है, जब जेनरेटिव AI टूल्स की बच निकलने की क्षमता, उनका पता लगा सकने वाली फोरेंसिक तकनीकों के विकास को पीछे छोड़ देती है. इस वजह से नुक़सानदेह और फ़ायदेमंद तकनीकों के विकास की ये चूहा-बिल्ली वाली दौड़ साल दर साल जारी रहती है. लर्निंग पर आधारित नुक़सानदेह AI टेक्स्ट डिकेक्टर रडार और वास्तविक समय में डीपफेक का पता लगाने वाले फेककैचर जैसी तकनीकें इन चुनौतियों से निपटने का प्रयास तो कर रही हैं. मगर, तकनीक की तेज़ी से बदलती दुनिया में उनका प्रभावी बने रहना अभी साबित होना बाक़ी है.

  बेल्फर सेंटर का नेशनल साइबर पावर इंडेक्स 2022 कहता है कि चीन और रूस दुनिया की दूसरी और तीसरी सबसे व्यापक साइबर ताक़ते हैं. इनमें भी चीन निगरानी करने में इस क्षमता के इस्तेमाल में काफ़ी आगे है. इस सूचकांक में उत्तर कोरिया सातवें और ईरान दसवें स्थान पर है.

मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी की लिंकन लैब द्वारा विकसित प्रभावित करने वाले अभियानों की टोही व्यवस्था (RIO), जो विरोधी प्रभाव वाले नैरेटिवऔर पूरे सोशल मीडिया में उसे फैलाने वालों का अपने आप ही पता लगा लेती है. इसके अलावा, मुनाफ़े की नीयत से तैयार किए गए ट्रेडमार्क वाले AI के औज़ार जैसे कि Cyabra, Blackbird.AI और Alethea, ग़लत सूचना से बचाव का कवच देते हैं. ऐसे में सूचना की सुरक्षा का बाज़ार 2024 में दिलचस्पी के विशाल मैदान में तब्दील हो गया है. वैसे तो निजी मिल्कियत वाले महंगे औज़ार अक्सर आम नागरिकों की पहुंच से बाहर होते हैं. लेकिन, ग़लत सूचना का मुक़ाबला करने की होड़ ने आसानी से हासिल किए जा सकने वाले AI पर आधारित औज़ारों को भी जन्म दिया है, ताकि ग़लत सूचना के प्रवाह का सामना किया जा सके. मीडिया बायस/ फैक्टचेक, फेकफैक्ट, लॉजिकली, होक्सली और न्यूज़गार्ड द्वारा विकसित AI ब्राउज़र और botbusters.ai जैसे औज़ार ग्राहकों को काफ़ी सटीक तरीक़े से ग़लत सूचना का पता लगाने में मदद करते हैं. ऐसे में हैरानी की बात नहीं है कि शेयर बाज़ार पर नज़र रखने वाले ये उम्मीद कर रहे हैं कि 2024 में शेयर बाज़ारों में उछाल की अगुवाई AI कंपनियों के शेयर करेंगे. हालांकि, ये देखना बाक़ी है कि क्या इनोवेशन की ये बाढ़ और पैसे के बाज़ार की सुनामी से डिजिटल संप्रभुता के नए दौर की बुनियाद पड़ेगी.

 

नियमन और आविष्कार के बीच संतुलन बिठाना

 

धोखे वाले दुष्प्रचार संप्रभुता और सामाजिक व्यवस्था के लिए ख़तरा हैं. आज जब उन्नत तकनीकों का नियमन करना मुश्किल है, और हाल ही में वादा करने के बावजूद, तकनीकी कंपनियां ख़ुद से विनियमन को नापसंद करती हैं, तो ऐसे मंज़र में देशों के सामने खड़ी चुनौती बहुत बड़ी है. डीपफेक जैसी तकनीकों का उभार, सच्चाई और झूठ के बीच के अंतर को ख़त्म कर देता है. ऐसे में दुश्मन संस्थाओं द्वारा इनका दुरुपयोग करने से बचाने के लिए सुरक्षा की मज़बूत दीवार खड़ी करनी ज़रूरी है. सरकारें आज डेवेलपर्स, क़ानूनों और विशेषज्ञ एजेंसियों के ज़रिए इस चुनौती से निपटने के तरीक़े ईजाद कर रही हैं. भारत का प्रस्तावित डिजिटल इंडिया एक्ट ग़लत सूचना के ख़िलाफ़ और ऑनलाइन तकनीकों के नैतिक इस्तेमाल के लिए एक व्यापक क़ानूनी रूप-रेखा पेश करता है. सिंगापुर ने प्रोटेक्शन फ्रॉम ऑनलाइन फाल्सहुड्स ऐंड मैनिपुलेशन एक्ट और फॉरेन इंटरफेरेंस (काउंटरमेज़र्स) एक्ट पारित किया है, ताकि ऐसी चुनौतियों से मुक़ाबले के लिए क़ानूनी एजेंसियों को ताक़तवर बना सके. फ्रांस और स्वीडन ने भी फेक न्यूज़ और बाहरी दख़लंदाज़ी से निपटने के लिए विशेष समर्पित एजेंसियों का गठन किया है.

 वैसे तो निजी मिल्कियत वाले महंगे औज़ार अक्सर आम नागरिकों की पहुंच से बाहर होते हैं. लेकिन, ग़लत सूचना का मुक़ाबला करने की होड़ ने आसानी से हासिल किए जा सकने वाले AI पर आधारित औज़ारों को भी जन्म दिया है, ताकि ग़लत सूचना के प्रवाह का सामना किया जा सके.

हालांकि AI के संभावित दुरुपयोग को लेकर चल रही परिचर्चाओं के बीच, नीति नियंताओं को तकनीक के संदर्भ में इनोवेशन के प्रति झुकाव रखने वाला संतुलित नज़रिया अपनाना चाहिए, क्योंकि इस तकनीक में अपार संभावनाएं हैं. हताशा में नीतिगत जंजाल का विस्तार नहीं होना चाहिए, और न ही ऐसे तरीक़े अपनाने चाहिए जिन पर सवाल उठे. इसकी मिसाल कई अमेरिकी राज्यों द्वारा चुनाव अभियान के लिए AI के इस्तेमाल को सीमित करने के तौर पर हमारे सामने है. ऐसे प्रयासों में पता लगाने और नियमों को सख़्ती से लागू करने के पर्याप्त प्रावधान नहीं हैं, इसलिए इनसे इनोवेशन को चोट पहुंचने का डर है. अहम बात ऐसी नीतियां बनाने में है, जो बदनीयती से पर्दा उठा दें, न कि एल्गोरिद्म पर शिकंजा कसें. इसके अलावा ग़लत सूचना के प्रति मज़बूत रुख़ अपनाने के लिए नागरिकों की जागरूकता का स्तर भी बढ़ाया जाना चाहिए. मिसाल के तौर पर सिंगापुर ने अपने नेशनल लाइब्रेरी बोर्ड के ज़रिए ग़लत सूचना के ख़िलाफ़ साक्षरता बढ़ाने के लिए एक राष्ट्रीय अभियान शुरू किया है. हालांकि, विश्व भर में इस तकनीक़ के विनियमन के मंज़र का अभी विकास ही हो रहा है. कुछ बुनियादी मानक लागू करने के लिए आर्टिफिशियल इंटेलिजेंस की कंपनियों से अच्छी नीयत वाले स्वैच्छिक समझौते करने से लेकर, इस क्षेत्र के नियामकों को अपने दायरे में रहते हुए AI के लिए विशेष क़ानून बनाने और AI कंपनियों पर काफ़ी ज़िम्मेदारी डालने वाली रूप-रेखाओं तक, तमाम देश अपने अपने हिसाब से AI के विनियमन के अलग अलग रास्तों पर चल रहे हैं. दुनिया भर में AI पर बना सबसे व्यापक क़ानून, यूरोपीय संघ का AI एक्ट है. ये जोखिमों के वर्गीकरण का एक उदाहरण पेश करता है. हालांकि, इन सबके बीच सहयोगात्मक नियमन के ऐसे तौर-तरीक़े भी हैं, जो इनोवेशन को सबसे ज़्यादा बढ़ावा देने की मिसाल पेश करने वाले हैं. अहम बात ये है कि सरकारों को चाहिए कि वो ग़लत सूचनाओं का असर कम करने के लिए, अपनी सोच बदलने आविष्कारकों और इस उद्योग के साथ बराबरी के साझीदार वाला रवैया अपनाए, और केवल सख़्त कार्रवाई करने के बजाय इस क्षेत्र में काम करने वालों को सही सामरिक दिशा की ओर चलने में मदद करे.

 इस चुनावी साल में ऐसे देश जेनरेटिव AI की ताक़त का इस्तेमाल इस हद तक बढ़ा सकते हैं, जिसके नतीजे बेहद ख़तरनाक हो सकते हैं. जनतांत्रिक देशों को चाहिए कि वो आज के दौर के ऑक्टेवियनों की साज़िशों ख़िलाफ़ अपनी सुरक्षा मज़बूती से कर सकें, ताकि साज़िश करने वाले लोकतांत्रिक प्रक्रिया का इस्तेमाल अपने मक़सद हासिल करने के लिए न कर सकें.

आतंक के राज से आगे

 

दो हज़ार साल पहले ऑक्टेवियन ने मार्क एंथनी पर जीत हासिल करने के लिए ग़लत जानकारी को हथियार बनाया था और इसकी मदद से उसने दूसरी त्रिमूर्ति को शिकस्त दी थी, जिससे उसके रोम का पहला सम्राट बनने का रास्ता साफ़ हुआ था. सीमाओं के आर-पार सक्रिय देश आज के दौर के ऑक्टेवियन हैं. वो सूचना के माहौल को इस तरह तोड़ते मरोड़ते हैं, ताकि वो अपनी पसंद की विश्व व्यवस्था का निर्माण कर सकें, जहां वो ही शासक हों और उनका तरीक़ा ही आम क़ानून बने. ऐसा करते हुए वो सच्चे बाग़ी का चोला भी ओढ़े रहते हैं. इस चुनावी साल में ऐसे देश जेनरेटिव AI की ताक़त का इस्तेमाल इस हद तक बढ़ा सकते हैं, जिसके नतीजे बेहद ख़तरनाक हो सकते हैं. जनतांत्रिक देशों को चाहिए कि वो आज के दौर के ऑक्टेवियनों की साज़िशों ख़िलाफ़ अपनी सुरक्षा मज़बूती से कर सकें, ताकि साज़िश करने वाले लोकतांत्रिक प्रक्रिया का इस्तेमाल अपने मक़सद हासिल करने के लिए न कर सकें. फिर भी, इन तानाशाही ताक़तों द्वारा जेनरेटिव आर्टिफिशियल इंटेलिजेंस के दुरुपयोग की आशंकाओं को लेकर हो रही परिचर्चाओं की वजह से इसके तमाम फ़ायदों पर से हमारा ध्यान नहीं हटना चाहिए और न ही ऐसी नीतियां बनाई जानी चाहिए, जो नुक़सानदेह साबित हों. क्योंकि, भागीदारी वाली प्रक्रिया को मज़बूत बनाने और उन्हें ताक़तवर और लचीला बनाने में AI की क्षमता का कोई मुक़ाबला नहीं है. इसीलिए, आज जब हम चुनावी साल में जेनरेटिव AI की तमाम ख़ूबियों और उसकी नुक़सानदेह क्षमताओं के बीच तालमेल बिठाने की कोशिश कर रहे हैं, तब हमें ये सुनिश्चित करना चाहिए कि हम सतर्क रहें, अराजक न बनें, और ये बड़ी बारीक़ लक़ीर है.

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.