सक्तीचे एआय (Artificial Intelligence) समावेशन डिजिटल पद्धती आणि नियम पूर्णपणे बदलत आहे, तसेच ऊर्जा, पाणी आणि पर्यावरणावर होणारा खर्च मोठ्या प्रमाणात वाढवत आहे.
जनरेटिव्ह आर्टिफिशियल इंटेलिजन्स (Generative Artificial Intelligence - स्वतःहून मजकूर, चित्र किंवा व्हिडिओ तयार करणारे तंत्रज्ञान) च्या झपाट्याने झालेल्या विकासामुळे लार्ज लँग्वेज मॉडेल्स (Large Language Models - LLMs) आणि AI चॅटबॉट्स (AI Chatbots - संवाद करणारी यंत्रणा) जवळजवळ सर्व डिजिटल प्लॅटफॉर्मवर समाविष्ट झाले आहेत. जन-AI (Gen-AI) मॉडेल्सचे विविध प्रकार प्रत्येक अॅप, वेबसाइट आणि डिव्हाइसवर दिसू लागले आहेत. आज सर्वत्र वापरले जाणारे जनरेटिव्ह प्री-ट्रेंड ट्रान्सफॉर्मर (Generative Pre-trained Transformer - GPT) मॉडेल्स प्रत्यक्ष मानवी डेटावर अत्यंत बारकाईने प्रशिक्षित (trained) केले जातात आणि त्यांना चालना देणारी डेटा सेंटर्स (Data Centres - मोठी संगणक केंद्रे) पर्यावरणासाठी अधिकाधिक घातक ठरत असल्याचे सिद्ध झाले आहे. ही प्रगती त्या लोकांच्या संमतीशिवाय झाली आहे ज्यांच्यावर त्याचा सर्वाधिक नकारात्मक परिणाम होत आहे, त्यामुळे नैतिक (ethical) प्रश्न निर्माण होत असून हवामान बदलाशी संबंधित गंभीर चिंता वाढत आहेत.
डेटा गोपनीयतेशी (data privacy) संबंधित सर्वात महत्त्वाचे अधिकार आधीच भंगले गेले आहेत. अनेक तंत्रज्ञान कंपन्यांनी वापरकर्त्यांना माहिती न देता त्यांचा डेटा ‘स्क्रॅपिंग’ (scraping – परवानगीशिवाय माहिती गोळा करणे) करून AI मॉडेल्स प्रशिक्षित केले. हे परत बरोबर करणे आणि AI मॉडेल्स नैतिक पद्धतीने पुन्हा प्रशिक्षित करणे जवळजवळ अशक्य आहे; कारण ही प्रक्रिया अत्यंत महागडी आणि प्रचंड ऊर्जा वापरणारी आहे, जी टेक कंपन्या करण्याची शक्यता फारच कमी आहे. याशिवाय, AI चा पर्यावरणीय खर्च ही वाढती चिंता बनली आहे. डेटा सेंटर्सना प्रचंड प्रमाणात ऊर्जा लागतेच, पण त्याचबरोबर जीपीयू (Graphics Processing Unit – उच्च क्षमतेचे प्रोसेसर) क्लस्टर्स (clusters – एकत्र जोडलेली यंत्रणा) थंड ठेवण्यासाठी मोठ्या प्रमाणावर पाण्याचाही वापर केला जातो. हे पाणी अनेकदा थेट स्थानिक पिण्याच्या पाण्याच्या स्रोतांमधून घेतले जाते. अॅम्स्टरडॅम येथील व्ह्रिये युनिव्हर्सिटी (Vrije Universiteit) यांनी प्रसिद्ध केलेल्या अलीकडील संशोधनानुसार, AI बूममुळे 2025 मध्ये जगभरात बाटलीबंद पाण्याच्या जितक्या वापर झाला, तितकेच पाणी AI साठी वापरले गेले.
डेटा सेंटर्सना केवळ प्रचंड ऊर्जा लागते असे नाही, तर जीपीयू क्लस्टर्स थंड ठेवण्यासाठी ते अनेकदा थेट स्थानिक पिण्याच्या पाण्याचाही वापर करतात.
Gen-AI मॉडेल्स जसे की GPT-5 यांचे प्रशिक्षण (training) करताना ऊर्जा आणि पाण्याचा मोठा वाटा खर्च होतो. दररोज अब्जावधी वापरकर्त्यांचे प्रश्न जन-AI मॉडेल्सद्वारे प्रक्रिया केल्या जातात आणि त्यांचा स्वतःचा पर्यावरणीय खर्च असतो. हा खर्च विशेषतः ऊर्जा वापर, पाण्याची गरज आणि ई-वेस्ट (e-waste – इलेक्ट्रॉनिक कचरा) निर्मितीशी संबंधित आहे. प्रत्येक प्रश्नाचा पर्यावरणीय परिणाम नेमका किती आहे हे मोजणे कठीण आहे; साध्या मजकूर स्वरूपातील प्रश्न तुलनेने कमी संसाधने वापरतात, तर चित्र किंवा व्हिडिओ निर्मिती अधिक संसाधनांची मागणी करते. हे दोन्ही प्रकार आता अधिकाधिक प्रमाणात वापरले जात आहेत. नॅनोबनाना 3 (NanoBanana 3) सारखी नवी व्हिडिओ जनरेशन मॉडेल्स ही संसाधन-वापर करणारी कामे आणखी वाढवणार आहेत. एकत्रितपणे पाहता, या सगळ्याचा पर्यावरणीय भार प्रचंड आहे. इंटरनॅशनल एनर्जी एजन्सी (International Energy Agency – IEA) ने 2025 मधील अहवालात AI बूममुळे वाढणाऱ्या ऊर्जेच्या मागणीवर प्रकाश टाकला आहे. मोठ्या प्रमाणावर जीपीयू क्लस्टर्स थंड ठेवण्यासाठी पिण्यायोग्य पाण्याचा वापर केल्याचे परिणाम मोजणे आणखी कठीण आहे. तरीसुद्धा, डेटा सेंटर्स असलेल्या स्थानिक समुदायांवर होणारा सुरुवातीचा परिणाम अत्यंत चिंताजनक आहे, विशेषतः भविष्यात डेटा सेंटर्सचा मोठ्या प्रमाणावर होणारा विस्तार लक्षात घेता.
डेटा आणि गोपनीयतेच्या चिंतेपलीकडे, डेटा सेंटर्सच्या झपाट्याने वाढीमुळे निर्माण होणारा पर्यावरणीय खर्च आणि चॅटबॉट्स तसेच AI-निर्मित माध्यमांचा वाढता वापर यामुळे जगभरात तीव्र विरोध सुरू झाला आहे. चिली, भारत, उरुग्वे, स्पेन तसेच अमेरिकेतील काही भागांमध्ये पाणी मोठ्या प्रमाणात वापरणाऱ्या डेटा सेंटर्सविरोधात आंदोलने झाली आहेत. आज जवळजवळ प्रत्येक लोकप्रिय अॅप, वेबसाइट आणि आधुनिक इलेक्ट्रॉनिक उपकरणामध्ये AI चॅटबॉट किंवा सहाय्यक (assistant) असण्याची शक्यता आहे. सोशल मीडियावर बनावट चित्रे आणि व्हिडिओंचा पूर आला असून, AI-निर्मित मजकूर सर्व माध्यमांत पसरत चालला आहे. त्यामुळे सत्य आणि कल्पना यामधील फरक ओळखणे जवळजवळ अशक्य झाले आहे. या विरोधामागील मुख्य कारण म्हणजे AI चे सक्तीने आणि अचानक केलेले समावेशन, ज्यामध्ये वापरकर्त्यांना ते बंद करण्याचा किंवा त्यातून बाहेर पडण्याचा कोणताही पर्याय दिला जात नाही.
प्रत्येक Google सर्च मध्ये, डीफॉल्ट स्वरूपात AI ओव्हरव्ह्यू (AI Overview - AI द्वारे तयार केलेला सारांश) तयार होतो, जरी अधिक प्रगत ‘AI mode’ बंद केलेला असला तरीही. हे ओव्हरव्ह्यू Google च्या Gemini AI द्वारे तयार केले जातात आणि त्यामुळे प्रोसेसिंगची गरज प्रचंड वाढते. वापरकर्ते शोधामध्ये “AI” लिहून हा ओव्हरव्ह्यू टाळू शकतात, मात्र या पर्यायाची थेट माहिती वापरकर्त्यांना देण्यासाठी फारसे प्रयत्न केलेले नाहीत. अनेकांनी प्रश्न उपस्थित केला आहे की जेव्हा AI ओव्हरव्ह्यू तयार करण्यासाठी ऊर्जा-खाऊ डेटा सेंटर्स वापरले जातात, जे पिण्याचे स्वच्छ पाणी थंडीसाठी वापरतात, तेव्हा ही सुविधा डीफॉल्ट स्वरूपात सुरूच का ठेवली आहे. नियामकांनी (regulators) कदाचित विचारायला हवे की जर AI ओव्हरव्ह्यू इतकाच आवश्यक असेल, तर वापरकर्त्यांना शोधामध्ये “+AI” लिहिणे बंधनकारक का केले जात नाही.
या विरोधामागील मूळ कारण म्हणजे AI चे सक्तीने आणि अचानक केलेले समावेशन, ज्यामुळे वापरकर्त्यांकडे ते बंद करण्याचा किंवा त्यातून बाहेर पडण्याचा जवळजवळ कोणताही पर्याय उरत नाही.
इंटरनेट शोधासारख्या साध्या गोष्टीतील हा बदल डिजिटल जगातील माहिती अर्थव्यवस्थेला कायमस्वरूपी बदलून टाकत आहे. उद्देश स्पष्ट आहे - “Google नेच तुमच्यासाठी शोध घ्यावा.” जेव्हा वापरकर्ते स्वतः स्रोत तपासण्यासाठी आणि माहिती पडताळण्यासाठी Google बाहेर पडतात, तेव्हा जाहिरातदारांचे लक्ष आणि दृश्यता कमी होते, जे नफ्यावर चालणाऱ्या कंपन्यांसाठी प्रतिकूल आहे. मात्र लोकांनी या सुविधांबाबत नाराजी व्यक्त केली असून, AI हस्तक्षेप टाळण्यासाठी त्यांनी स्वतःच्या पद्धती शोधून काढल्या आहेत.
‘Meta AI’ अचानक प्रत्येक स्मार्टफोनवरील सर्वाधिक वापरल्या जाणाऱ्या अॅप्समध्ये दिसू लागले. Facebook आणि Instagram यांनी सर्वप्रथम ते समाविष्ट केले आणि Meta AI थेट वैयक्तिक चॅट्स आणि डायरेक्ट मेसेजेसमध्ये प्रवेश करू लागले, जणू एखादा शांत तिसरा व्यक्ती आदेश दिल्यावर प्रतिसाद देत आहे. WhatsApp च्या वरच्या सर्च बारमध्येही हा AI चॅटबॉट दिसू लागला, वापरकर्त्यांना याची पूर्वकल्पना देण्यात आली किंवा नाही याची कोणतीही खात्री नव्हती. या सुविधेतून बाहेर पडण्याचा किंवा ती बंद करण्याचा कोणताही पर्याय उपलब्ध नाही; वापरकर्त्यांची संमती न घेताच हा बदल लागू करण्यात आला. अशीच प्रक्रिया Instagram आणि Facebook वरही झाली. काही वेळा वापरकर्ते आपल्या डेटाचा वापर AI मॉडेल्ससाठी होऊ नये म्हणून अंशतः नकार देऊ शकतात. मात्र ही opt-out प्रक्रिया इतकी लपवलेली असते की ती शोधण्यासाठी स्वतंत्र मार्गदर्शक (tutorial) पाहावा लागतो.
Microsoft ला देखील Windows 11 च्या AI-आधारित (AI-driven) आवृत्तीकडे सक्तीने अपग्रेड करण्याच्या निर्णयामुळे तीव्र टीकेला सामोरे जावे लागले. Windows 10 चालवू शकणाऱ्या पण त्यापुढील आवृत्ती (Versions) समर्थित नसलेल्या सर्व वैयक्तिक संगणकांसाठी (personal computers) सपोर्ट बंद करण्याचा निर्णय घेण्यात आला. अशा प्रकारे AI समावेशन जबरदस्तीने लादल्याबाबत अनेक गंभीर आणि योग्य चिंता व्यक्त करण्यात आल्या. या निर्णयामुळे निर्माण होणाऱ्या विविध परिणामांमुळे Microsoft विरुद्ध कायदेशीर कारवाई देखील करण्यात आली, विशेषतः ऊर्जा आणि पाण्याच्या वाढत्या गरजांशी संबंधित परिणामांबाबत. याशिवाय, AI Copilot आधारित Windows 11 कडे सक्तीची स्थलांतर प्रक्रिया (mandatory migration) केल्यामुळे प्रचंड प्रमाणात e-waste (electronic waste - इलेक्ट्रॉनिक कचरा) निर्माण झाला. तांत्रिक निकष पूर्ण न करणारी शेकडो दशलक्ष उपकरणे पूर्णपणे टाकून द्यावी लागली.
ही गंभीर पर्यावरणीय चिंता आणि इतर अनेक कारणांमुळे अनेक लोक सध्याच्या तंत्रज्ञानाच्या अवस्थेबद्दल हळूहळू निराश होत आहेत. काही मोजक्या मोठ्या कंपन्यांच्या वर्चस्वाखाली हे तंत्रज्ञान चालत असल्याची भावना अधिक बळावत आहे. त्यामुळे वापरकर्त्यांनी मुख्य प्रवाहातील (mainstream) प्लॅटफॉर्म्स सोडून पर्यायी पर्यायांकडे वळावे, अशा मागण्या पुन्हा जोर धरू लागल्या आहेत. X, Facebook आणि WhatsApp यांसारख्या सोशल मीडिया दिग्गजांना आता Bluesky, Signal आणि Telegram सारख्या प्लॅटफॉर्म्सकडून काही प्रमाणात स्पर्धा मिळत आहे. जर AI चा सक्तीचा दबाव असाच सुरू राहिला, तर वापर कमी होऊ शकतो, ज्यामुळे AI मध्ये गुंतवणूक करणारे मोठे गुंतवणूकदार (funders) पुढील गुंतवणुकीबाबत साशंक होऊ शकतात.
नियामक संस्था (regulators) तंत्रज्ञान विकसकांच्या वेगाशी जुळवून घेण्यात अपयशी ठरल्या आहेत; मात्र आता अनेकांना हे स्पष्टपणे जाणवत आहे की आक्रमक (intrusive) पद्धतीने राबवलेला AI आजपर्यंत अपेक्षित नफा आणि सामाजिक लाभ या दोन्ही बाबींमध्ये अपयशी ठरला आहे.
नियामक संस्था तंत्रज्ञान विकसकांच्या वेगाशी जुळवून घेण्यात अडचणीत असल्या तरी आता हे अधिकाधिक मान्य केले जात आहे की आतापर्यंतचा आक्रमक AI रोलआउट (AI rollout – मोठ्या प्रमाणावर अंमलबजावणी) अपेक्षित आर्थिक आणि सामाजिक फायदे देऊ शकलेला नाही. पुढील काळात विकसकांनी गांभीर्याने विचार करणे गरजेचे आहे की automatic opt-in मॉडेल्स (आपोआप AI सुरू होणे) अधिक विरोध निर्माण करत आहेत का आणि त्यामुळे नवकल्पनांना अडथळा आणणाऱ्या नियामक हस्तक्षेपाची शक्यता वाढते का. तंत्रज्ञान कंपन्यांनी हे सुनिश्चित करणे आवश्यक आहे की AI वैशिष्ट्ये (AI features) डीफॉल्ट स्वरूपात बंद असावीत आणि वापरकर्त्यांनी गरज वाटल्यासच ती वापरण्याचा पर्याय निवडावा. असे केल्यास या प्लॅटफॉर्मच्या दैनंदिन वापरामधील AI चा पर्यावरणीय ठसा (ecological footprint) लक्षणीयरीत्या कमी होऊ शकतो. प्रत्येक प्लॅटफॉर्मवर स्पष्ट आणि ठोस परवानग्या (permissions) दिल्या पाहिजेत, ज्यामध्ये कोणती प्रक्रिया सुरू होते हे निर्विवादपणे स्पष्ट केलेले असावे.
जरी अनेकजण असा दावा करत असले की AI हवामान बदल ‘सोडवू’ शकतो आणि ऊर्जा वापर अधिक कार्यक्षम बनवू शकतो, तरी अलीकडील संशोधनातून हे दावे अतिशयोक्त (overstated) असल्याचे दिसून आले आहे. कोणत्याही परिस्थितीत, अशा वापरांमध्ये अत्यंत काळजी घेणे आवश्यक आहे, जेणेकरून प्रक्रियेदरम्यान होणारे पर्यावरणीय नुकसान कमी करता येईल. नवीन LLMs (Large Language Models) चे प्रशिक्षण यांसारख्या ऊर्जा-खाऊ प्रक्रिया तेव्हाच राबवायला हव्यात, जेव्हा संबंधित उद्योग स्वच्छ आणि नवीकरणीय ऊर्जा (clean and renewable energy) तसेच शाश्वत पाणी व कचरा व्यवस्थापनाकडे पूर्णपणे वळलेले असतील. भविष्यातील तंत्रज्ञानाने भूतकाळातील इंधनांचा वापर करू नये.
कृष्णा वोहरा या ऑब्झर्व्हर रिसर्च फाऊंडेशन (ORF) मधील 'सेंटर फॉर इकॉनॉमी अँड ग्रोथ' (Centre for Economy and Growth) येथे कनिष्ठ फेलो (Junior Fellow) म्हणून कार्यरत आहेत.
The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.
Krishna Vohra is a Junior Fellow at the Centre for Economy and Growth. His primary research areas include energy, technology, and the geopolitics of climate ...
Read More +