एआई रीज़निंग मॉडल का उदय एक बड़े ऊर्जा व्यापार के साथ आता है

एआई रीज़निंग मॉडल का उदय एक बड़े ऊर्जा व्यापार के साथ आता है

(ब्लूमबर्ग) – लगभग सभी प्रमुख कृत्रिम बुद्धिमत्ता डेवलपर्स एआई मॉडल बनाने पर ध्यान केंद्रित कर रहे हैं जो मनुष्यों के तर्क करने के तरीके की नकल करते हैं, लेकिन नए शोध से पता चलता है कि ये अत्याधुनिक सिस्टम कहीं अधिक ऊर्जा गहन हो सकते हैं, जिससे पावर ग्रिड पर एआई के तनाव के बारे में चिंताएं बढ़ गई हैं।

गुरुवार को जारी एक अध्ययन के अनुसार, एआई तर्क मॉडल ने इस तर्क क्षमता के बिना या इसे अक्षम करने वाले विकल्पों की तुलना में 1,000 लिखित संकेतों का जवाब देने के लिए औसतन 100 गुना अधिक शक्ति का उपयोग किया। यह काम एआई एनर्जी स्कोर प्रोजेक्ट द्वारा किया गया था, जिसका नेतृत्व हगिंग फेस रिसर्च साइंटिस्ट साशा लुसियोनी और सेल्सफोर्स इंक. एआई सस्टेनेबिलिटी के प्रमुख बोरिस गामाजायचिकोव ने किया था। शोधकर्ताओं ने 40 खुले, स्वतंत्र रूप से उपलब्ध एआई मॉडल का मूल्यांकन किया, जिसमें ओपनएआई, अल्फाबेट इंक के गूगल और माइक्रोसॉफ्ट कॉर्प के सॉफ्टवेयर शामिल थे। कुछ मॉडलों में ऊर्जा खपत में बहुत व्यापक असमानता पाई गई, जिसमें चीनी अपस्टार्ट डीपसीक का एक मॉडल भी शामिल था। डीपसीक के आर1 मॉडल का एक पतला संस्करण तर्क बंद होने पर संकेतों का जवाब देने के लिए केवल 50 वाट घंटे का उपयोग करता था, या एक घंटे के लिए 50 वाट लाइटबल्ब को चलाने के लिए जितनी बिजली की आवश्यकता होती है। रीज़निंग सुविधा सक्षम होने पर, उसी मॉडल को कार्यों को पूरा करने के लिए 308,186 वाट घंटे की आवश्यकता होती है।

एआई की बढ़ती ऊर्जा ज़रूरतें तेजी से जांच के दायरे में आ गई हैं। जैसे-जैसे तकनीकी कंपनियां एआई का समर्थन करने के लिए अधिक और बड़े डेटा सेंटर बनाने की होड़ में हैं, उद्योग पर नजर रखने वालों ने पावर ग्रिड पर दबाव पड़ने और उपभोक्ताओं के लिए ऊर्जा लागत बढ़ाने के बारे में चिंता जताई है। सितंबर में ब्लूमबर्ग की जांच में पाया गया कि डेटा सेंटरों के पास के इलाकों में पिछले पांच वर्षों में बिजली की थोक कीमतें 267% तक बढ़ गईं। पर्यावरणीय कमियाँ भी हैं, क्योंकि Microsoft, Google और Amazon.com Inc. ने पहले ही स्वीकार कर लिया है कि डेटा सेंटर का निर्माण उनके दीर्घकालिक जलवायु उद्देश्यों को जटिल बना सकता है।

एक साल से भी अधिक समय पहले, OpenAI ने अपना पहला रीजनिंग मॉडल जारी किया, जिसे o1 कहा गया। जहां इसके पूर्व सॉफ़्टवेयर ने प्रश्नों का लगभग तुरंत उत्तर दिया, वहीं o1 ने उत्तर देने से पहले उत्तर की गणना करने में अधिक समय बिताया। तब से कई अन्य एआई कंपनियों ने विज्ञान, गणित और कोडिंग जैसे क्षेत्रों के लिए अधिक जटिल मल्टीस्टेप समस्याओं को हल करने के लक्ष्य के साथ इसी तरह के सिस्टम जारी किए हैं।

हालाँकि अधिक जटिल कार्यों को करने के लिए तर्क प्रणालियाँ तेज़ी से उद्योग का आदर्श बन गई हैं, लेकिन उनकी ऊर्जा माँगों पर बहुत कम शोध हुआ है। शोधकर्ताओं ने कहा कि बिजली की खपत में अधिकांश वृद्धि तर्कशील मॉडलों द्वारा प्रतिक्रिया देते समय बहुत अधिक पाठ उत्पन्न करने के कारण हुई है।

लुसियोनी ने कहा, नई रिपोर्ट का लक्ष्य यह बेहतर ढंग से समझना है कि एआई ऊर्जा की जरूरतें कैसे विकसित हो रही हैं। उन्हें यह भी उम्मीद है कि इससे लोगों को यह बेहतर ढंग से समझने में मदद मिलेगी कि विभिन्न कार्यों के लिए उपयुक्त विभिन्न प्रकार के एआई मॉडल हैं। प्रत्येक क्वेरी के लिए सबसे कम्प्यूटेशनल रूप से गहन एआई रीज़निंग सिस्टम को टैप करने की आवश्यकता नहीं होती है।

लुसियोनी ने कहा, “हमें एआई का उपयोग करने के तरीके के बारे में अधिक समझदार होना चाहिए।” “सही कार्य के लिए सही मॉडल चुनना महत्वपूर्ण है।”

बिजली के उपयोग में अंतर का परीक्षण करने के लिए, शोधकर्ताओं ने सभी मॉडलों को एक ही कंप्यूटर हार्डवेयर पर चलाया। उन्होंने प्रत्येक के लिए समान संकेतों का उपयोग किया, सरल प्रश्नों से लेकर – जैसे कि यह पूछना कि किसी विशेष वर्ष में किस टीम ने सुपर बाउल जीता – और अधिक जटिल गणित समस्याओं तक। वास्तविक समय में कितनी ऊर्जा की खपत हो रही थी, इसका पता लगाने के लिए उन्होंने कोडकार्बन नामक एक सॉफ्टवेयर टूल का भी उपयोग किया।

परिणाम काफी भिन्न थे। शोधकर्ताओं ने पाया कि माइक्रोसॉफ्ट के Phi 4 रीजनिंग मॉडल में से एक रीजनिंग चालू होने पर 9,462 वॉट घंटे का उपयोग करता है, जबकि इसे बंद करने पर लगभग 18 वॉट घंटे का उपयोग होता है। इस बीच, OpenAI के सबसे बड़े gpt-oss मॉडल में कम अंतर था। इसने सबसे कम्प्यूटेशनल रूप से गहन “उच्च” सेटिंग पर तर्क के साथ 8,504 वाट घंटे का उपयोग किया और सेटिंग को “कम” करने के साथ 5,313 वाट घंटे का उपयोग किया।

OpenAI, Microsoft, Google और DeepSeek ने टिप्पणी के अनुरोध का तुरंत जवाब नहीं दिया।

Google ने अगस्त में आंतरिक शोध जारी किया था जिसमें अनुमान लगाया गया था कि उसकी जेमिनी एआई सेवा के लिए औसत टेक्स्ट प्रॉम्प्ट में 0.24 वाट-घंटे ऊर्जा का उपयोग होता है, जो लगभग नौ सेकंड से कम समय तक टीवी देखने के बराबर है। गूगल ने कहा कि यह आंकड़ा “कई सार्वजनिक अनुमानों से काफी कम है।”

एआई बिजली की खपत के बारे में अधिकांश चर्चा कृत्रिम बुद्धिमत्ता प्रणालियों को प्रशिक्षित करने के लिए स्थापित बड़े पैमाने पर सुविधाओं पर केंद्रित है। हालाँकि, तकनीकी कंपनियाँ अधिक से अधिक संसाधनों को अनुमान लगाने या प्रशिक्षित होने के बाद एआई सिस्टम चलाने की प्रक्रिया में स्थानांतरित कर रही हैं। तर्क मॉडल की ओर दबाव इसका एक बड़ा हिस्सा है क्योंकि ये प्रणालियाँ अनुमान पर अधिक निर्भर हैं।

हाल ही में, कुछ तकनीकी नेताओं ने स्वीकार किया है कि एआई की शक्ति पर विचार करने की आवश्यकता है। माइक्रोसॉफ्ट के सीईओ सत्य नडेला ने नवंबर में एक साक्षात्कार में कहा कि उद्योग को एआई डेटा केंद्रों के लिए “ऊर्जा उपभोग करने की सामाजिक अनुमति” अर्जित करनी चाहिए। ऐसा करने के लिए, उन्होंने तर्क दिया कि तकनीक को अच्छा करने और व्यापक आर्थिक विकास को बढ़ावा देने के लिए एआई का उपयोग करना चाहिए।

इस तरह की और भी कहानियाँ उपलब्ध हैं ब्लूमबर्ग.कॉम