Proč AI chatboti používají tolik energie?

V posledních letech Chatgpt explodoval v popularitě, s Téměř 200 milionů uživatelů Čerpání celkem přes miliardu výzev do aplikace každý den. Zdá se, že tyto výzvy splní žádosti z tenkého vzduchu.
Ale v zákulisí, Umělá inteligence (AI) Chatboti používají obrovské množství energie. V roce 2023 byla zodpovědná datová centra, která se používají k trénování a zpracování AI 4,4% spotřeby elektřiny ve Spojených státech. Po celém světě tato centra tvoří asi 1,5% globální spotřeby energie. Očekává se, že tato čísla prudce stoupne, alespoň zdvojnásobení do roku 2030 Jak roste poptávka po AI.
„Jen před třemi lety jsme ještě neměli chatgpt,“ řekl Alex de Vries-gaoVznikající výzkumný pracovník udržitelnosti technologie na VU University Amsterdam a zakladatel Digiconomistplatforma věnována odhalení nezamýšlených důsledků digitálních trendů. „A teď mluvíme o technologii, která bude zodpovědná za téměř polovinu spotřeby elektřiny datovými centry po celém světě.“
Ale co dělá AI chatboty tak intenzivními energií? Odpověď spočívá v masivním měřítku AI chatbotů. Zejména existují dvě části AI, které využívají nejvíce energie: trénink a inference, řekl Mosharaf Chowdhurypočítačový vědec na University of Michigan.
Související: Proč elektřina vydává hučení hluku?
Pro trénink AI chatbotů mají velké jazykové modely (LLM) podávány obrovské datové sady, aby se AI mohla učit, rozpoznávat vzory a provádět předpovědi. Obecně existuje „větší je lepší víra“ s tréninkem AI, řekl De Vries-Gao, kde se předpokládá, že větší modely, které přijímají více údajů, vytvářejí lepší předpovědi.
„Takže to, co se stane, když se snažíte provést školení, je to, že modely se v dnešní době tak velké, že se nehodí do jediného GPU (jednotka pro zpracování grafiky); nehodí se do jediného serveru,“ řekl Chowdhury Live Science.
Dát smysl pro měřítko, 2023 Výzkum Autor: De Vries-Gao odhadl, že jediný server NVIDIA DGX A100 vyžaduje až 6,5 kilowattů energie. Trénink LLM obvykle vyžaduje více serverů, z nichž každý má v průměru osm GPU, který pak běží týdny nebo měsíce. Celkově to spotřebovává hory energie: Odhaduje se, že trénink GPT-4 Openiai používal 50 gigawattových hodin energie, což odpovídá pohánění San Francisca po dobu tří dnů.
Inference také spotřebovává hodně energie. To je místo, kde chatbot AI vyvodí závěr z toho, co se naučil, a generuje výstup z požadavku. Ačkoli to vyžaduje výrazně méně výpočetních zdrojů, než bude spuštěn LLM poté, co je vyškolen, inference je energeticky náročná kvůli pouhému počtu požadavků podávaných na AI chatbots.
Od července 2025, OpenAI státy Že uživatelé ChatGPT odesílají každý den přes 2,5 miliardy výzev, což znamená, že více serverů se používá k vytvoření okamžitých odpovědí pro tyto požadavky. To ani nezohledňuje ostatní chatboty, které jsou široce používány, včetně Google Gemini, což zástupci říkají Will Brzy se staňte možností výchozí Když uživatelé přistupují k vyhledávání Google.
„Takže ani v závěru, nemůžete opravdu ušetřit energii,“ řekl Chowdhury. „Nejedná se o opravdu masivní data. Myslím, že model je již masivní, ale máme obrovské množství lidí, kteří je používají.“
Vědci jako Chowdhury a De Vries-Gao nyní pracují na tom, aby lépe kvantifikovali tyto energetické požadavky, aby pochopili, jak je snížit. Například Chowdhury udržuje ML Energetická žebříčka To sleduje inferenční spotřebu energie u open-source modelů.
Specifické energetické požadavky ostatních generativních platforem AI jsou však většinou neznámé; Velké společnosti jako Google, Microsoft a Meta udržují tato čísla soukromá nebo poskytují statistiky, které poskytují malý vhled do skutečného dopadu těchto aplikací na životní prostředí, uvedl De Vries-Gao. Díky tomu je obtížné určit, kolik energie AI skutečně používá, jaká bude poptávka po energii v nadcházejících letech a zda svět může držet krok.
Lidé, kteří používají tyto chatboty, však mohou prosazovat lepší průhlednost. To může uživatelům nejen pomoci při rozhodování o energeticky odpovědných s vlastním používáním AI, ale také prosazovat robustnější politiky, které společnosti považují za odpovědné.
„Jedním z velmi základních problémů s digitálními aplikacemi je, že dopad není nikdy transparentní,“ řekl De Vries-Gao. „Míč je s tvůrci politik, aby povzbudili zveřejnění, aby uživatelé mohli něco začít dělat.“



