Ile energii zużywa Gemini? Raport rzuca nowe światło na energochłonność sztucznej inteligencji

Sztuczna inteligencja staje się wszechobecna i zapewne większość z nas korzysta aktywnie z chatbotów AI, takich jak ChatGPT, Claude czy Gemini. Dla nas to zabawa, pomoc w nauce czy pomoc w pracy, jednak przy tym często zapominamy, że AI to nie tylko program w telefonie czy na komputerze, ale też technologia, która ma realny wpływ na środowisko. Sztuczna energia pochłania masę zasobów, co martwi ekspertów i wszystkich, którzy troszczą się o naszą planetę. Jak to więc wygląda naprawdę? Google opublikował raport, w którym analizuje zużycie energii przez swojego asystenta, Gemini.
Google Gemini

Google Gemini na smartfonie. Fot. Solen Feyissa, Unsplash

Gemini nie zużywa aż tak dużo zasobów, przynajmniej na pozór

Sierpniowy raport opublikowany przez giganta z Mountain View podaje, że pojedyncza tekstowa komenda w aplikacji Gemini zużywa tyle samo energii, co obejrzenie mniej niż dziewięciu sekund telewizji. Dokładnie mówiąc – na jedno zapytanie Gemini zużywa 0,24 watogodziny energii, emituje 0,03 grama dwutlenku węgla i zużywa 0,26 mililitra wody. Choć te liczby wydają się niewielkie, trzeba wziąć pod uwagę, że Gemini ma już około 47 milionów aktywnych użytkowników w 2025 roku. To dopiero pokazuje skalę codziennego korzystania, zwłaszcza że na wielu urządzeniach Gemini pełni już rolę asystenta, którego pytamy o różne mniej lub bardziej istotne rzeczy.

Firma co prawda podkreśliła, że udało się jej znacząco obniżyć zużycie energii w ostatnich 12 miesiącach, a całkowity ślad węglowy aplikacji spadł aż 44-krotnie, do tego doszło również zmniejszenie ilości wody potrzebnej do chłodzenia swoich centrów danych, co ma pomóc w globalnym problemie zużycia wody. Brzmi to pięknie, ale diabeł jak zwykle tkwi w szczegółach.

Czytaj też: ChatGPT wprowadza fiszkowe quizy. Czy to faktycznie pomoże w nauce?

Przede wszystkim, raport obejmuje wyłącznie medianę dla zapytań tekstowych — pomija zupełnie kwestie głosowe, generowanie obrazów czy multimedia. A przecież, wraz z kolejnymi generacjami modeli i funkcji udostępnianych przez firmę, rośnie również wykorzystywanie podobnych narzędzi. Nie uwzględnia też pełnego cyklu życia systemu: od energochłonnego procesu uczenia modeli, przez regularne aktualizacje, po całą infrastrukturę centrów danych działającą w tle. Google pokazał więc tylko niewielki wycinek całego obrazu.

Czytaj też: ChatGPT Plus po premierze GPT-5: czy płatna wersja naprawdę daje dokładniejsze odpowiedzi?

Tymczasem dane z Massachusetts Institute of Technology (MIT) News pokazują, że centra danych w Ameryce Północnej zużywały 2688 megawatów w 2022 roku, a w 2023 roku ta liczba wzrosła do 5341 megawatów. Żeby wam to lepiej uzmysłowić – Słowacja w 2022 roku zużyła 28383 gigawatogodzin (GWh), czyli średnio 3240 MW. Centra danych w Ameryce Północnej w 2023 roku zużyły więc ponad 1,5 raza więcej energii niż cała Słowacja w tym samym okresie. To pokazuje, o jak ogromnej skali mowa.

Dużą część tego wzrostu stanowi właśnie sztuczna inteligencja. Jak powiedział Noman Bashir, jeden z autorów raportu MIT:

 Popyt na nowe centra danych nie może być zaspokojony w sposób zrównoważony.

Czytaj też: Podpisał kontrakt na muzykę generowaną przez AI. To może zmienić wszystko

Raport Google przedstawia optymistyczny obraz, jednak rzeczywistość jest bardziej złożona. Choć pojedyncze zapytanie do Gemini zużywa niewiele energii, to suma wszystkich zapytań od milionów użytkowników, a także ogromne zapotrzebowanie na energię do trenowania i utrzymania centrów danych, budzi poważne obawy. Nie zapominajmy też, że na rynku podobnych rozwiązań jedynie przybywa, co tylko pogłębia problem. Boom na AI ma pozytywne, ale też negatywne strony, a wpływ na środowisko na pewno zalicza się do tych drugich.