Według dziennika „New Yorker” chatbot ChatGPT firmy OpenAI zużywa ponad pół miliona kWh energii elektrycznej dziennie, czyli 17 241 razy więcej niż przeciętna amerykańska rodzina (każda rodzina zużywa około 29 kWh dziennie), aby sprostać 200 milionom zapytań użytkowników.

Jest to niepokojące i musimy przygotować się na przyszłość, w której sztuczna inteligencja generatywna stanie się coraz bardziej popularna i szerzej stosowana.
Badanie przeprowadzone przez Alexa de Vriesa, naukowca zajmującego się danymi w Holenderskim Banku Narodowym, wykazało, że do 2027 roku nowe urządzenia ze sztuczną inteligencją będą zużywać tyle samo energii elektrycznej, co Holandia, czy kraje takie jak Szwecja i Argentyna.
Zakładając, że Google również zintegruje generatywną sztuczną inteligencję z każdym zapytaniem wyszukiwania, zużycie energii elektrycznej wyniosłoby około 29 miliardów kWh rocznie, czyli więcej niż całkowite zużycie w takich krajach jak Kenia, Gwatemala i Chorwacja w tym samym okresie.
Obecnie trudno jest oszacować ilość energii elektrycznej zużywanej przez branżę AI, ponieważ stosowane na szeroką skalę modele AI oraz duże firmy technologiczne nie ujawniają dokładnie swojego zużycia energii.
Według Alexa de Vriesa do 2027 r. cały sektor sztucznej inteligencji będzie zużywał od 85 do 134 TWh (1 terawat = 1 miliard kilowatów) rocznie, co będzie stanowiło około połowę światowego zużycia energii elektrycznej.
Według raportu Consumer Energy Solutions największe korporacje technologiczne na świecie zużywają najwięcej energii elektrycznej na świecie. Dokładniej rzecz biorąc, Samsung zużywa prawie 23 TWh, Google ponad 12 TWh, a Microsoft około 10 TWh na obsługę centrów danych, sieci i urządzeń użytkowników.
W przyszłości przemysł sztucznej inteligencji będzie miał ogromny wpływ na bezpieczeństwo energetyczne, a także pośrednio negatywnie oddziaływać na środowisko, jeśli nie będzie konkretnego planu lub rozwiązania.