Bruken av kunstig intelligens (KI) har eksplodert de siste årene, med applikasjoner som ChatGPT og andre generative modeller som blir stadig mer integrert i hverdagen. Denne teknologiske fremgangen kommer imidlertid med en betydelig miljøkostnad som ofte overses.
En enkelt forespørsel til ChatGPT kan kreve opptil 2,89 wattimer (Wh) strøm, nesten ti ganger mer enn et tradisjonelt Google-søk som bruker rundt 0,3 Wh. Dette betyr at KI-tjenester er langt mer energikrevende enn mange av de digitale tjenestene vi er vant til.
Treningen av store KI-modeller er spesielt ressurskrevende. En studie fra 2019 viste at opplæring av enkelte nevrale nettverk kan slippe ut like mye CO₂ som fem biler gjør i løpet av hele sin levetid. Dette skyldes de enorme mengdene data som må prosesseres over lange perioder, noe som krever betydelige mengder elektrisitet.
I tillegg til strømforbruket, bruker datasentre som støtter KI-applikasjoner store mengder vann for å kjøle ned serverne. For eksempel brukte Microsoft 6,4 milliarder liter vann i 2022, en økning på over en tredjedel fra året før, hovedsakelig på grunn av KI-relaterte aktiviteter.
Det er imidlertid håp om å redusere KI-teknologiens miljøpåvirkning. Forskere ved Københavns Universitet har utviklet metoder som kan redusere CO₂-avtrykket fra trening av KI-modeller med 70 til 80 prosent, uten betydelig tap av ytelse. Slike tiltak er avgjørende for å balansere den teknologiske utviklingen med miljøhensyn.
Ettersom KI blir en stadig mer integrert del av samfunnet, er det viktig å være bevisst på dens skjulte klimaavtrykk. Ved å implementere mer energieffektive løsninger og være oppmerksom på ressursbruken, kan vi nyte fordelene av KI uten å påføre miljøet unødvendig skade.