
Teknologigiganter vil investere over 500 milliarder dollar i AI innen 2032
Kunstig intelligens fortsetter å tiltrekke seg massive investeringer. De største teknologibedriftene, inkludert Microsoft, Amazon og Meta, kommer til å bruke 371 milliarder dollar på AI i 2025 - en økning på 44% fra 2024. Innen 2032 kan dette tallet skyte i været til 525 milliarder dollar, ifølge Bloomberg Intelligence.
DeepSeek er et kinesisk AI-selskap som utvikler avanserte resonneringsmodeller. De hevder at de kan skape konkurransedyktig AI til en brøkdel av kostnadene til amerikanske rivaler, og utfordrer dermed bransjegiganter som OpenAI.
Tidligere gikk de fleste AI-investeringene til datasentre og avanserte brikker som ble brukt til modelltrening. Men nå flyttes fokuset over på inferens - prosessen med å kjøre AI-modeller etter at de har blitt trent. Dette skiftet skyldes i stor grad fremveksten av resonnerende modeller som bruker lengre tid på å beregne svar, men som tar sikte på å etterligne menneskelignende tankeprosesser.
OpenAI og kinesiske DeepSeek har ledet an med nye modeller som ikke bare spytter ut forhåndsinnlærte svar, men forsøker å tenke gjennom problemer. Disse systemene krever mer datakraft, men introduserer også nye måter å tjene penger på kunstig intelligens på, slik at selskaper kan flytte kostnadene fra opplæring til faktisk bruk.
DeepSeek vakte oppsikt da de hevdet at de hadde utviklet en konkurransedyktig modell til en brøkdel av prisen sammenlignet med de største amerikanske aktørene. Dette har reist spørsmål om hvorvidt dagens AI-investeringer er så effektive som de burde være. Som et resultat av dette prioriterer nå flere AI-selskaper kostnadseffektive modeller fremfor ren regnekraft.
Akkurat nå utgjør AI-trening over 40% av budsjettene til hyperscaler AI, men dette tallet forventes å falle til bare 14% innen 2032. I mellomtiden forventes det at utgifter til inferens vil utgjøre nesten halvparten av alle AI-investeringer innen den tid. Dette markerer et stort skifte i hvordan AI-selskaper allokerer ressursene sine.
Google ser ut til å være best posisjonert for denne overgangen, takket være sine interne brikker som håndterer både opplæring og inferens effektivt. På den annen side er Microsoft og Meta fortsatt svært avhengige av Nvidia, noe som kan begrense fleksibiliteten deres fremover.

Kommentarer