Många av de företag som vi bevakar och som har artificiell intelligens som tema handlades på 1- eller 2-stjärnigt territorium. Våra värderingar var redan positionerade för en tillbakagång som denna, eftersom vi hade svårt att motivera de intäktsökningar som dessa värderingar innebar. Vi ser den nuvarande nedgången som hälsosam, även om vi är fortsatt positiva till den långsiktiga potentialen för AI. Vi har behållit våra uppskattningar av verkligt värde för de berörda bolagen.
Efter lanseringen av DeepSeeks R1 är vår tes att vi kommer att se snyggare och mer effektiva AI-modeller som inte förlitar sig på massiva kluster av AI GPU:er och relaterad hårdvara. Detta är det enda sättet ekosystemet kan hantera ett stort antal användningsfall på lång sikt.
Vi tror att lägre kostnader - som gör AI billigare och mer ekonomiskt - ökar antalet användningsområden som AI är gångbart för, och som ett resultat av detta bör efterfrågan öka. Detta är samma väg som PC-revolutionen följde, där datorkraften blev tillräckligt billig för att miljontals individer skulle kunna använda tekniken till en överkomlig kostnad. Samma sak hände med moln- och SaaS-revolutionen, där den inkrementella kostnaden för att lägga till användare var nära noll. Vi tror inte att en framtid där AI både är oöverkomligt dyrt och “tar över världen” är sannolik. Därför ser vi de framsteg som DeepSeek har gjort som lovande och hälsosamma för det övergripande ekosystemet.
Vinnare och förlorare i det nya AI-landskapet
Vi ser företag som enbart förlitar sig på att tjäna pengar på stora språkmodeller som de största förlorarna (dessa tenderar att vara privata företag), eftersom det är svårt att skapa en ekonomisk vallgrav i detta utrymme. På lång sikt ser vi LLM:er som råvaror vars viktigaste framsteg är lätta att replikera, och de stora vinnarna kommer att vara molninfrastrukturleverantörerna, tillsammans med dem som kan erbjuda integrations- och prestandafördelar i applikationslagret.
De företag som säljer hårdvara till molnleverantörer, utrustningsföretag och de som är beroende av energiförbrukningen befinner sig någonstans i mitten. Vi ser fortfarande en god efterfrågan på detta område under de kommande åren, men vi medger att osäkerheten och riskerna har ökat för denna del av värdekedjan. Ingen vet exakt var avvägningen mellan effektivitetsfördelar och ökad efterfrågan kommer att balansera.
Vi tror att ett “bear case” måste innebära dramatiska kostnadsminskningar med minimala prestandaförbättringar. Hyperscalers skulle behöva skära ned på framtida kapitalutgifter eftersom de väljer att bygga AI med lägre kapitalintensitet. Vi tror inte att detta är troligt. Istället räknar vi med att amerikanska och europeiska modellbyggare fortfarande kommer att förlita sig på dyra men högpresterande “AI-fabriker” (som Jensen Huang, VD för Nvidia, kallar dem) för framtida modellupprepningar. Dessa företag kommer att ha fördelen av att använda fler avancerade AI-acceleratorer och infrastruktur för att göra framsteg.
Författaren eller författarna äger inga aktier i de värdepapper som nämns i denna artikel. Läs mer om Morningstars redaktionella policy.