Kovaa duunii.
Voisiko pitää jo jonkinlaisena kontraindikaattorina sitä, että pölhölän sanomissa on joka päivä artikkeli Nvidiasta?
Just saying…
Beth Kindigiltä taas erittäin ansiokas analyysi tulosjulkistuksesta ja lähitulevaisuuden näkymistä.
Silmiinpistävät poiminnat:
- Markkinareaktio selittyy kireällä arvostuksella eikä tuloksessa tai ohjeistuksessa ole varsinaisesti mitään sellaista, joka indikoisi pienintäkään heikkoutta liiketoiminnassa.
- Jos Hopper-kysyntä saa aikaan vielä vuodenkin jälkeen tällaisia tulos ja ohjeistus beatteja, niin mitä tapahtuu, kun Blackwell on päätuote?
- Blackwell shippaukset ja liikevaihdon luonti ovat käynnistymässä täsmälleen johdon kommunikoiman aikataulun mukaisesti Q4:llä. Kaikki indikaattorit vahvistavat tämän, vaikka media edelleen kirjoittaa epävarmuudesta.
- Marginaaleista: It’s no small feat to maintain GAAP operating margin >60% for four consecutive quarters while simultaneously undergoing the semiconductor industry’s most advanced and most rapid product release cycle.
Kuuntelin tämän episodin tänään. Sanoisin, että ihan pakollista kuunnteltavaa ja ymmärrettävää, jos AI-junaan aikoo rahojensa kanssa nousta - aivan röyhkeän hyvää settiä! Siinä Nvidia-sijoituskeissi tiivistyi nähdäkseni nimenomaan ajatukseen, että tässä on otettu vasta ensimmäinen steppi. Tässä podcastin kiinnostavin anekdootti: “ChatGPT came out in 2022 and was to AI as Netscape Navigator was to the internet in 1994. Only less than 1% of current global internet market cap was founded in the two years after Netscape Navigator came out.”
Hienoa että oli hyvä jako!
Muutamia ajatuksia viikonlopun jäljiltä.
En usko, etteikö kukaan sinänsä kyseenalaistaisi tekoälyn hyötyjä.
Tässä mielessä se ei ole kupla, kuten vaikkapa vetyteknologia jonka käytännön sovellukset varsinkaan taloudellisessa mielessä eivät ole olleet mitenkään omistajille palkitsevia. Edes Hyzonille, vaikka eräät kuten @Sijoittaja-alokas ovat yrittäneet tuoda vedyn positiivisia mahdollisuuksia esiin ahkerasti.
Esimerkiksi jo nyt, jos aloitan tylsästi omasta työstä, se auttaa editoimaan ääniraidat (Adoben palvelu), tekemään pitkistä videoista automaattisesti lyhyitä IG:seen (joku Vizard, @Ville_Kivinen on tunnukset siihen ) ja TikTokkiin meneviä pätkiä. Uskoisin, että pian tai jo nyt olisi mahdollista tehdä AI:lla kokonaan osa Inderesin videoista, mutta laatu olisi vielä vähän kökköä ja keskustelu ontuvaa. Mutta ainakin napakoita laajaan rapsoihin pohjautuvia videoita voisi tehdä jo. AI varmaan osaisi tehdä osan analyytikoidenkin teksteistä jo nyt parempia, jos sillä on käytössään apuri ja aineisto.
Tekoäly vie asiakaspalveluhommia: Klarnan toimitusjohtaja uhosi, että firma puolittaa työpaikkojensa määrän. Klarna pudotti pommin
"Klarna työllistää tällä hetkellä noin 3 800 henkilöä, kun vielä viime vuonna työntekijöitä oli 5 000. Siemiatkowski kertoi Financial Timesille, että määrä voi pudota tulevina vuosina vain 2 000:een. Tarkempaa aikataulua hän ei kuitenkaan antanut.
– Emme pysty ainoastaan tekemään enemmän vähemmällä, vaan todella paljon enemmän, hän totesi tekoälyn mahdollisuuksista.
Siemiatkowski on yksi myönteisimmin tekoälyyn suhtautuvista eurooppalaisjohtajista. Se, että ihmiset menettävät työpaikkojaan tekoälylle, ei Siemiatkowskin mukaan ole yritysten, vaan maiden hallitusten ongelma."
Tekoälyä voi hyödyntää lääketieteessä lääkekehitykseen, jo vuosia on ollut ainakin teoriassa lääkäriä avustavia tekoälyjä jne.
Tekoäly on jo vuosia auttanut Metaa ja Alphabetiä kohdentamaan mainoksensa paremmin ja vakoilemaan ihmisiä oletettavasti siis tehokkaammin.
Palantirin vapaan maailman puolustusmission veijarit kehittelevät AI systeemejä, jotka voivat identifioida ja tuhota esim. dronen voimin ihmisiä itsekseen jos niin päätetään.
Esimerkit riittänee tältä erää.
Hyödyt tuottavuudessa ja teknologisessa kehityksessä ja ihmiskulttuurissa voi kuvitella jo nyt yhtä suuriksi, kuin aiemmin internet (joka ei kylläkään lopulta oikein näkynyt missään tilastoissa…), lentoliikenne, rautatiet, höyryvoima, öljyn hyödyntäminen tai vaikkapa radio.
Yksi ongelma makaa enemmän siinä, että AI-pelin “lopullista voittajaa” on vaikea sanoa. Kuten Fund Smithin Terry totesi viime vuonna kirjeessään, harvemmin sijoittajat löytävät heti alkuun uuden teknologian voittajia. NVIDIA ja Microsoft ovat tässä mielessä harvinaisia löytöjä nyt samantein, koska ne ovat konkreettisia buumista hyötyjiä.
On paljon asioita ja sovelluksia, mitä emme osaa edes kuvitella. Ja varmasti tulee myös ongelmia, mitä emme osaa edes kuvitella huolimatta Terminatorin, Black Mirrorin, Metropoliksen (1927 eeppinen elokuva) ja muiden kulttuurituotosten ruokkimasta mielikuvituksesta.
Ihmisillä on myös tendenssi yliarvioida lyhyen aikavälin kehitystä. Mitä jos Blackwell hikka jatkuu? Mitä jos skaalautuminen, mistä on puhuttu yllä, ei jatkukaan kuten tähän asti mikä romauttaa mallien ROI:n mitä suuremmaksi ne kasvavat?
Yksi kysymysmerkki on myös yhteiskunnan ja ihmisten reaktio. Väestö vanhenee, ja jokainen voi varmasti omalta työpaikaltaan nostaa esimerkkejä miten vanhemmalle kaartille edelleen internetin käyttö ja excelin taivuttaminen sujuu kankeasti. Jos nyt peliin tulee valtava määrä AI-sovelluksia, niiden pitäisi olla todella intuitiivisia jotta ne otettaisiin nopeasti käyttöön.
Kiina on ollut monessa suhteessa tekoälyn kärjessä, mutta epäilen haluaako kommunistinen puolue nähdä maan työmarkkinalla samanlaista disruptiota, mitä Klarnan yhteiskuntavastuuttomalta kuulostava toimitusjohtaja tuossa yllä visioi.
Sama pätee jossain määrin myös demokraattisissa sekatalouksissa länsimaissa. Lopulta talouden idea on palvella ihmistä ja järjestää resurssit niin, että jokainen saa leipää kotiin. Pitää mennä johonkin kokoomusnuorien sakeille jatkoille, jotta törmäisi ihmisiin jotka aidosti uskovat ihmisen palvelevan loputtoman ahnasta markkinataloutta joka toimii kuin luonnonvoimat. Talous on ihmisen rakennelma, ei mikään fysiikan lakien dominoiva luonnontuotos. Jos AI disruptoi elämää ja työmarkkinaa liiankin tehokkaasti (bullish NVIDIA), voi sääntely vastata äkäisesti (enemmän bearish).
Sijoittajalle hinnoittelu ja odotukset ovat kaikki kaikessa.
Noh, nämä kaikki huolet ja murheet olisivat turhempia mikäli AI-osakkeiden, kuten Microsoftin, NVIDIAn, AMD:n yms. arvostustasot olisivat maltillisia. Mutta, etenkin NVIDIAn tapauksessa mikä on tämän ketjun aihe, ne eivät todellakaan sitä ole. NVIDIA on tekoälyinvestointien kuumemittari. Vallankumouksen on jatkuttava alati paisuvin investoinnein, jotta NVIDIAn nykyhinnoittelu olisi mitenkään järkevä. Se ei ole mahdotonta, enkä uskaltaisi shortata osaketta jos tällä kertaa olisikin “this time is different”.
Kuten tuossa yllä nostettiin, ei ole hyväenteinen merkki miten pölhölässäkin NVIDIA puhuttaa otsikoissa ja sen tulosten yhteydessä järjestetään bileitä. NVIDIAssa on suorastaan bitcointyyppisiä uskonnollisia piirteitä ilmoilla. Se saa ainakin itseni varovaiseksi.
Tällaisia muutamia ajatuksia maanantaiaamuun, mutta jälleen kerran muistutan että nämä tulevat henkilön suusta joka a) ei ymmärrä kovin syvällisesti teknologiaa b) kasvanut musikaalisessa perheympäristössä missä ei puhuttu taloudesta mitään c) on koulutukseltaan valtiotieteiden maisteri d) harrastaa historiaa ja pahimpana e) omistaa mm. tärinänvaimentimia myyvää tukkuria.
Lisäys: minulla on vuosi ja vuosia ollut NVIDIAN näytönohjain pöntössä, eli yhtiö on suhteessa pieneksi jääneen peliliiketoimintansa osalta tuttu ja laadusta nautittu.
Lisäys 2:
Käsittääkseni koko it-kupla oli melkoinen verilöyly, ja aiemmat voittajat ovat olleet huonoja sijoituksia. Satojen, tai tuhansien, firmojen joukosta joku Amazon ja Microsoft olisivat olleet hyviä poimintoja mutta Amazonin osake laski kuplan puhjetessa 90 %. Kyytiin pääsi siis halvalla, todella halvalla, myöhemmin. Ciscot ja Intelit täällä kaikki tietävätkin. Osa firmoista paljastui ihan puhalluksiksi, kuten nyt pahaenteisesti Supermicro-ketjussa yhtiö on paljastumassa osin huijaukseksi tai vähintäänkin kirjanpidossaan hyvin liberaaliksi.
Historian harrastajana voisit joutessasi penkoa kuinka moni internetin alkuaikojen johtava teknologiatoimittaja on säilyttänyt johtavan aseman ja kuinka moni kärkinimi on tippunut marginaaliin tai hävinnyt. Suurissa murroksissa kun uudet pelaajat voivat ilmestyä sotkemaan ennusteita aika lailla.
Tämä on juuri se tärkeä pointti. Microsoftilla oli ja on edelleen selkeä etulyöntiasema sen hallitessa PC’eiden sielunelämää käyttiksillä ja toimisto-ohjelmilla, siihen kylkeen saa liimattua sitä sun tätä, jolloin riskit ovat vähäisempiä. Varsinaisessa tekniikassa kuten siruissa ja piireissä tilanne ei ole niin sementoitu ja sijoitusmielessä riskikerroin on paljon merkittävämpi, koska kestävän kilpailuedun ja suojavallin saaminen on paljon haastavampaa.
Heitän omia NVDA pohdintojani ruutupaperin reunasta vuodelta 2020, jolloin ostin ekat osakkeet:
”Gaming- markkinajohtaja, ray tracing ylivoimainen AMD verrattuna. Tällä pääsee lisäksi mukaan hajautetusti cloud, crypto, AI ja autonomous driving juniin”
”Riippuvuus Taiwanista (tsmc) kysymysmerkki”
”Data center näyttää menevän gamingista ohi loppuvuonna 2020, on arvokkaampi kuin gaming” (meni jo q3/2020)
Näin amatöörimäisillä ajatuksilla olen holdaillut ja ostellut lisääkin muutamaan kertaan.
Kuten tiedämme noista 2020 vuoden kasvuajureista AI lähtikin uskomattomaan nousuun ja tällä hetkellä NVIDIA näytää sijoituksena minulle kovin erilaiselta, vähemmän ”hajautetulta” kuin tuolloin, koska markkina-arvo on niin isosti sidottu AI/data-center osastoon.
Tämä on saanut minut miettimään myös omistustani jatkossa, tuntuu että pitäisi ymmärtää hyvin syvällisesti AI kehitystä. Toisaalta AI on vain pieni sovellutus siihen mihin massiivista rinnakkaislaskentaa voi käyttää. Onko esim. Robotiikka tai auto-driving uusi kasvuajuri? Crypto yllättää? Käytänkin energiaani sen pohtimiseen, mihin kiekko menee seuraavaksi.
Tässä vaiheessa suuret kiitokset ketjun tietotekniikkaosaajille (Roope_K, Jarnis ja karhulalainen tulee ekana mieleen), on ilo lukea asiantuntevia viestejänne ja oppia lisää.
Sirupuolella suojavalli on modernien piirien suunnittelun valtavat kustannukset. Se, että päästään tilanteeseen että TSMCn uunista pullahtaa ensimmäinen protopiiri uudesta AI-kiihdyttimestä maksaa satoja miljoonia. Suunnittelu, validaatio, testaus… nämä projektit ovat aivan älyttömän monimutkaisia ja kalliita. Kyllä, herrat copy ja paste ovat mukana ja tällä säästetään rahaa kun jokaista uutta sukupolvea ja varianttia ei tehdä puhtaalta pöydältä ja tämän vuoksi NVIDIAt ja AMDt pystyvät pistämään markkinoille ison läjän erilaisia tuotteita eikä jokainen malli maksa satoja miljoonia suunnitella, mutta juuri tästä syystä isot muutokset tapahtuvat harvemmin. Esimerkkinä AMD on “lypsänyt” Zen-arkkitehtuuriaan jo vuosikausia - kyllä, on kehitetty uusia piirimalleja mutta järjestään on rakennettu jo tehdyn päälle ja sovellettu sitä uusiin valmistusteknologioihin. Tämä laskee R&D-kuluja per ulos saatu piirimalli
Hypoteettinen uusi kilpailija kohtaa tämän vallihaudan sitä ihan ensimmäistä piiriään suunitellessaan. Kyllä, jotain voidaan copypasteta itse piirin valmistavan firman IP-kirjastoista kohtuuhintaan, mutta silti… olettaen että käytetään viimeisimpiä valmistusteknologioita ja että piiri on merkittävän kokoinen, sata miljoonaa on kevyttä. Ja koska projekti kestää helposti 3-5v ideasta massatuotantoon, auta armias jos arvasit väärin ja tuotteesi on kilpailukyvytöntä e-jätettä kun se viimein on valmis. Kysy vaikka Googlelta miten menee heidän Tensor-kännykkäpiirien kanssa
Ja päälle sitten se oravanpyörä että koko ajan pitää olla parantelemassa ja kehittämässä uutta versiota. Eli siinä vaiheessa kun ensimmäisen piirin suunnittelu on puolivälissä, pitää jo viimeistään alkaa suunnitella seuraavaa sukupolvea - joka tosin on varmasti vain pieni jatkojalostus aiemmasta, mutta silti - tai muuten käy niin että pari vuotta uuden piirin julkaisusta se on joka tapauksessa vanhentunutta e-jätettä ja siinä vaiheessa pitää olla uusi malli valmiina. Ja seuraavat pari sukupolvea jo suunnittelussa. Ja rahaa palaa… Uuden kilpalijan pitää siis sijoittaa myös muutamaan vuoden-parin välein ulos tulevaan parannettuun versioon ennen kuin ensimmäisestäkään on saatu kassavirtaa…
Siihen on ihan hyvä syy miksi moni nojaa semicustom-piireihin. Otetaan ARMin IP-blokkeja ja liimaillaan kasaan haluttu rakennelma (ks. vaikka Mediatekin, Samsungin ja Huawein kännykkäpiirit). Tai tilataan AMDilta semicustom-versio olemassaolevasta piiri-IP:stä (ks. PS5 ja XBox Series X/S) ja näin säästetään hurjasti suunnittelukuluissa.
Hyvää keskustelua ja perusteltuja näkemyksiä! Tällä palstalla on ollut poikkeuksellisen laadukasta kommentointia. Sekin lienee jokin kontraindikaattori, että netin NVDA-keskustelusta koko ajan kovemmin pienenevä osuus on jotain muuta kuin “STONKS”, “KUPLA” tai " "
Tähän pakko tarttua. Mun mielestä Nvidian kategorisointi siru- tai edes laajemmin hardware-yhtiöksi hämärtää kokonaiskuvaa ja sijoituskeissiä pahasti. Kyllä, Nvidia tekee rautaa, mutta samalla he tekevät käyttöjärjestelmän konesali-skaalan yhteentoimivuudelle ja yksittäisille siruille, ohjelmointiympäristön ja nykyisellään myös järjettömän määrän ohjelmistoja ja -ohjelmistopalveluita, jotka toimivat edellä kuvatun hardwaren ja propriaritary-alustan päällä. Se siis hallitsee AI-konesalien sielunelämää ja yhä kasvavassa määrin myy kylkeen sitä sun tätä. Siksi mielestäni (pitkän aikavälin) analogiaa kannattaa etsiä nimenomaan esim. juuri Microsoftista pikemmin kuin Ciscoista, Inteleistä yms. puhtaista hardis-firmoista.
@Jarnis kuvasi jo hyvin siruvalmistuksen vallihaudat. Niiden päälle tulee vielä ne paljon puhutut alusta- ja ekosysteemivallihaudat, jotka syvenevät päivä päivältä jokaisen uuden toimitetun CUDA-chipin myötä, ja jotka pitävät siruja jo valmistavat kilpailijat loitolla. Asiakkaiden kyky kaataa CapExiin rahaa on mielestäni paljon tärkeämpi faktori kuin nurkan takana vaaniva kilpailu. Ainakaan vielä ei tummia pilviä näy horisontissa:
Näyttäisi, että Nvidia tosiaan saattaa olla pelaamassa itseään foundational-malli peliin yhä syvemmin:
Tuli tänään vastaan varsin hyvä tiivistys Nvidian Q2-tuloksesta ja Blackwellin näkymistä. Otsikko aika räiskyvä, mutta sisältö ihan asiallista, vaikka tuskin mitään uutta Nvidiaa aktiivisemmin seuraaville.
Ja täytyy muuten samaan syssyyn kehua tuota Invest Like the Best -podcast jaksoa, jossa vieraana Gavin Baker. Oli todella hyvin tiivistetty olennaisimpia asioita 90 minuuttiseen. Siinä oli selvästi asiantuntija vieraana ja herätti kyllä paljon ajateltavaa niin Nvidian kuin ihan yleisesti tekoälyn osalta. Yhdyn @Roope_K sanoihin ja suosittelen ehdottomasti kaikkia yhtään asiasta kiinnostuneita kuuntelemaan tuon!
https://x.com/firstsquawk/status/1831066644149645779?s=46&t=WM9TG4iqI1ZAhDGcU7VSHg
NVIDIA CORP. HAS BEEN ISSUED A SUBPOENA BY THE U.S. DEPARTMENT OF JUSTICE (DOJ) AS PART OF AN INTENSIFYING ANTITRUST INVESTIGATION
- edit: @Roope_K Toistaiseksi ei kurssi ole reagoinut positiivisesti premarketissa. Pitää seurata avauksessa, mitä tapahtuu. Yleensä Bloombergillä on luotettavat lähteet, mutta eihän näistä tiedä.
Jen Hsun Huang/CEO oli myynyt 240.000 osaketta 30.8.
Ihme menoa nyt
Broadcomin toimarilta mielenkiintoinen näkemys, mutta hänellä on tietysti oma lehmä ojassa.
“Over the long term, Tan believes that the AI chip market will move to custom, in-house designs. That would mean shifting away from Nvidia components — a change that could benefit Broadcom, since it helps customers produce their own chips. He declined to provide a precise prediction of when this might happen and admitted it could take several years.”
Custom-piireille on paikkansa tietyissä hommissa, mutta jokainen joka yrittää säästää rahaa taistelemalla Nahkatakkimiehen piirikoneistoa vastaan datacenter-kokoluokassa huomaa viimeistään parin piirisukupolven jälkeen että näpeille tuli. Joo “tein itse ja säästin” voi säästää rautakuluissa, mutta jos piiri on kilpailukyvyttömän hidas ja niitä pitää pinota 2x niin jo pelkkä sähkönkulutus voi tehdä koko sopasta tappiollista vaikka ei laskisi mitään hintaa custom-piirin suunnittelulle.
No, Broadcom varmasti yrittää myydä ideaa asiakkailleen koska he tekevät tällaisten custom-piirien suunnittelu- ja valmistusprojekteja. Ei heitä lopulta kiinnosta onko lopputulos uunista tullessaan enää kilpailukykyinen…
Tuo Broadcomin tj:n lausunto on huomattavasti mielenkiintoisempi luettuna kokonaisuutena. Hän siis ennen ennusti Nvidian/AMD:n GPU:iden olevan voittajia, mutta nyt on vaihtanut näkemystään siihen, että custom chipit ovat way to go.
Tämä ei siis koske enterprise-luokan asiakkaita, joiden ei kannata lähteä kehittämään omia chippejä. Vaan hyperscalereita, joilla on jo kilpailukykyistä rautaa. Hyperscalerit muodostaa luokkaa 50 % Nvidian liikevaihdosta. Niiden custom chipit voivat merkittävästi vaikuttaa Nvidian kysyntään.
“I used to think that general-purpose merchant silicon will win at the end of the day. Well, based on history of semiconductors mostly so far, general purpose, small merchant silicon tends to win. But like you, I flipped in my view. And I did that, by the way, last quarter, maybe even 6 months ago. But nonetheless, catching up is good. And I actually think so because I do think there are 2 markets here on AI accelerators. There’s one market for enterprises of the world, and none of these enterprises are incapable nor have the financial resources or interest to create the silicon, the custom silicon, nor the large language models and the software going maybe, to be able to run those AI workloads on custom silicon. It’s too much and there’s no return for them to do it because it’s just too expensive to do it. But there are those few cloud guys, hyperscalers with the scale of the platform and the financial wherewithal for them to make it totally rational, economically rational, to create their own custom accelerators because right now, I’m not trying to overemphasize it, it’s all about compute engines. It’s all about especially training those large language models and enabling it on your platform. It’s all about constraint, to a large part, about GPUs. Seriously, it came to a point where GPUs are more important than engineers, these hyperscalers in terms of how they think. Those GPUs are much more – or XPUs are much more important. And if that’s the case, what better thing to do than bringing the control, control your their own destiny by creating your own custom silicon accelerators. And that’s what I’m seeing all of them do. It’s just doing it at different rates and they’re starting at different times. But they all have started. And obviously, it takes time to get there. But a lot of them, there are a lot of learning in the process versus what the biggest guy of them had done longer, have been doing it for 7 years. Others are trying to catch up and it takes time. I’m not saying you’ll take 7 years. I think you’ll be accelerated. But it will still take some time, step by step, to get there. But those few hyperscalers, platform guys, will create their own if they haven’t already done it, and start to train them on their large language models. And yes, you’re right, they will all go in that direction totally into ASIC or, as we call it, XPUs, custom silicon.”
CNBC:ltä tuli hiljattain pieni pläjäys aiheesta. Ainakin vähemmän seuranneille voi löytyä mielenkiintoista uutta tietoa.
Edelleenkin, varmasti yrittäjiä on, mutta NVIDIAn kaltaisten toimijoiden kanssa kilpaileminen hyperscalereille on iso riskisijoitus. Jos kaikki menee niinkuin elokuvissa, säästöä on tiedossa nykyisillä NVIDIAn katteilla
NVIDIA voi yksinkertaisesti tarjota hyperscalereille vähän alennuksia ja yhtäkkiä säästöt ovat paljon pienempiä, todennäköisesti nollautuvat. Kyllä, tämä tekee kipeää NVIDIAn viivan alla, mutta noista katteista on varaa tinkiä.
Jos taas custom-piirit eivät toteudu suunnitelmien mukaan vaan tulevat joko myöhässä tai heikompitehoisina kuin suunniteltu, tulos voi olla kymmenien tai satojen miljoonien huti jolla saadaan rautaa jonka käyttökustannukset verrattuna NVIDIAn tai AMDn tuotoksiin ovat niin isot suhteessa laskentatehoon että ne ovat käytännössä e-jätettä. Ei kannata pinota räkkeihin muuta kuin R&D-tarkoituksessa seuraavan sukupolven kehitystyön tueksi.
Nämä kehtysprojektit voivat olla kannattavia Googlen tai Metan kokoisille toimijoille myös tapana saada Nahkatakkimies myymään rautansa vähemmän rasvaisella katteella ja pitämällä sisäistä tietotaitoa yllä millä tarvittaessa vaihtaa rauta omaan jos toimittajat käyvät liian ahneiksi varsinkin jos tuotoksía ei lopulta koskaan viedä massatuotantoon, mutta edelleen olen hyvin skeptinen skenaariosta jossa esim. Broadcom (todennäköisesti TSMCn valmistuskapasiteetilla) tuottaisi oikeasti merkittäviä määriä massana custom-piirejä palvelinsalikäyttöön niin, että operaatio on taloudellisesti kannattavaa vs. NVIDIAn ja AMDn kilpailuttaminen toisiaan vastaan. Tässä siis huomioiden koko operaation kulut, mukaan lukien räkkien sähkönkulutus suhteessa laskentatehoon.
Broadcom luonnollisesti aktiivisesti kauppaa osaamistaan hyperscalereille ja pitää tästä meteliä koska se olisi heille hyvää bisnestä. Jos puolestaan Broadcom uskoisi pystyvänsä kilpailukykyisiä palvelinpuolen kiihdyttimiä tekemään, miksi se ei ole kuumalla markkinalla mukana AMDn ja NVIDIAn rinnalla? Vastaus on yksinkertainen: Riskit olisivat älyttömät ja kilpailukykyisen tuotteen toteutus hyvin haastavaa. Jos hyperscalerit haluavat tuon riskin ottaa, silloin Broadcom on totta kai kärppänä paikalla, mutta muutoin on hiljaisempaa.
Ja varmuuden vuoksi: Client-päässä tilanne on ihan toinen, piirit paljon edullisempia ja potentiaaliset säästöt valmistusmäärien vuoksi isommat. Kännyköiden, läppärien ja IoT-laitteiden AI-kiihdytyksessä custom-lastut Broadcomilta laitevalmistajille ovat paljon realistisempi skenaario. Toisaalta siellä nämä ominaisuudet yleensä integroidaan SoCiin mukaan. Kännyköissä on ollut NPU-blokkeja SoCeissa jo tovin ja läppäreihin juuri käydään kunnollista ensimmäistä kierrosta kisaa (AMD Ryzen AI-sarja, Qualcommin Snapdragon Elite X ja Intelin Core 200 Ultra sarja eli Lunar Lake) - ja kaikilla toimijoilla on lisää malleja tuotantoputkessa tuleville vuosille. Tosin kännyköiden ja vähävirtaisten läppärien ulkopuolella on vielä hyvin epäselvää miten paljon dedikoidusta NPUsta on oikeasti iloa jos laittessa on kuitenkin jo GPU jolla saman homman voi tehdä jo nyt, yleensä vielä paremmin jos virrankulutus ei ole niin justiinsa.
Kiitos @Jarnis & @Roope_K kun jaksatte vastailla. Yritän ymmärtää Nvidian sijoituscasea paremmin. Isoimmat kysymykset liittyvät juuri uhkiin, joten siksi nostan etenkin niitä esiin.
Tuossa linkkaamassani videossa Google kertoo kouluttavansa Gemini AI-mallinsa kokonana omilla TPU:illa, eivät käytä lainkaan Nvidian GPU:ita. Lisäksi kerrotaan, että Apple on kouluttanut oman AI:n vuokraamalla Google TPU:ita käyttöön. Tämän esimerkin perusteella Google siis kilpailee Nvidian kanssa myös niiden asiakkaiden osalta, jotka eivät kehitä omia AI chippejä. Eikö tämä ole kuitenkin selkeä ja jopa kasvava uhka Nvidialle tulevaisuudessa? Siis hyperscalereiden oma kehitys ja jos ne myymät omaa chippiä käyttöön myös muille Nvidian potentiaalisille asiakkaille?
Custom piirien tehokkuudesta: Nvidian GPU-myynnissä on valtava kate, sirujen valmistus on suhteellisen halpaa touhua. Siksi hyperscalerit voivatkin hakea kustannussäästöjä tekemällä itse. Ymmärrän, että kustannus tulee R&D puolelta ja Nvidialla on vahva moat sillä puolella. Mutta kuinka on niin, että vähän heikompi tuote esim. laskentatehon puolelta on täysin hyödytön, jos se saadaan itse tuotettuna merkittävästi halvemmalla? Vaikka Nvidialla olisikin paras tuote. Ei muillakaan toimialoilla pelkästään paras tuote aina voita / ole ainoa hyödyllinen? Tämä siis jos itse tuotettu olisi kokonaisuutena ominaisuuksiltaan heikompi. Olen lukenut myös kommentteja, että custom piirit voivat olla tehokkaampia, käyttävät vähemmän energiaa tms. koska ne voidaan suunnitella & optimoida juuri tarvittavaan tehtävään.
Tuo 20 % capex-kasvu kuulostaa jo ihan realistiselta arviolta, vaikka hyperscalerit puhuvatkin tällä hetkellä yli-investoivansa. Voisiko tuota samaa lukua käyttää osakkeen arvostuksessa myös pidemmällä 5-10 vuoden periodilla? Tuota nopeampi pitkän aikavälin kasvutahti on aika epärealistinen.
Jos ajatellaan tuota 20 prosenttia markkinakasvuna, niin itse näen haasteena Nvidian tuloskasvun puolella:
- Nvidian nykyinen marginaali on poikkeuksellisen kysyntäpiikin takia epänormaalin korkealla ja normalisoituu seuraavien vuosien aikana, työlukuna 65 % tasolle (tulos kasvaa hitaammin kuin liikevaihto)
- Nvidian markkinaosuus chipeissä laskee joko kilpailijoiden (esim. AMD) kasvaessa tai custom piirien takia (liikevaihdon kasvu hitaampaa kuin markkinakasvu, ts. tässä laskuharjoituksessa hitaampaa kuin edellä mainittu 20 %)
Näillä spekseillä tuloskasvu jää siis selvästi matalammaksi, kuin 20 % markkinakasvu.
Nvidian P/E tämän vuoden tulosennusteella on 38 (GAAP). Nykyarvostuksella on vaikea nähdä osakkeessa upsidea, jos tulos kasvaa seuraavat 5-10 vuotta selvästi alle 20 %.
Kyllä, mutta onko tämä taloudellisesti kannattavaa? Sen tietää vain Google. Koska omat piirit on kerran tältä osin tehty ja niillä duunia voi tehdä, kannattaa niitä käyttää ja niille löytää asiakkaita, mutta jos lasketaan mukaan koko kehitystyön hinta, vain Google tietää oliko harjoitus kannattava. Se, että Google on näitä tehnyt isot määrät selvästi sanoo että jossain vaiheessa se aiemmin päätti että kannattaa, mutta…
Ja pysyykö Googlen piirikehitys NVIDIAn kyydissä ja millä investoinneilla? Sanotaan että neljän vuoden päästä, kun NVIDIAn seuraava-seuraava datacenter-lastu on markkinoilla, on täysin varmaa että nykyinen Googlen tuotos ei ole mitenkään kilpailukykyinen sen kanssa puhtaasti koska valmistusteknologia on kehittynyt, pienemmällä virrankulutuksella saadaan enemmän aikaan. Onko Googlella oma TPU versio 2 tai 3 myös olemassa? Kannattiko se kehittää?
Googlen voi kannattaa ottaa riskiä ja yrittää, mutta on edelleen hyvin epäselvää toimiiko tämä pitkässä juoksussa. NVIDIAn koko bisnes on kehittää näitä piirejä, Googlen puolella tämä ei ole heidän ydinosaamistaan…
Vähän heikompi piiri voi kannattaa ja olla hyödyllinen, mutta siinä vaiheessa kun NVIDIAn tuotos tekee homman yhdellä räkillä joka syö 4000W ja Tein Itse Ja Säästin-versio vaatii viisi räkkiä ja vaikkapa 30000W tekemään sama duuni, hommassa ei ole järkeä. Hyperscalerit varmasti ynnäävät näitä asioita tarkasti ja nämä custom-ratkaisut voivat toimia, mutta riskit ovat isot ja siinä missä voidaan olla varma että NVIDIA puskee uuden piirin joka toinen vuosi maailman tappiin koska se on heidän bisneksensä, hyperscalerit tekevät omiaan vain jos beancounter-osasto saa numerot osumaan ja voi kestää vuosia selvittää onnistuiko vai tuliko yrityksestä takkiin.
Custom-piirit voivat olla toimiva ratkaisu nimenomaan spesifiseen duuniin (koska virransäästö), mutta AI-puoli kehittyy siihen tahtiin että piirimallin 3-5v kehitystyö tässä vaiheessa on iso riski. Jos tänään päätät että tarvitset tällaisen ja tällaisen piirin palvelinsaliisi 5v päästä, ja teknologia kehittyy niin että ko. piirimalli onkin täysin turha kun se on valmis ja uunista ulkona, käy todella hassusti ja viivan alle tulee iso miinusmerkkinen rivi. Tähän ennen pitkää mennään siinä vaiheessa kun ongelmakenttä on tarkasti määritelty ja voidaan olla hyvin varmoja siitä mitä piirin pitää tehdä 3-5v päästä kun se on valmis. Tänään… kun koko AI soppa on valtava kisa määritellä koko ongelma ja sen ratkaisut, tämä voi olla vähän aikaista.
Ihan omakohtaista kokemusta hyperscalereissa työskentelystä ja noiden piirien suunnittelusta. Chippien suunnittelukustannukset ovat heille sivuseikka, kustannuksia hallitsee sähkönkulutus. GPU:t ovat fundamentaalisesti epäoptimaalisia ratkaisuja ML-laskentaan (liian geneerisiä), joten custom-ASIC:lla päästään aina vähintään kertaluokkaa pienempään virrankulutukseen.
Laskennan määrästä riippuu kumpi tapa on kenellekin parempi, kuten tässä on tuotu esiin. Mutta tuo argumentti, että pysyykö joku google nvidian chippikehityksen perässä, on mielestäni epärelevantti koska ratkaisujen arkkitehtuuri on täysin eri, ja optimoitu eri asioihin. GPU ei voi koskaan olla tehokkaampi ml-laskennassa (W/op) kuin custom ASIC.
Startuppeja, jotka myy custom-ratkaisuja (chippejä tai omaa cloudia joka käyttää omia chippejä), alkaa myös tulla markkinoille, mikä saattaa nakertaa jatkossa tuota enterprise-markkinaa nvidialta. Esim. Groq, Etched, Cerebras.
Kiitos myös edelleen omasta puolestani palstan keskustelijoille. Aivan megalaadukasta keskustelua
Ehkä kuitenkaan ihan noin lineaarisesti en ainakaan itse arvioisi Nvidian tuloskasvua johtuen kahdesta tekijästä:
- AI-investointikomponentin osuus capex-investointien sisällä voi kasvaa (toki myös laskea) ja siten olla suurempi kuin 20% arvioitu trendikasvu.
- Nvidian liikevaihdosta “vain” 45-50% tulee hyperscalereilta. On ihan mahdollista ja realististakin, että esim. valtiolliset toimijat tai frontier-mallikehittäjät tekevät kovemmilla luvuilla kasvavia investointeja.
Sitten tietenkin enemmän wildcard-tyyppisiä tekijöitä, joissa siirryttän kasvussa ihan toiselle askelmafunktion tasolle, voi keksiä vaikka kuinka paljon (AI-robotit, FSD-läpimurto, jne.). Tietysti jokaisen sijoittajan vastuulla on miettiä, miten isoja todennäköisyyksiä tällaisille skenarioille esim. 5-10 v aikajanalla antaa. Myös pienemmän kasvun skenarioita on helppo keksiä .
Näinhän se juuri on. Olen kirjoittanut jo varmaan n. kaksi vuotta sitten tälle palstalle, että mielestäni Nvidian suurin uhka on GPU-arkkitehtuurin korvautuminen laajamittaisesti johonkin muuhun paremmin tekoälyprosessointia palvelevaan rinnakkaislaskennan paradigmaan.
En silti ole erityisen huolissani ASIC:seista ja/tai esim. Googlen tensoriprosessoreista - ainakaan nykytilanteessa. Mallikehitys vetää niin kovalla vauhdilla eteenpäin, että nähdäkseni on edelleen monin tavoin edullisinta tuottaa ja käyttää mahdollisimman monikäyttöistä prosessoriarkkitehtuuria. Näkisin, että ASIC:sit uhkaisi laajemmin Nvidiaa esim. seuraavissa skenaarioissa:
- Jokin ASICsien päälle kehitetty frontier-malli kaappaisi SOTA-aseman OpenAI:lta, Llamalta tai Anthropicilta.
- Scaling laws tulisi tiensä päähän lähiaikoina ja siten myös mallikehitys hidastuisi niin, että yhä useammassa tilanteessa olisi järkevää lähteä kustomoimaan suorittimia per malli.
- Scaling laws jatkuu äärettömyyteen, jolloin mm. sähkönkulutus jo pelkän inference-kutsun osalta muodostuu pullonkaulaksi.
Tällä hetkellä mikään edellä olevista ei näytä erityisen todennäköiseltä uhalta luokkaa 3-5 vuoden horisontilla. Tarvittaisiin jotain yhtä monikäyttöistä kuin GPU, joka olisi silti nopeampaa ja tehokkaampaa. Mitä se olisi, who knows.
On myös hyvä huomauttaa, että Blackwellin kanssa Nvidia ottaa jossain määrin askelta ASICs-kilpailukentälle optimoimalla arkkitehtuuria Transformereille sekä MoE-malleille. Ehkä ei päästä ihan samaan energiatehokkuuteen, mutta ainakin sulla on käsissäsi rautaa, jolla voi pyörittää sen hetken SOTA-malleja. Ja kuten @Jarnis totesi, Nvidian release-sykli on kyllä myrkkyä customeille. Esim. Goolen pitää investoida aivan helkkaristi TPU-kehitykseen, jotta se voi pystyä omilla frontier-ratkaisuillaan sen kilpailun kyydissä, jota esim. Nvidian Rubinilla tullaan kehittämään. Siten myös ajassa, jossa Mooren lakia kirjoitetaan uusiksi, chippi-kehityksen perässä pysyminen on mun mielestäni varsin relevantti asia ASIC:sien kilpailuaseman osalta.