NVIDIA - Mahdottoman mahdollistaja

En kyllä nukutun yönkään jälkeen keksi Nvidian raportista mitään sellaista heikkoutta, joka selittäisi -7% markkinareaktiota - olettaen siis, että kurssi ennen tulosta heijasteli odotuksia. Bruttomarginaali oli ainoa, joka ei ollut blowout-lukema, ja sekin ainakin osittain selittyy Kiinan H20 alemman bruttomarginaalin myynnin järeällä lisääntymisellä (mikä on positiivista ja olisi pitänyt olla tiedossa kyllä).

Aamun tulosuutiset on hauskoja: Niissä ikäänkuin annetaan ymmärtää, että kasvuprosenttien pieneneminen tuli yllätyksenä ja markkinat pelästyivät tätä. Tuntuu, että jos after hours olisi ollut +7%, olisi samoista kasvuprosenteista ja blowout-tuloksesta kirjoitettu ylistyssanoja.

After hours -kurssilasku ja EPS-nousu alensi kyllä arvostusta melkoisesti. Ennen julkkaria TTM PE oli n. 75x - tuloksen ja dumppauksen jälkeen TTM PE on enää 54x.

Conf callissa tuli kaiken lisäksi konkreettisempaa ja isompaa uutista kuin aiemmin on saatu. Tässä omia poimintoja:

  • Nvidian AI-tuotteiden asiakkaaksi tullut suurin osa Fortune 100 -yhtiöistä. Valtiolliset AI-asiakkaat tulevat luomaan miljardiluokan liikevaihtoa jo tänä vuonna.
  • NIMs-tuote ollut olemassa alle 6kk ja asiakkaita on jo +150. AT&T-tyyppisiltä megayhtiöiltä testimonialit saatu näiden käytön hyödyistä.
  • Softan runrate fiskaalille yli 2 miljardia.

Toisin sanoen AI-investointeja Nvidian tuotteisiin tekevien asiakkaiden joukko kasvaa. Lisäksi kasvaa mielestäni uskomattoman isolla nopeudella tuoteportfolio, joka takoo ihan materiaalista tulosta yhtiölle. Nämä ei tietenkään riitä kompensoimaan sitä, jos Megateknojen capex-investointi innokuuteen tulee hikkaa. Mutta jokainen tällainen uusi asiakas ja palvelu yhdistettynä CUDA lock-inniin, tulee luomaan dollareita omistajille vielä pitkään.

Oma ennuste Q3:lle:
Liikevaihto: $34B
EPS: $0.80

Näillä TTM PE olisi nykyhinnoilla 45x. Tässä AI-syklissä alin nähty TTM PE taso on ollut n. 50x.

19 tykkäystä

Raportista löytyy aika hyviäkin syitä laskulle:

  • Tuloskasvun (q/q) ohjeistetaan pysähtyvän. Lainaan suoraan Heikki Keskiväliltä X:n puolelta: Liikevaihdoksi ohjeistus $32.5 mrd, myyntikatteeksi 74.4% ja operatiivisiksi kuluiksi $4.3 mrd. Näin saadaan liikevoitoksi $20 mrd (32.5*74.4%-4.3), kun 2Q25 se oli samaiset $20 mrd. (GAAP)
  • Bruttomarginaalit kääntyi laskuun ja laski peräti 330bps. Toki tämä oli ennusteissa, mutta marginaalien ennustetaan laskevan entisestään Q3
  • Tulospuhelusta voi vetää johtopäätöksen, että marginaalit jatkavat laskua myös Q4
  • Edellä nähtiin mitä tuhoa marginaalien lasku tekee tulokselle. Etenkin, kun liikevaihdon kasvukin alkaa selvästi hidastumaan
  • Ei nähty enää samanlaisia rajuja odotusten ylityksiä kuin aiemmin (etenkin ohjeistus). Samaan aikaan nähdään, että osa luvuista kääntyi laskuun (marginaalit)
41 tykkäystä

Jep. Kävin aihetta läpi myös päivän Vartissa, mistä muutama nosto.

NVIDIAn kasvu tulee käytännössä megateknojen capexista eli investoinneista. Nopein kasvu tai “tasokorjaus” on nyt nähty. Jatkossa määrät ovat edelleen valtavia, mutta tasaisempia. Ja, nämä ennusteet nojaavat tietysti oletukseen siitä että megateknot saavat näille investoinneille hyvää tuottoa. Ne voivat nopeasti skaalata myös alaspäin capexia, jos tilanne muuttuu.

Rakettikasvu ei kestä kenelläkään ikuisesti. Tässä on hauskasti verrattuna entisten markkinalemppareiden, Intelin ja Ciscon, liikevaihdon kasvua NVIDIAan. Rajulla kasvulla on tendenssi lässähtää kun kokoluokka paisuu.

Tähän päälle tulee vielä se seikka, että hyvät ihmiset te maksatte NVIDIAsta 3000 miljardia dollaria! :smiley: Firman pitäisi pystyä tuo perustellakseen kypsässä vaiheessa tekemään ehkäpä 150-200 miljardin vuositulosta, enemmän kuin nykyinen liikevaihto. Tässä on aivan valtavasti odotuksia sisällä. Toisaalta AI on iso juttu ja voi olla että kaltaiseni skeptikot ovat merkki siitä, että olemmekin vasta matkan alussa mutta firman markkina-arvon kokoluokka on globaalistikin jo iso.

55 tykkäystä

Jenseniä haastettiin tästä aiheesta puhelussa aika paljon (saako asiakkaat tarpeeksi roita capexille, jatkuuko capex jne). Kyse on lyhykäisyydessään siitä, mitä enemmän asiakkaat investoivat, sitä enemmän säästävät rahaa. Tässä yksi vastauksista…

"Thanks, Matt. The people who are investing in NVIDIA infrastructure are getting returns on it right away. It’s the best ROI infrastructure, computing infrastructure investment you can make today. And so, one way to think through it, probably the most – the easiest way to think through it is just go back to first principles.

You have $1 trillion worth of general-purpose computing infrastructure. And the question is, do you want to build more of that or not? And for every $1 billion worth of Juniper CPU-based infrastructure that you stand up, you probably rent it for less than $1 billion. And so, because it’s commoditized, there’s already $1 trillion on the ground. What’s the point of getting more? And so, the people who are clamoring to get this infrastructure, one, when they build out Hopper-based infrastructure and soon, Blackwell-based infrastructure, they start saving money."

Tämä enterprise puoli jää aika vähälle huomiolle, 2 miljardia saas liikevaihtoa, ei huono. Tästä tulee vielä merkittävä bisnes tulevina vuosina.

5 tykkäystä

Miksi tässä sotketaan GAAPia ja non-GAAPia keskenään? Revenue-ohjeistus on 32.5 (non-gaap), bruttomarginaali-ohjeistus 75% (non-gaap), opex-ohjeistus $3B (non-gaap), vertailuliikevoitto $19.9B (non-gaap). Tuloskasvun implikoitu ohjeistus on siis $21.4B ja kasvu 7.5%.

Tämä tosiaan oli ainoa ei-blowout. Silti yli ennusteiden ja reilusti yli yhtiön oman ohjeistuksen. Samalla kaikkien aikojen toiseksi kovin bruttomarginaali.

Eihän näistäkään voi edelleenkään oikein vetää muuta johtopäätöstä kuin että kurssi hinnoitteli jotain aivan muita asioita kuin, mitä ennusteet - joiden yli tosiaan mentiin heittämällä - olivat.

5 tykkäystä

Jensen on hokenut tätä jo jokusen vuoden, ja iskulause on kieltämättä loistava: “the more you buy, the more you save!”. :smiley:

Megateknot tekevät tietysti datacentereillään rahaa, siinä missä oletettavasti kaikki AI-tutkimus polttaa sitä tolkuttomasti. Erinäiset yritykset, kuten Walmart ja Klarna, ovat kehuneet konkreettisia säästöjä AI:n avulla mm. tuotekatalogien laatimisessa ja asiakaspalvelussa. Eilen luin blummalta pitkän jutun, miten Filippiinien yli miljoona ihmistä työllistävä call center -ala on AI:sta puoliksi kauhuissaan, puoliksi optimistinen miten se voi korvata ihmistyötä ja “vapauttaa” käsipareja joko haastavampiin tapauksiin tai sitten… kortistoon.

Mainostamisessa AI:n ROI on ilmeinen, kun se auttaa kohdentamaan paremmin mainoksia Metalla, Googlella yms.

Mutta yleisesti ottaen asiat ovat vielä melko auki. Jensenin kanta ei tietysti mitään muuta voisi ollakaan kuin että the more you buy the more you save. :smiley:

Lisäys: alan sentimenttiä kuvaa hyvin Gavin Bakerin lainaus eilisessä podissa, että eräs teknojohtaja sanoi menevänsä mieluummin konkurssiin kuin jättävänsä yli-isot AI-investoinnit väliin. :smiley: Onko kaikki tosiaan näin selkä seinää vasten AI:n kanssa, ikään kuin joku ja vain yksi voisi päästä singulariteettiin ja sitten kaikki raha menee sille yhdelle toimijalle… Vai onko tämä vain ajan huumaa Kaliforniassa.

24 tykkäystä

Mitäs mieltä tuosta mahdollisuudesta tehdä omien ostoja $50B edestä?

Ei oikein mielipidettä suuntaan tai toiseen. Kai tämän voi tulkita niin, että kova on luotto yhtiöön, kun näillä arvostustasoilla ostetaan omia tuollaisilla summilla. Toki tämän pystyy tulkita myös halutessaan pessimistisemminkin.

Pelkästään eilisessä conf callissa mainittiin seuraavat asiakkaat ja ROI-aihiot:

  • “AT&T realized 70% cost savings and 8 times latency reduction after moving into NIMs for generative AI, call transcription, and classification.”
  • “Wistron is using NVIDIA AI Omniverse to reduce end-to-end cycle times for their factories by 50%.”
  • “Snowflake serves over 3 billion queries a day for over 10,000 enterprise customers is working with NVIDIA to build Copilots”
  • “Amdocs is using NVIDIA generative AI for their smart agent, transforming the customer experience and reducing customer service costs by 30%”
  • “ServiceNow is using NVIDIA for its Now Assist offering, the fastest-growing new product in the company’s history. SAP is using NVIDIA to build dual Co-pilots”
  • “Cohesity is using NVIDIA to build their generative AI agent and lower generative AI development costs”

Jos vielä 9-12kk sitten oli hiukan epäselvää, mitä kaikilla rautainvestoinneilla ja niiden avulla rakennetuilla LLM:illä tehään, niin kyllä tämä alkaa nyt konkretisoitumaan ROI:ksi ihan todenteolla. Varmaan Amaran laki lyö vielä näpeille näiden yli-investointien kanssa, mutta kyllä on aika selvää, että Huangin näkemys AI-vallankumouksesta tulee realisoitumaan todeksi.

11 tykkäystä

Tässä on vielä Gavin Bakerin kommentteja eilen jakamaani podiin missä hän hyvin alleviivaa miten toistaiseksi investoinnit ovat olleet ainakin megateknoille kannattavia.

Sen lisäksi mielenkiintoisia näkemyksiä skaalautumisesta ja miten isot teknot pistävät rahaa haisemaan tavoitellessaan ASIa. Aika näyttää saavutetaanko se taso vai tuleeko ensin talouden lait vastaan nimittäin homma kallistuu jatkuvasti.

Lukusuositus!

https://x.com/gavinsbaker/status/1828862999836102800?s=46&t=2ioRmPR9E06CY7pIWMMRqA

7 tykkäystä


Ei se 70% cost savings ainakaan vielä näy tuloksen teossa.

17 tykkäystä

Mikä tämä maaginen +$1T luku on? Onko se kertainvestointi vai investointien vuosittainen run-rate? 1000 miljardia dollaria?

Jos katsotaan LTM luvuilla mikä näiden listattujen yhtiöiden FCF on, niin nähdään kuinka paljon voitaisiin teoreettisesti investoida lisää, jos kassaan ei jätetä ropoakaan:

  • Amazon 48B
  • Alibaba 18B
  • Microsoft 74B
  • Meta 49B

Yhteensä $189B

Tosielämässä yhtiöt eivät tule investoimaan lähellekään 100 % FCF:stä.

17 tykkäystä

(Kone ei suostu tekemään sitaattia, mutta vastaan Lepikölle).

Ok. Lisähuomio investointien optimistisiin kasvuarvioihin: yksi syy siihen, miksi Nvidia:n myynti on (toistaiseksi) harvojen megateknojen investointien varassa on se, ettei niitä siruja riitä kaikille halukkaille. Ensin palvellaan tärkeimpiä asiakkaita. Tässä on myös strategisia, valtiollisia ulottuvuuksia. USA haluaa pysyä AI-kilpajuoksun kärjessä ja Nvidialle hyvät suhteet hallintoon ovat tietenkin elintärkeät, ehkä myös siksi Nvidia priorisoi kotimaisia toimijoita.

Näitä sirujahan havittelevat myös valtiolliset toimijat ympäri maailman.

5 tykkäystä

TBH en todella tiedä, mikä tuo $1T luku on. Dell’Oro sen on keksinyt ja kertoo sen olevan AI-liitännäisen konesali-infran investointitaso tulevaisuudessa. Käsitin, että run ratesta puhutaan, mutta en tätä(kään) pääse validoimaan, kun itse rapsa on maksumuurin takana. Lähinnä pyörittelin ko. luvun järkevyyttä suhteessa muihin markkinan proxy-kokoarvioihin.

Sanoisin, ettei tuohon lukuun kannata jumittua. On tosi haastava arvioida, mikä on Nvidian mahdollinen markkinaosuus kaikesta konesali-infrasta. Esim. Huang on laittanut vielä paremmaksi ja puhunut $100T markkinasta😊. Tuosta tuskin kannattaa lähetä viivotinanalyysia tekemään.

Nuo sun listaamat hyperscalereiden (lisätään vielä Oracle ja Google) investoinnit kertovat paljon enemmän. Olen itse törmännyt 20% yoy Capex-kasvuarvioihin tuleville vuosille. Tuosta voi sitten laskea tässäkin ketjussa aiemmin mainituilla AI:hin (lue Nvidiaan) kohdistuvilla prosenttiosuuksilla, mitä se voisi tarkoittaa Nvidian tuloskasvun kannalta.

4 tykkäystä

Goldmanin erilaiset skenaariot saattavat kiinnostaa joitain. :slight_smile:

https://x.com/Barchart/status/1829072829712597190

9 tykkäystä

Tämä Jussi Halmeen tuore video voi olla monille tuoreemmille sijoittajille mukava katsottava. :slight_smile:

Tekoälyn jättiläinen julkaisi huikeat toisen neljänneksen tulokset, mutta osake syöksyi 7 %! Onko Nvidian toimitusjohtajan sanat nyt tärkeämpiä kuin Jerome Powellin talouslinjaukset? Katso, mitä tämä tarkoittaa markkinoille ja sijoittajille!


EDIT:

Tässä on vielä Sijoittaja.fi:n ajatuksia

Monet asiakkaat odottavat Nvidian seuraavan sukupolven tekoälysirua, nimeltään Blackwell. Nvidia kertoi toimittaneensa näytteitä Blackwell-siruista neljänneksen aikana ja tehneensä muutoksen tuotteeseen, jotta sen valmistus olisi tehokkaampaa. Blackwell-sirun viivästyminen on yksi Nvidian liiketoiminnan suurimmista riskeistä.

Haluaisin vielä oppia lisää NVIDIAsta, ja siksi jatkan uteluani. :smiley:

Kuinka suurena riskinä nvidialaiset näkevät, että skaalaaminen ei jatku kuten tähän asti? Gavin Baker kirjoitta ylläjakamassani artikkelissa näin:

“Second, scaling laws may eventually collide with economics if they hold. And no one on Planet Earth knows if they will hold. Almost everyone closest to AI believes they will. It sounds like Kevin Scott has seen early checkpoints of GPT5 which confirm this, but no one knows. If scaling laws hold and there are no fundamental technology breakthroughs, then the models trained in 2026/2027 are likely to require clusters that cost well over $100 billion. Multiple players are discussing 5-10 gigawatt clusters - that is easily into the hundreds of billions of cost for a single cluster. At this point, I think scaling laws may collide with economics, ROIC may begin declining and there might be an ROI on AI debate that is underpinned by reality rather than ridiculous speculation.”

Klusterien hinta ilman teknologista läpimurtoa nousisi parissa vuodessa yli sataan miljardiin dollariin, tai jopa satoihin miljardeihin? :smiley: Kuulostaa melko kalliilta mallin kouluttamiselta, jos oikein asian ymmärrän. Siinä saa kouluttaa melkoisen tekoälyn, jotta tuolle investoinnille saisi tuottoa.

Toistaiseksi skaalautuminen on jatkunut, eli käsittääkseni tehokkaammilla ja tehokkaamilla chipeillä on pystytty kouluttamaan monimutkaisempia ja suurempaa datamassaa hyödyntäviä malleja.

Toisaalta nykykehityksellä tuota parempaa ja parempaa chippiä näyttää pukkaavan.

Mietin vain, että jos homma ei enää skaalaudukaan voi investoinnit olla hetken jäässä kun rahamäärät mitä mallien kanssa puuhastelu vaatii ovat tähtitieteellisiä ilman takeita onnistumisesta?

Blackwellit ovat tietysti taas yksi valtava askel, mutta niissä on taas jos jonkinlaista hikkaa ainakin nyt. Pian nähdään rullaako tuotanto oikeasti.

Tällä hetkellä analyytikoiden konsensustavoitehinta NVIDIAlle on 150 dollaria ja käytännössä kaikki “buyssa” paitsi joku ihme Gil B Luria 90 dollarin tavoitehinnallaan (hän on varmaan pihalla) ja “neutral” suosituksellaan. Amerikkalaisanalyytikoiden tavoitehinnat tulevat yleensä hihasta rikollisen kököillä VEHI-menetelmillä, mutta konsensusennusteissa NVIDIAN 2033e liikevaihto olisi (tosin otos enää 3 ennustetta, siinä missä tilivuoden 2026e 180 miljardin liikevaihtoa ennustaa vielä 60 analyytikkoa) peräti 600 miljardia jaardia ja tulos 225 miljardia. :smiley: Kait noita voi pitää jonkinlaisena muutaman jampan arvauksena yhtiön kypsän vaiheen kokoluokasta. Yhtiön markkina-arvoon nähden markkina-arvon suhde nettotulokseen olisi 2033e 12x, tosin matkalla tulisi rutkasti omien ostoja yms.

Joka tapauksessa, joka vuodelle ennustetaan reipasta kasvua niin että absoluuttisestihan liikevaihtoa tulee sisään lisää joku 30-50 miljardia dollaria vuodesta riippuen, tai yhtiön tilikauden 2024 koko liikevaihdon verran.

Sitä minä tässä mietin, että tässä on kyllä pakko uskoa ennennäkemättömän suhteellisen sekä etenkin absoluuttisen kasvun jatkumiseen seuraavat kymmenen vuotta ilman kummempia hikkoja, tuotantovaikeuksia, teknologista riskiä, kilpailuriskiä, talousympäristöriskiä, regulaatioriskiä jne.

Näin voi siis käydä, ja tässä kirjoittaa henkilö jonka omasta salkusta löytyy mm. tärinänvaimentimia myyvä tukkuri joten ottaa skeptisyys suolan kanssa. :smiley:

24 tykkäystä

Uskoakseni Baker puhuu nyt tässä ns. neural scaling laeista (Neural scaling law - Wikipedia), joka siis esittää, että tekoälymallin tarkkuus on siis sen keskeisten rakennusosien funktio. LLM:ien kohdalla mallin suorituskyky voidaan esittää käytännössä mallin parametrien määrän ja opetusaineiston funktiona. Tästä voi katsoa Andrej Karpathyn lyhyen mutta hyvän selostuksen asiaan.

Nämä kaksi tekijää - datan ja parametrien määrä - tietysti myös määrittävät sen, miten paljon opetuksen aikana tarvitaan GPU-kapasiteettia, jos opetuksesta halutaan selvitä säädyllisessä ajassa. Jos data ja parametrit lisääntyvät ja opetukseen käytetty aika halutaan pitää vakiona, on lisättävä rinnakkaislaskentakapasiteettia. Tämä on scaling lawsin juoni noin karkeasti.

Tosiaan tähän mennessä LLM:ien koko on kasvanut yhtä eksponentiaalisesti kuin Nvidian markkina-arvo:

Nähdäkseni Baker pohtii sitä, onko scaling law, joka on johtanut mallien kasvuun, ikäänkuin matemaatinen laki, joka määrää mallin koon ja opetusdatan määrän, jos malleja halutaan tästä parantaa jatkossakin. Ja tähän todella ei ole tällä hetkellä kellään vastausta. Sadat ja tuhannet akateemikot kyllä etsivät algoritmisia paradigmamuutoksia, jolla scaling law:n määräysvallasta päästäisiin eroon. Kuten tuossa @Verneri_Pulkkinen hyvin maalaatkin, taloudellinen kannustin tälle toiminnalle on melkoisen suuri.

Ja onhan tässä ollut ihan hyviä yrityksiä. Microsoftilta tuli se yksi paperi, jossa tehoja saatiin siirtymällä floatin point -tyypistä tertiary bittiin - se oli hyvä teoreettinen ajatusten herättäjä vaikka osoittautuikin ehkä toistaiseksi käytännön disruption kannalta mitättömäksi. Myös monia muita tapoja tehokkaampaan algoritmiikkaan on olemassa sekä muita opetuksen/inferencen kustannuksia säästäviä käytäntöjä kuten vaikkapa jo se, että noita foundation-malleja voi finetunata yms., jolloin riittää että esim. organisaatioiden yhteenliittymä kehittää tuollaisia perusmalleja ja jakaa kustannuksia, ja jatkokehitys tapahtuu niiden päällä hyvin marginaalisilla investoinneilla. Jos tehokkuusaihe kiinnostaa laajemminkin niin MIT:lla on kokonainen kurssi ilmaiseksi katsottavissa: https://www.youtube.com/watch?v=rCFvPEQTxKI

Mä en henkilökohtaisesti itse usko, että nykyvalikoiman mukaisten tekstimodaalisuuteen rajoittuvien foundational-mallien ääretön kasvatus on Nvidian pidemmän aikavälin tuloksen ajuri tai nykyarvon selittäjä. Pikemminkin uskon, että käyttötapausten leviäminen ja modaalien laajeneminen (esim. audioon ja videoon) ovat ne GPU-laskentakapasiteettikysynnän ensisijaiset ajurit. Tuollainen tekstimodaalin foundation-malli on nimittäin ihan miniatyyrikokoa verrattuna siihen, millaisilla massoilla vastaavaa videomallia pitäisi pystyä kouluttamaan. Tässä on aivan pakko uskoa siihen, että tekstimodaalilla toimivat LLM:t ovat ihan vasta ensimmäinen askel laajemmassa tekoälykehityksessä, joka tulee kestämään vielä vuosia. Ja esim. Soran kaltaiset teaserit antavat uskoa siihen, että tämä ei ole mitään hattaraista toiveajattelua.

Eli en antaisi sijoituskeississä ihan hirveästi arvoa 30.8.2024 tuotantokäyttöön asti päätyneille sovelluksille tai vetäisi niistä viivotinanalyysia kohti äärettömyyttä. Kyllä nimittäin joku velho jossain keksii ihan varmasti tekstimodaalisuuksien foundation-malleille jotain vielä tehokkaampaa kuin transformer-arkkitehtuurin, joka sekin on kyllä kieltämättä nerokas. Olen lukenut jostain, että tässä alkaa tulemaan kohta jo rajat vastaan siinä, että näille isoille malleille on kohta syötetty opetettu ihmisen historiassa luoma tekstituotanto.

Ja onhan tässä jo nyt tapahtunut siirtymää flops-per-second -ajattelusta power-per-token ajatteluun. Esim. Blackwell on optimoitu osittain nykyisellä transformer-arkkitehtuurilla tehtävällä laskennalla tehokkuuteen.

Toivottavasti tämä avasi mun henkilökohtaisia ajatuksia ja vastasi kysymykseen edes vähän. Paljon olisi voinut kirjoittaa esim. vaikkapa dedikoidummasta rinnakkaisarkkitehtuurista (kuten TPU), jotka saattaa myöskin osaltaan rikkoa scaling laws trajectorya.

Edit-lisäys: Yksi käytännön tapa Nvidialle välttää Neural scaling lawsin ja taloudellisen skaalautumisen reunaehtojen yhteentörmäys, olisi rahoittaa foundation mallien treenausta. GPU-laskentakysyntä siirtyy anyways tulevaisuudessa kohti inferenceä, joten miksipä yhtiö ei voisi olla luomassa näitä jätti malleja, joita pyörittämään sitten vaaditaan miljoonia / miljardeja Nvidia-chippejä konesaleihin. Osittain tähän suuntaahan ehkä jo lähdettiinkin julkaisemalla kesällä se megaluokan 530B Megatron malli. Kassaa riittää kyllä, jos kerran sitä riittää $50B takaisinostoihinkin.

13 tykkäystä

Kovaa duunii.

3 tykkäystä

Voisiko pitää jo jonkinlaisena kontraindikaattorina sitä, että pölhölän sanomissa on joka päivä artikkeli Nvidiasta?

Just saying…

13 tykkäystä

Beth Kindigiltä taas erittäin ansiokas analyysi tulosjulkistuksesta ja lähitulevaisuuden näkymistä.

Silmiinpistävät poiminnat:

  • Markkinareaktio selittyy kireällä arvostuksella eikä tuloksessa tai ohjeistuksessa ole varsinaisesti mitään sellaista, joka indikoisi pienintäkään heikkoutta liiketoiminnassa.
  • Jos Hopper-kysyntä saa aikaan vielä vuodenkin jälkeen tällaisia tulos ja ohjeistus beatteja, niin mitä tapahtuu, kun Blackwell on päätuote?
  • Blackwell shippaukset ja liikevaihdon luonti ovat käynnistymässä täsmälleen johdon kommunikoiman aikataulun mukaisesti Q4:llä. Kaikki indikaattorit vahvistavat tämän, vaikka media edelleen kirjoittaa epävarmuudesta.
  • Marginaaleista: It’s no small feat to maintain GAAP operating margin >60% for four consecutive quarters while simultaneously undergoing the semiconductor industry’s most advanced and most rapid product release cycle.

Kuuntelin tämän episodin tänään. Sanoisin, että ihan pakollista kuunnteltavaa ja ymmärrettävää, jos AI-junaan aikoo rahojensa kanssa nousta - aivan röyhkeän hyvää settiä! Siinä Nvidia-sijoituskeissi tiivistyi nähdäkseni nimenomaan ajatukseen, että tässä on otettu vasta ensimmäinen steppi. Tässä podcastin kiinnostavin anekdootti: “ChatGPT came out in 2022 and was to AI as Netscape Navigator was to the internet in 1994. Only less than 1% of current global internet market cap was founded in the two years after Netscape Navigator came out.”

6 tykkäystä