NVIDIA - Mahdottoman mahdollistaja

Kyllä, en sitä maininnut mutta tämä koskee lähinnä Gaming-segmenttiä. AI/serverikortit todennäköisesti myydään loppuun joka tapauksessa ja niiden kate on niin kova että valmistuksen siirto pois Kiinasta pitäisi onnistua kyllä. Saattaa tehdä kipua hieman NVIDIAn marginaaleihin, ja saattaa olla kova nakki tehdä tämä kuukaudessa, mutta muuten ei pitäisi olla ongelma.

Ja korvaava tuote tehdään varmasti, kysymys lähinnä on että kuinka kura sen pitää olla ja kelpaako se Kiinalaisille vai siirtyykö kysyntä harmaatuontiin, ts. NVIDIA myy kamansa muualle ja sieltä se valuu kiertoteitä Kiinaan…

1 tykkäys

Vähemmän yllättävä reaktio:

RTX 4090 korteista tuli niukkuustavaraa Kiinassa, joten jälleenmyyjät rahastaa…

Edit: Tosin nyt liikeellä on epämääräistä tietoa että kuluttajatavara olisi rajattu sääntöjen ulkopuolelle.

Lisäksi ilmeisesti itse valmistus on myös sittenkin edelleen sallittua, eli koomisesti Kiinassa voi valmistaa tuotteita joita ei saa myydä Kiinalaisille…!?

Ehkä tähän tulee selvyyttä lähipäivinä, toistaiseksi en löytänyt mitään yksiselitteistä juttua joka tämän vahvistaisi. Jos nämä pitävät paikkansa, tällöin Gaming-segmenttiin tämä ei vaikuttaisi muuten kuin ehkä sen osalta mitä Kiinalaiset kenties ovat ostaneet 4090-kortteja serverikäyttöön.

4 tykkäystä

Tämä on hitaasti mutta varmasti muuttumassa. AMD:llä ROCm:iin laitetaan kaikki paukut tällä hetkellä, kuulemani insiderin mukaan.

2 tykkäystä

Esitän nyt rohkean väitteen: millään kilpailevalla teknologialla ei tulla päihittämään CUDAa ikinä. Selvää on toki, että jos Nvidian tuotteita ei ole saatavilla, silloin on pakko siirtyä PyTorchiin, RCMään OpenClään jne. Mutta muussa tapauksessa Nvidian 30 vuotta kestänyttä alustadynastian kehitystä ei tulla kuromaan umpeen siten, että joku vapaaehtoisesti siirtyisi CUDAsta pois kilpailijan leiriin.

Itsellä on kova usko, että jos CUDAn haluaa syrjäyttää kiihdytetyn laskennan sovellusalustana/rajapintana tai miksi sitä nyt haluakaan kutsua, tulee se tehdä keksimällä täysin uusi prosessointiarkkitehtuurin paradigma.

5 tykkäystä

Tulee kuitenkin ottaa huomioon että paras tekninen ratkaisu ei aina voita. LLM at scale on hemmetin kallista firmoille, jos AMD:n rauta maksaa merkittävästi vähemmän voit olla varma että löytyy ukkoja koodaamaan cuda-konversioita.

5 tykkäystä

Tähän saakka Nvidian Arm-pohjaiset kamat ovat olleet serverikäyttöön, tämä on uusi avaus ja mielenkiintoista. Nvidialla on resursseja pistää myös softapuolen osaamista tämän jouduttamiseksi ja parin vuoden aikajänteellä on ihan realismia että Microsoft saa Windowsin Arm-version käyttökelpoiseksi muutenkin.

Saattaa aiheuttaa hikipisaroita AMDn ja Intelin leirissä, ja pahasti osuu Qualcommin muroihin joka on kovasti yrittänyt raivata markkinaa läppäreissä Arm-pohjaisilla piireillä. Nvidia on kova luu tähän kisaan koska tiedetään että GPU-puolella osaaminen on huippua ja näin voi olettaa että nämä piirit vetäisevät grafiikkapuolella kaulaa Qualcommin vastaaviin vaikka itse prosessoriytimet eivät olisi sen kummoisempia kuin Qualcommin.

Kiinnostavasti juttu myös mainitsee että AMD olisi tunkemassa samoille apajille (Arm windows)

14 tykkäystä

Iso uutinen. Strateginen moovi, en tätä skenaariota kyllä osannut vielä odottaa :). Intel kyllä kärsii nyt ja NVIDIA kerää hedelmiä. Uutisen ulostulo nosti heti Intelin kauppamääriä…

6 tykkäystä

RTX 4090 poistettu pakotelistalta

Seuraavana ohjelmassa: Kortin hinta Kiinassa romahtaa takaisin normaaliksi ja ne jotka menivät FOMOttamaan moisen kortin piikkihintaan ovat todennäköisesti kypsiä kuin orava jolla on käpy jäässä… No, se on sitä regulaatioriskiä se.

AI-laskentakorttien osalta tilanne edelleen sama, Kiina-only A800 ja H800 mallit lisätty listoille joten NVIDIA joutuu keksimään uusia jippoja. Voisin arvata että lähikuukausina tulee uusi malli jota on rampautettu lisää ja Kiina pääsee sitten pinoamaan näitä enemmän rinnakkain.

7 tykkäystä

Ja myyntihinta oletettavasti kuitenkin täysiverisen version mukainen😅 Eli isommat katteet ja isompaa volyymia Nvidialle.

2 tykkäystä

Kiinabannit lähestyy niin A800/H800-kortteja alettu kauppaamaan länsimarkkinoille. Kyllä näille ottajia löytyy tämänhetkisen AI-boomin viuhuessa.

4 tykkäystä

Nyt täytyy kysyä neuvoja viisaammilta, kun oma osaaminen ei tälle sektorille juuri ulotu. On nimittäin tullut seurailtua jkv jenkkiteknobuffaaja Luke Langon tarinoita liittyen mm tekoälyyn - ja samalla myös NVIDIAan. Tässä yksi artikkeli:

Katsoin myös yhden videopätkän, jossa hän selosti pähkinänkuoressa seuraavaa:

  • n 40% NVn lv:sta tuli alkuvuonna vain kahdelta asiakkaalta
  • Jenkkien suurimmat teknojätit (MS, Meta, Tesla, Google, Apple…) kehittävät kiivaasti omia custom AI chippejä
  • nämä inhouse CAIt ovat paljon kustannustehokkaampia kunkin omissa sovelluksissa kuin NVn ‘‘general purpose GPUt’’
    → NV tulee menettämään markkinaosuuksia merkittävästi

No NV on paljon muutakin kuin tämä AI puoli, enkä itse ole varsinaisesti NVstä kiinnostunut sijoitusmielessä tällä hetkellä. Mutta olisi kiva kuulla muidenkin mielipiteitä näistä megateknojen omista hankkeista ja niiden vaikutuksesta markkinaan.

Itse kuvittelisin, että nämä eri projektit ovat varsin haasteellisia ja kalliita toteuttaa. Kiinnostavin kysymys itselleni on kuitenkin se, että onko näillä yhteisiä nimittäjiä esim alihankinnan suhteen. Siis osaatteko nimetä yrityksiä, joiden teknologiaa nämä teknojätit välttämättä tai todennäköisesti käyttävät omien chppiprojektiensa toteutuksessa? Valmistusteknologiaa, laadunvarmistusta, (suunnittelu)ohjelmistoja ym??

Ajattelin, että jos löytyisi joku ‘‘hakku & lapio’’ yhtiö AI piirien valmistuksessa, jolla olisi pidemmän ajan hyvä kasvunäkymä tai jokin vallihauta, niin ei tarvitsisi arpoa, mihin piiri/korttivalmistajaan sijoittaa. Toki nekin lienevät jo ihan hyvissä hinnoissa. Saa heitellä ideoita ja ajatuksia matalalla kynnyksellä :star_struck:

5 tykkäystä

Sen nimi on TSMC. Juuri nyt käytännössä kaikki high-end tavara tulee heidän tehtailta. Mutta tuo ala on sitten ihan oma matopurkkinsa. Älyttömät investoinnit, vahvaa syklisyyttä jne.

Jos haluaa yrittää saalistaa käänneyhtiön osaketta pohjalta, Intel on potentiaalinen ehdokas - he ovat kovasti työntämässä nokkaansa Foundry-markkinoille ja ovat kuulemma saaneet ensimmäisiä asiakkaita. Voisiko jonkun megacapin AI-piiri tulla Intelin tehtailta muutaman vuoden päästä? Ihan realismia. Intel tosin joutuu alkuvaiheessa myymään tavaraa alta torihintojen koska track record on heikko.

Mutta… saatat missata mikä se NVIDIAn vallihauta tässä on. He ovat niin paljon muita edellä, että käytännössä kaikki muut ovat “also ran” ja nämä megacappien omat piiriprojektit ovat mallia ei sieltä helpoimmasta päästä. Ei riitä että Google tai Tesla vain kaatavat kasan rahaa ja uunista tulee ulos NVIDIAn kanssa vertailukelpoinen piiri mutta parempi/halvempi. Jos näin voisi tehdä, NVIDIAlla olisi enemmän kilpailijoita.

Se mitä nämä megacapit hakevat näillä omilla piireillään on mahdollisimman edullista “good enough”-piiriä tavaraan joka ei ole ihan kehityksen aallonharjalla. Ja silti riski on suuri että jos jotain menee poskelleen, saadaan lopulta ulos piiri joka on vuosia myöhässä eikä enää kilpailukykyinen.
NVIDIA ei lepää ja jos hirttää itsensä omaan piiriin voi käydä todella hassusti. Eräällä tavalla Google puhelinpuolella on tekemässä tätä erhettä - Google Tensor piti olla tapa kilpailla paremmin Applea vastaan, mutta piiri on aika lailla tuhnu ja haittaa jo Pixel-puhelimien suosiota. Tietenkin markkinalle saa upotettua myös keskinkertaisempaa tavaraa koska moni ei ymmärrä, mutta Applen huippumalleja vastaan homma ns. meni kiville. AI-laskentapiirit palvelinkeskuksiin ovat kertaluokkaa monimutkaisempi operaatio kuin pieni puhelin-SoC ja ala elää niin nopeasti että täysi ohjelmoitavuus on elintärkeää ja kustannustehokkuus ei välttämättä auta yhtään mitään jos hirveällä hinnalla tehdyt omat piirit eivät taivu viimeisimpiin juttuhin.

Eli oma näkemykseni on että molemmille on tilaa. Haluaako Google tehdä oman palvelinpuolen piirin jolla ajaa jotain AI-chatbottia halvemmalla? Varmasti, mutta realismi on että sen tekemiseen menee vuosia. Sillä aikaa NVIDIA kehittää tehokkaampaa rautaa jonka päällä se aallonharja ratsastaa koska CUDA ja tämän hetken kehittäjien mindshare.

Jos Google jättää ostamatta ja käyttämättä ja vannoo oman piirin nimeen, voi käydä niin että vaikkapa 3 vuoden päästä Googlella on hienosti toimiva chatGPT-wannabe joka on ihan yhtä hieno ja paljon halvempi pyörittää kuin ChatGPT-4 tänään. Samaan aikaan kilpailijoilla on pari sukupolvea uudempi malli joka saa Googlen “tein itse ja säästin”-version näyttämään vitsiltä, ja uudempi viritys ei taivu Googlen piirille koska joku rajoitus ja pitäisi tehdä uusi sukupolvi tai pari, jonka tekemisen aikana NVIDIA taas painuu horisonttiin.

Jopa AMD, joka on tehnyt näytönohjaimia vuosikymmeniä, on jatkuvasti sen vuoden-pari jälkijunassa vaikka muuten pysyy jotenkuten kärryillä.

NVIDIAn etumatka on taviksien näkökulmasta varsin piilossa ja “tehdään itse halvemmalla” ei käytännössä ole mahdollista ilman hyvin pitkää kehitystyötä jossa yritetään ottaa NVIDIA ensin kiinni. Varmasti on useampi megacap jonka kannattaa panostaa tähän työhön jotta pitkässä juoksussa ei tarvitsisi maksaa Nahkatakkimiehen katteita kaikesta raudasta, mutta veikkaisin että ollaan 5+ vuoden päässä siitä tilanteesta että kukaan, ehkä poislukien AMD, on edes samalla pallokentällä raudan suhteen.

NV on toisaalta osakkeena arvostettu niin kuuhun että vaikea on myöskään perustella siihen sijoittamista näissä hinnoissa. Ei ole helppoa ei, AI juna on jo täynnä, liput myytiin jo aikoja sitten. Ehkä rakentavampaa sijoittajan kannalta on yrittää etsiä sitä seuraavaa juttua, kenties teknologian soveltamispuolelta? Tosin tämän osalta vaihtoehdot lienevät “sijoita megacappeihin” tai “sijoita hirveään läjään random startuppeja ja toivo että google, MS tai Meta ostavat monet niistä pois rasvaisella valuaatiolla, ja tietäen että iso osa niistä menee konkkaan”.

Oma salkku sisältää NVIDA+AMD raudan puolella ja Microsoft soveltamispuolen pelinä. Molemmat ostettu aikoja sitten, joten mukavasti plussalla. En ole viime aikoina lisäillyt, tosin AMD painui välillä tuossa niin alas että jo mietin, mutta dippi ei ollut tarpeeksi syvä.

17 tykkäystä

Kiitos! Tuli niin nopea ja kattava vastaus, että aloin jo epäillä, onko Jarnis tekoäly :face_with_raised_eyebrow:
Mutta lähdetään siitä, että nimimerkin takana on verta ja lihaa. Ja joo, sehän tässä on taustalla, että ostin kyllä NVtä viime syksynä mutta menin myös myymään viime syksynä ja nythän perävalotkin ovat jo kadonneet.

Esitit hyvät perusteet NVn asemalle ja arvostukselle. Samalla on ihan ymmärrettävää, että megateknot visioivat omista inhouse ratkaisuista, kun itse kullakin datamäärät kasvavat räjähdysmäisesti. Ajatellaan vaikka Teslan self drivingiä tai softatalojen AI projekteja, joissa ilmeisen erilaiset vaatimukset prosessoinnissa/rajapinnoissa. Varmaan projektit ovat haastavia ja pitkässäkin puussa mutta osaltaan kiihdyttävät innovaatioita ja sparraavat myös NV & Co kehittämään parempia ja tehokkaampia piirejä. Voihan myös olla, että noilla omilla projekteilla haetaan parempia neuvotteluasemia…

Mutta siis kaikkiaan dataprosessointia tarvitaan suunnilleen eksponentiaaliseen tahtiin ja itse ajattelen, että yritykset tyyliin Synopsys tai AMAT tulevat jatkossa pärjäämään erittäinkin hyvin tarjotessaan palveluitaan piirivalmistajille, oli sitten kuka tahansa. Näistä erit AMAT näyttäisi kohtuullisesti arvostetulta. Mutta tässäkin on tunnustettava, että en tunne alaa tarpeeksi tietääkseni mahdollisista disruptioista tai muista uhkakuvista näitä yhtiöitä kohtaan. Pitää jatkaa opiskelua - tai sitten vaan tyytyä Talenomeihin ja Revenioihin.

NV on kyllä ehdottomasti seurannassa mutta nykyisillä kertoimilla ei vaan uskalla. TSMC on lähempänä salkutusta mutta hieman arveluttaa tuo USA-Kiina akselin kehittyminen.

Tää on hyvin sanottu. Oikeastaan tuossa Luken jutussakin oli sama ajatus, vaihe 3. Ja nythän yritys kuin yritys yrittää ratsastaa AIlla, ainakin markkinointipuheissa, joten haastavaa penkoa niitäkin, etenkin ulkomaisia. Mutta tällä saralla olen itsekin paremmin mukana eli salkusta löytyy mm Aiforia ja Optomed.

6 tykkäystä

Tähän pari tarkennusta, olen hyvin läheltä seuraamassa näitä juttuja täällä “toiminnan keskellä”.

  1. Tärkeintä megacapeille tai hyper scalereille on perf per watt -optimointi. Chippien ostohinta on vain yksi ja pienempi ongelma. GPU:t on “liian ohjelmoitavia” ollakseen optimaalisia neural engineitä. Kustomoidut chipit on tehty vain NN-laskentaan, ja ne pystyvät helposti voittamaan GPU:t ainakin paperilla. Haasteeksi muodostuu sen sijaan compiler-puoli. Kuinka tehokkaasti voidaan olemassaolevat NN-mallit mäpätä pyörimään custom-hw:ssa. Vaatiiko researchereiltä uusia taitoja / codesignia vai voivatko kehittää teknologiaa vapaasti ja koodata pytorch/TF/Jaxilla kuten ennenkin.
  2. LLM ja muut foundation modelit ovat jo kymmenissä miljardeissa parametreissa. Joka keksii tehokkaan tavan merkittävästi pienentää näitä malleja (esim low rank -faktorointi) ja kiihdyttämään lopputuloksen voittaa perf per watt -pelin. Sanoisin että jonkin tason hardenointia/standardointia tullaan näkemään ohjelmoitavuuden kustannuksella. Muuten tästä ei ehkä tule skaalautuvaa taloudellista bisnestä muille kuin NV/AMD:lle.
  3. en ole samaa mieltä siitä että Neural engine olisi vaikeampi ongelma kuin puhelin-soc. Soc eli system-on-a-chip on vaikein mahdollinen piiri, siinä on kymmeniä eri IP-lohkoja (mukaanlukien CPU:t ja GPU:t), sensor interfaceja, haasteellinen dram cache, ja äärimmäisen pitkälle optimoitu virrankulutus power-geittauksineen. Itse asiassa voidaan sanoa että jokaisessa SoC:ssa lisäksi on yhtenä legona pienempi versio data center neural enginestä. Jos vielä integroidaan modeemi kylkeen niin voi pojat. Insinöörejä socin tekoon tarvitaan kertaluokkaa suurempi määrä (tuhansia). Ei ole ihme että google pixelillä ottaa aikaa saada applea tai edes qualcommia kiinni, ja mahtaako koskaan saadakaan ennen kuin kärsivällisyys loppuu jää nähtäväksi.

Hakku/lapio-firmoja on ehdottomasti myös SMCI.

14 tykkäystä

Se on juuri näin. @Jarnis piti myös hyvän puheenvuoron.

Olen sanonut tämän ennenkin, mutta toistan vielä: Nvidian positio AI-chipeissä tullaan murtamaan vain ja ainoastaan muuttamalla koko kiihdytetyn laskennan paradigma “general purpose” GPU -arkkitehtuurista joksikin muuksi. Tähän se tällä hetkellä todennäköisin vaihtoehto on TPU tai DPU -tyyppinen chippi, joilla voitaisiin isoja massoja saada käsiteltyä potentiaalisesti tehokkaammin. Nämä ovat myös se betsi, johon isot teknot (etenkin Google) ovat panostaneet. Eivät he ole edes yrittämässä kiriä Nvidian 30 vuoden GPU-arkkitehtuurin ja CUDA-alustan etumatkaa kiinni.

@Von_Wangell suosittelen aloittamaan opiskelun tällä podcast-jaksolla, jota täällä jo aiemmin hehkutin: https://www.youtube.com/watch?v=nFB-AILkamw. 3h kuuntelun jälkeen tiedät todennäköisesti enemmän Nvidiasta ja Cudasta, prosessoriarkkitehtuurista, kiihdytetystä laskennasta ja konesaliraudasta kuin suurin osa tähän lankaan kirjoittavista.

11 tykkäystä

Taas se nahkatakkimies vie AI-firmojen rahat.

Toimitukset laitevalmistajilta ja pilvitarjoajien konesaleista alkaen Q2 2024, että ihan heti ei näy numeroissa, mutta eiköhän jonoa muodostu heti…

5 tykkäystä

Tuli myös roadmappeja

NVIDIAn presentaatio:

Siinä on työmaata kilpailijoille pysyä perässä kun NVIDIA pistänyt paukkuja isolla kädellä AI-laskentapiirien kehitykseen LLM AI-boomin iskettyä ja tulokset alkaa näkymään.

4 tykkäystä

Usein firmat käyttää termiä Leading Edge. Nvidian kohdalla asia on juuri noin. Kilpailijat ovat pitkälti seurailijoita. Seurailija joutuu aina arvaamaan, mitä johtava toimija tekee. Nvidia tulee olemaan kilpailijoitaan tehokkaampi marginaaleissa, koska se johtaa markkinaa ja myös luo ja suuntaa markkinaa. Tässä on positiivinen kierre, koska yhtiö pystyy pitämään kovaa marginaalia ja tuotekehittää samalla.

6 tykkäystä

Sam Altman, joka sai juuri kenkää OpenAI:lta, oli Forbesin tietojen mukaan keräämässä miljardirahoitusta TPU-ventureen, jonka tarkoituksena oli haastaa Nvidian dominanssi. Tällaiset rönsyilyt olivat ilmeisesti osasyy potkujen takana.

Suosittelen Nvidia-omistajia seuraamaan silmä kovana Altman-saagan kehittymistä. Siinä on kyllä kaveri, jolla on kyky kasata ympärilleen porukka ja pääomat, jolla Nvidia saatetaankin haastaa joku päivä.

3 tykkäystä

…mutta realistisesti jos lähdetää nollasta, menee pari vuotta että on ensimmäinen piiri uunista ulos… eli ihan hetkeen ei hetkauta tilannetta.

4 tykkäystä