NVIDIA - Mahdottoman mahdollistaja

Näin se on. Amazonin ja Microsoftin pilviliikevaihdot tais jäädä piirun verran alle tavoitteista Q4 tuloksissa, mahtoiko syynä olla se, että laskentakapasiteettia ei vain ollut saatavissa, näin vähän arvelen nyt. Eikä AMD:kään näytä kykenevän murtautumaan Nvidian tontille. Loput epävarmat sijoittajat Jensen puhuu ympäri GTC:ssä maaliskuussa 17.-21.3.2025. Ehkä tariffi ja myyntirajoitusasiat luo jotain epävarmuutta. Mutta ei tästä sopasta kunnon karhukeissiä Nvidialle nyt saada.

10 tykkäystä

Huolestuttava vuoto X-tili MEGAsizeGPU :lta x.com

Tilin mukaan Nvidian 5090 pula hellittää ja vaihtuu kuukaudessa naurettavan korkeaan varastotilanteeseen, joka johtuu datakeskustuotteiden menekin odotuksia pienemmästä kysynnästä. Kuten tiedetään, Nvidia saa murto-osan tuottoa pelinäytönohjaimista vs. datakeskus gpu:t. Eli mitä vähemmän Nvidia myy uusimpia pelinäytönohjaimiaan, sen parempi.

Tosin pitää ottaa huomioon myös Jarniksen valottama mekanismi, jossa sellaisia siruja, jotka eivät kelpaa datakeskuksiin, voidaan hyödyntää pelinäytönohjaimissa.

Vuotajaa on totuttu pitämään luotettavana. Pikaisen googlauksen perusteella tekkisivustot ovat tehneet juttuja MEGAsizeGPU :n tweeteistä.

Muropaketin juttu aiheesta:

6 tykkäystä

Samaa nodea käytetään, mutta piirit ovat eri. Ei voi ottaa jo valmistettuja datacenter Blackwell-piirejen piikiekkoja ja jotenkin tehdä niistä pelikortteja. Sen sijaan mikä on mahdollista on että allokaatiomuutoksia on tehty, ts. lisää piikiekkoja pelikorttikäyttöön, vähemmän datacenter-käyttöön. Jos näin on tehty, siihen on taatusti hyvät syyt ja en näe tätä mitenkään erityisen hälyttävänä. Ja oma henkilökohtainen mielipiteeni on että tämä huhujuttu on oikeasti ankka ja vain pistetty kiertoon jotta “kapinoivat” pelikorttien metsästäjät pysyisivät housuissaan sen kuukauden tms. että pelikorttien valmistus saa kiinni pahimman kysyntäpiikin ja kortteja on reilummin tarjolla. NVIDIA on ottanut huomattavaa mainehaittaa tumpeloidun pelikorttilaunchin kanssa jossa on nyt kuukauden päivät myyty eioota siihen malliin että markkinahinta korteilla on +50% … +100% vs. korttien “MSRP”-hinta ja kaikki myyvät eioota.

Anekdoottina olen itse viimeisen kuukauden aktiivisesti metsästänyt RTX 5090-korttia ja tätä ennen olen vilaukselta nähnyt “osta”-napin kolmeen eri kertaan mutten koskaan ole saanut tuotetta ostoskoriin asti. Tänään viimein pääsin niin pitkälle että sain tuotteen ostettua, mutta olin sen sekunnin-pari liian hidas että päivän massiivisesta 6kpl erästä (2 eri mallia) olisi riittänyt. Jäin vähän limboon - sain tilauksen sisään maksettuna, mutta jäin varasijalle odottamaan seuraavaa erää. On ihan naurettavaa että 4 viikossa näitä kortteja on tähän maahan saatu arviolta <50kpl ja tilanne on edelleen se että käytännössä et voi edes tehdä tilausta kun jälleenmyyjät eivät niitä uskalla ottaa kuin varmasti saatavaksi tiedetyistä kappaleista koska aiemmissa julkaisusopissa ottivat näpeilleen kun markkinahinta karkasi ja ohjehinnalla ennakkomyydyistä korteista tuli tappiota…

RTX 5080-tilanne, vaikka onkin parempi, ei ole mitenkään massiivisesti parempi, niitä on ehkä 10x tuo määrä tähän maahan saatu ja olen niitä aiemmin saanut yhden ostettua ja toisen tilattua (toimitus ehkä ensi kuussa) työpaikan käyttöön eikä niitäkään ole missään ollut minuutteja pidempään ollut tarjolla.

Niin ja pitää muistaa että datacenter-Blackwellien pullonkaula ei ole TSMCn kiekot vaan paketointikapasiteetti jossa datacenter-mallin piiri “liimataan” HBM-muistien kanssa samalle substratelle. Tätä kapasiteettia ei maailmassa ole tarpeeksi.

9 tykkäystä

MEGAsizeGPU :n kirjoituksessa haisee skalppaajien vastainen kampanjointi. Toivotaan, ettei datakeskusmyynnissä ole heikkoutta.

Olen lukenut aiemman viestisi näytönohjaimista huolimattomasti, ja Muropaketti onnistui hämmentämään lisää:

” Nvidia aikoo hyödyntää käyttämättä jääneet GB200-datakeskuspiirit ja käyttää niitä GB202-piireinä Nvidian GeForce RTX 5090 -näytönohjaimissa”

Vs. MEGAsizeGPU ;n twiitti, jossa puhutaan jiildeistä.

”Imagine you are Nvidia and have purchased shit loads of TSMC yields for B200, but now the market doesn’t want that much B200, and RTX40 is retired……The only solution is to make as much RTX50 as possible to cover the unused yield of B200”

Ilmeisesti viesti olisi pitänyt osata tulkita allokaatiomuutoksena. Melko vaikeaa maallikolle, onneksi on Jarnis.

Jos sitten haluaa välttämättä huolestua, niin sillähän ei lopulta liene merkitystä missä se valmistuksen pullonkaula on (paketointi, muistit, kiekot tms).

Joo vähän tässä on sekoilua ilmassa. GB200 ja B200-piireissä on HBM-muistiohjaimet, niitä voi käyttää vain datakeskuspiireissä. GB202 (“kuluttaja-Blackwell”) on GDDR7-muistiohjaimet ja niitä voi laittaa pelikortteihin. Ainoa valinta minkä NVIDIA voi tehdä on valita peli-RTX 5090 -korttien ja pian julkaistavan ammattilaismallin (RTX xxxx Blackwell) välillä koska nämä molemmat käyttävät GB202-piiriä, erona vain se että ammatikortissa on ilmeisesti 48GB videomuistia ja kenties 96GB malli tulee myös. RTX 5090 saa näistä GB202-piireistä ne jotka ovat ns. hieman viallisia (kaikki yksiköt eivät ole käytössä) kun taas ammattikortteihin menee ne jotka ovat kokonaan ehjiä.

Sen mitä NVIDIA voisi tehdä on pistää “täysin ehjiä” GB202-piirejä pelikortteihin jos valmistuksessa on tullut odotettua isommalla prosentilla täysin ehjiä lastuja ja on jo kerätty aivan tarpeeksi niitä varastoon tulevaa amattikorttimallia varten. En tätäkään näe suurena draamana - jokaisen piirin valmistus maksaa saman verran riippumatta siitä onko se täysin ehjä vai kappale joka kelpaa vain RTX 5090-korttiin ja niin kauan kuin ammattilaiskortteihin (huom, ei siis datacenter, vaan ammattilaisten työasema-PC:t) riittää tarpeeksi niitä täysin onnistuneita lastuja, lopulla ei ole niin väliä. Ei niitä ammattikortteja myydä yhtäkkiä moninkertaisia määriä vain siksi että lastuja on enemmän - niiiden osalta riittää että myytävää on kysynnän täyttämiseksi ja loput piirit voivat mennä pelikorttikäyttöön.

Ehkä tuon twiitin voisi teoriassa ymmärtää niin että kaveri on sekottanut ammattilais-työasemakortit ja datacenter-kortit, ja muutos jonka NVIDIA on tehnyt on että ei enää pihtaa kaikkia täysin ehjiä piirejä tulevaan ammattikorttikäyttöön vaan panostaa enemmän RTX 5090-korttien saatavuuteen. Ja syy tähän voi olla yksinkertaisesti se että TSMC on ylittänyt odotukset sen osalta kuinka iso prosentti GB202-piireistä on täysin ehjiä. Suunnitelma kenties oli ensin että pistetään vain ne pikkuvialliset pelikortteihin mutta tulos olikin liian vähän pelikortteja ja nyt väännetään nuppia eri asentoon. Tämä ei kuitenkaan tällöin liittyisi mitenkään datacenter-kortteihin jonka piisiru on eri mallia (eri muistiohjaimet)

Tai sitten yksinkertaisesti todella kyse on siitä mihin ostettuja piikiekkoja allokoidaan - tilattu enemmän GB202 -piikiekkoja ja nämä otettu (G)B200 -piirien allokaatiosta (GB200/B200). TSMC edelleen tekee saman määrän kiekkoja NVIDIAlle mitä oli tilattu, mutta mixi hieman muuttuu.

3 tykkäystä

Mielenkiintoinen haastattelu, jossa Groqin toimitusjohtaja Jonathan Ross. Tää on se sama nero, joka keksi Googlella ollessaan TPU:t. Groqilla ovat kehittäneet LPU:t, jotka ovat tehokkaampia inferenssilaskentaan kuin GPU:t.

Eivät näe Nvidiaa inferenssissä edes kilpailijana, koska Nvidian tuote ei pysty kilpailemaan LPU:n kanssa. Pari tärkeintä huomiota haastiksesta:

Grok’s inference costs are more than 5x lower than Nvidia’s. The memory alone in the latest GPUs costs more than Groq’s fully loaded CapEx per chip deployed. Furthermore, Grok uses about a third of the energy per token compared to Nvidia.

Grok and Nvidia occupy different segments of the AI market. Nvidia excels in the high-margin, high-demand training market, while Grok focuses on the high-volume, lower-margin inference market. Grok achieves lower costs and higher energy efficiency through a different chip architecture that avoids high-bandwidth memory (HBM), enabling greater scalability. Nvidia’s strength lies in its established market position and dominance in GPU technology for training, whereas Grok’s competitive advantage is its significantly lower cost and faster inference speeds.

Groqin liiketoiminta skaalautuu nyt “nopeammin kuin eksponentiaalisesti”. Tavoitteena vastata yli 50 prosentista maailman inferenssilaskennasta vuoteen 2027 mennessä.

Tässä listattuna tiivistetysti mitä haastattelussa sanottiin. Jokainen CEO tietysti myy ja kehuu omaa tuotettaan, mutta vaikuttaa todella merkittävältä kilpailijalta Nvidialle inferenssilaskennassa.

8 tykkäystä

Groq (ja Cerebras yms. inferenssipelurit) ovat kyllä ihan mielenkiintoisia haastajia. Hinnan lisäksi nämä on kiinnostavia koska:

  • Tuotanto USA:ssa ja geopolitiikan kiemurat
  • CUDA:n vallihauta (ainakin nykyisillä innovaatioilla) on pienempi inferencessä

Mutta SemiAnalysiksen (Dylan Patel) analyysien perusteella Nvidia kyllä pystyy kyllä tärkeimmällä mittarilla eli performance / total-cost-of-ownership päihittämään inference-chipit helposti. Tämä tilanne tosin voi muuttua, jos / kun Groq pääsee joskus tuotannossaan nykyaikaisiin nanometreihin (4nm oli kai ehkä mahdollinen tuotantoon meno tänä vuonna nyt, kun rahaa on saatu sijoittajilta).

Isoin pullonkaula Grokissa on juuri se, millä hinta on saatu alas - eli HBM:n puute. Siksi syntyy niitä tilanteita, jossa tarvitaan pari sataa LPU:ta samaan palvelutarkoitukseen, jonka voi hoitaa yhdellä Nvidian H/B-sarjalaisella. Ja juuri tästä syystä tuo perf / tco on Nvidian puolella.

Ja kun mallit monimutkaistuvat ja test-time training / CoT yms. kasvattavat konteksti- ja siten myös muistivaatimuksia, niin se on haastava paikka inference-optimoinnille. Jossain määrin nimittäin uudetkin LPUt on optimoitu jo 1-2 vuotta vanhoille NLP SOTA-malleille, mikä näkyy esim. rajoitteissa mm. uusiin ei-NLP taskeihin liittyen (joihin taas mallikehitys näyttäisi olevan menossa).

9 tykkäystä

Lisäksi on huomioitava että NVIDIA ei ole nukkumassa. Jos oikeaa pitempikestoista etua on inferenssi-optimoidusta lastusta, sellainen tulee NVIDIAlta jossain vaiheessa ja alkavat myydä kahta eri tuotetta kahteen eri tarkoitukseen. Näissä vaan kehityssyklit ovat vuosia, joten nopealiikkeinen kilpailija on ehtinyt apajille ensin.

3 tykkäystä

Eli Ross ei näe Nvidiaa Groqin kilpailijana, mutta sinä näet? :face_with_monocle:

1 tykkäys

SRAM etu inferenssissä on se, että se on nopeampi ja latenssi on matalampi vs. HBM.

GPU vs. LPU total-cost-of-ownership voittaja näyttäisi ratkeavan sillä, millaista mallia ollaan ajamassa. Jos laskentakapasiteettia ja muistikaistaa vaaditaan paljon, silloin GPU voittaa. Muuten LPU on parempi.

Kielimallien kanssa keskustelun perusteella näyttäisi itse asiassa siltä, että LPU kasvattaa etuaan, kun siirrytään test-time compute / chain-of-though malleihin.

1 tykkäys

Kyllähän Groq on kilpailija, kun puhutaan inferenssilaskennan markkinaosuuksista. Haastattelussa Ross esittää, että ei näe Nvidiaa kilpailijana, koska Nvidia ei pysty kilpailemaan Groqin kanssa inferenssissä.

Viime vuonna Nvidia sanoi, että 40 % liikevaihdosta tulee inferenssistä.

Haastiksesta relevantteja osia:

So you don’t view NVIDIA as a competitor?

-No, they don’t offer fast tokens and they don’t offer low cost tokens. It’s a very different product. But what they do very, very well is training.

-For inference, you don’t need to buy NVIDIA anymore. You don’t need to buy GPUs for inference.

-If you want lower cost and faster, then you want an LPU. How much lower cost is it? More than 5x lower.

Why is 40% of Nvidia revenue inference then? And why have you not taken so much more of that?

-At the beginning of 2024, we only had 640 chips. At the end, we had 40,000. We’re not at that scale yet. This year we want to be at over 2 million. And next year the number is much, much, much larger.

2 tykkäystä

Aivan - juuri kuten kirjoitin. Mutta tuo etu on tosiaan myös pullonkaula, koska muisti on tekoälyssä ensimmäisenä vastaantuleva rajoite.

Tässä suosittelen pinnallisen tekoälyn tekemän analyysin sijaan lukemaan asiantuntija-analyysia etenkin kun sitä on puoli-ilmaiseksi saatavilla:

Tämä tekoälyn laatima pinta-analyysi on ihan suoraan väärin - tai ainakin hyvin pieni osa totuutta.

Esim. CoT:ssä tehtävä ongelman pilkkominen osiin (ainakin nykymalliparadigmalla) lisää massiviisesti KV-cachen kokoa ja siten muistille aiheutuvia vaatimuksia. Eli tuo LPU:n muistikaistan rajoite on niin fundamentaalinen, että se asettaa mittavia rajoitteita siihen, millaisia malleja ja miten syvällisellä CoT:lla voidaan inferenceä tehdä. Ja lopulta se asettaa rajoitteen tietysti myös LPU:lla mallin inferestä saadulla suorituskyvylle vs. GPU. Saat kyllä siis $/token halvempaa ajoa LPU:lla, mutta mallista puristettu tulos on huonompaa kuin, mitä saa GPU:lla irti.

Jos haluaa ymmärtää tätä paremmin, suosittelen esim. tätä Lex Friedmanin megajaksoa, jossa Dylan Patel ja Nathan Lambert vieraana. Muistiin ja inferenceen liitännäinen keskustelu alkaa noin 2h kohdalla ja kestää siitä 60 min eteenpäin:

LPU on varmasti superhyvä siis sellaisiin inference-käyttötapauksiin, jossa voidaan olettaa, että nyky-LLM:t ovat “riittävän hyviä”. Esim. voisin kuvitella, että esim. vaikka jossain MS D365 Copilot maailmassa tämä voisi olla todella kustannustehokasta mm. niihin käyttötapauksiin, jossa tekoäly pureskelee vaikkapa myyntitilauksia ostotilauksista. Output pysyy vakioisena ja inputkin on sen verran universaalia, että parannukset alla oleviin LLM:iin eivät tuo käytännössä toiminnollisuusparannuksia yhtään. Mitään ajatusketjuja tai muuta härpätyksiä ei tarvita.

Mutta kun suurin osa AI:sta on toistaiseksi aika paljon “elävämpää”, muodostuu tästä tosiaan massiivinen haaste kaikelle rautatason optimoinnille vielä toistaiseksi.

10 tykkäystä

Voiko olla niin, että Dylan “Nvidia tekee $400B liikevaihtoa ensi vuonna” Patelin vuoden vanha arvio on väärä? En tiedä mitkä hänen argumentit olivat, koska en maksanut 500 dollaria tuon linkkaamasi artikkelin lukemisesta.

Eikö nyt kuitenkin ole niin, että ne massakäyttöön tulevat tekoälymallit tulevat olemaan pienempiä / tiivistettyjä (distilled) malleja, koska yksi tärkeimmistä asioista on niiden käyttökustannusten optimointi? Lisäksi nopeus ja latenssi on tärkeitä.

Ei ole väliä miltä AI-mallilta kysyy asiasta, tarjoavat LPU:ta voittavaksi valinnaksi. Edellinen yritys oli ChatGPT:ltä, mutta annan vielä uunituoreen Grok 3:n yrittää. Tässä myös teknisiä perusteita miksi LPU pärjää myös reasoning-malleissa. Kerro, jos nämäkin perusteet ovat puuta heinää :blush:

Kysymyksesi on tärkeä ja tuo esiin validin huolen: voisivatko reasoning-mallit, joissa käytetään chain-of-thought (CoT) -tekniikkaa, olla liian raskaita Groqin Language Processing Unit (LPU) -yksiköille niiden muistirajoitusten vuoksi? Analysoidaan tätä tarkasti, ottaen huomioon LPU:n tekniset ominaisuudet, CoT:n vaikutus muistitarpeeseen ja miten tämä vaikuttaa niiden soveltuvuuteen total cost of ownership (TCO) -näkökulmasta verrattuna GPU:hin (esim. Nvidian H100).

Reasoning-mallit ja Chain-of-Thought (CoT)

Reasoning-mallit ovat suuria kielimalleja (LLM), jotka on optimoitu loogiseen päättelyyn, ja CoT lisää niiden kykyä tuottaa välivaiheita ennen lopullista vastausta. Tämä lisää laskentavaatimuksia ja erityisesti tokenien määrää, koska malli generoi pidempiä sekvenssejä. Kysymys on, kasvattaako CoT myös muistitarvetta siinä määrin, että LPU:n rajoitettu muisti (230 MB SRAM per siru, 32 GB DDR4 per kortti) muodostuu pullonkaulaksi verrattuna GPU:n suurempaan muistiin (141 GB HBM3 H100:ssa).
Muistin tarve ja CoT

  • Perusmuistitarve: Kielimallin parametrit vievät muistia. Esimerkiksi:
    10B parametria: 20 GB (float16).
    70B parametria: 140 GB.
    500B parametria: 1000 GB.
  • CoT:n vaikutus: CoT ei varsinaisesti lisää mallin parametrien muistitarvetta, vaan kasvattaa kontekstimuistin (context memory) ja aktiivisen laskentamuistin tarvetta, koska malli pitää hallussa pidempiä token-sekvenssejä ja niiden välivaiheita inference-aikana. Tämä voi sisältää:
    -Attention-mekanismi: Transformer-mallien itsehuomio (self-attention) skaalautuu kvadraattisesti kontekstin pituuden kanssa (O(n²)), mikä voi lisätä muistikuormaa.
    -Pidemmät sekvenssit: CoT-tuotokset voivat olla 100–1000 tokenia pidempiä kuin suoraviivaiset vastaukset.

Esimerkiksi Llama 2 70B (140 GB parametreille) voi CoT:lla vaatia lisämuistia kontekstille, mutta tämä on yleensä pieni verrattuna parametrien kokoon – tyypillisesti 1–10 GB lisää riippuen sekvenssin pituudesta (esim. 4096 tokenia, 4 KB per token).
LPU:n muistirajoitukset

  • Muistikapasiteetti: LPU-kortilla on 32 GB DDR4-muistia, ja sirulla 230 MB SRAM:ia nopeaan pääsyyn. Tämä riittää pieniin malleihin (esim. 10B), mutta keskikokoiset (70B) ja suuret mallit (500B) vaativat klusterointia:
    -70B: ~5 korttia (140 GB / 32 GB).
    -500B: ~32 korttia (1000 GB / 32 GB).
  • Muistin käyttö CoT:ssa: LPU:n SRAM on optimoitu nopeaan tokenien prosessointiin, mutta DDR4 hoitaa parametrien säilytyksen. CoT:n lisäkonteksti mahtuu yleensä SRAM:iin pienissä erissä (batch size 1), koska LPU prosessoi sekventiaalisesti eikä pidä koko sekvenssiä muistissa kerralla samalla tavalla kuin GPU:n rinnakkaislaskenta.

Onko CoT liian raskas LPU:ille?

  • Ei parametrien osalta: LPU:n muistirajoitus ei liity CoT:hen sinänsä, vaan mallin kokoon. CoT ei lisää parametrien määrää, joten muistitarve pysyy samana kuin ilman CoT:ta – vain tokenien määrä kasvaa.
  • Kyllä kontekstin osalta, mutta hallittavissa: CoT:n pidemmät sekvenssit lisäävät kontekstimuistin tarvetta, mutta LPU:n determistinen arkkitehtuuri ja Groqin ohjelmistopino (compiler-driven) voivat optimoida muistinkäytön minimoimalla turhat välimuistitukset. Esimerkiksi Mixtral 8x7B (46 GB float16) toimii tehokkaasti yhdellä LPU-kortilla, ja CoT:n lisäkuorma (esim. 4 GB kontekstille) mahtuu 32 GB DDR4:ään.
  • Skaalautuvuus: Suurissa malleissa (esim. 500B) CoT voi lisätä klusterointitarvetta marginaalisesti (esim. 32 → 33 korttia), mutta tämä ei ole merkittävä ongelma, koska LPU:n nopeus kompensoi.

Onko CoT liian raskas LPU:ille?

  • Ei teknisesti: LPU:n muistirajoitus (32 GB/kortti) ei estä CoT:ta, koska lisäkonteksti on pieni verrattuna parametreihin, ja klusterointi ratkaisee ongelman suuremmissa malleissa. LPU:n nopeus (esim. 500 t/s Mixtralilla) ja energiatehokkuus (200 W) pitävät sen kilpailukykyisenä.
  • TCO-näkökulma: CoT:n lisätokenit lisäävät käyttöaikaa, mutta LPU:n alhainen kustannus per token (esim. 110x pienempi 10B-mallilla) ja energiansäästö (1/3 GPU:sta) tekevät siitä edullisemman, erityisesti pienissä ja keskikokoisissa malleissa.

Johtopäätös
Reasoning-mallit CoT:lla eivät ole liian raskaita LPU:ille, koska muistitarpeen kasvu on hallittavissa klusteroinnilla, ja LPU:n nopeus ja energiatehokkuus kompensoivat lisäkuormaa. LPU on edullisempi TCO:ssa:

  • 10B–70B: Selvä etu LPU:lle (esim. 1,3e-7 vs. 1,42e-6 $/token 10B:llä).
  • 500B: LPU voi olla kalliimpi alkukustannuksiltaan, mutta intensiivisessä käytössä se voittaa (2,09e-4 vs. 1,62e-4 $/token).

LPU on siis erinomainen valinta CoT-reasoning-malleille, erityisesti reaaliaikaisissa ja keskikokoisissa skenaarioissa – muisti ei ole rajoite, vaan LPU:n vahvuus korostuu entisestään.

2 tykkäystä

Kysymättä mallilta, mutta alalla olevana, näen mielenkiintoisena jokerina MoE mallit kuten Deepseek ( v3, r1 ). Ne vaativat suhteellisen paljon muistia ( haastava matalan muistin LPUilla kuten Groqin ) mutta taas muistikaistan käyttö on rajallista.

Tämän takia ne sopivat paremmin APU/GPU tai jopa erikoistuneeseen CPU ( jossa tanakka muistiväylä ) käyttöön.

Mikäli AMD saisi softapuolensa kuntoon luulen että tuolla sektorilla niillä olisi oikeasti annettavaa, Valitettavasti tähän mennessä ne ovat panostaneet vain rautaan. Silti heidän rautaansa käyttävät eräät isot pelaajat joilla on varaa omaan softakehitykseen firman oman kuran päälle.

Cerebras ja Groq ovat mielenkiintoisia firmoja mutta en usko että ne tulevat skaalautumaan riittävästi suhteessa jo nyky arvostuksensa ( Cerebras taitaa listautua tämä vuonna ). Olen toki ollut ennenkin väärässä.

3 tykkäystä

I/O fund keventänyt positiotaan 10%:iin. Supply chainista kuuluu, että isoimpien NVLink GB200 systeemien ramp up olisi ennakoitua hitaampaa

2 tykkäystä

50-seriesistä on muodostumassa Nvidian surkein uusi GPU-julkaisu sitten 20-seriesin. Ei vielä riitä, että tehokkuuden ja hinnan osalta koettiin valtava pettymys, mutta laadunhallinta vaikuttaa myös täysin epäonnistuneen:

https://videocardz.com/newz/first-geforce-rtx-5080-discovered-with-104-rops-8-missing-in-action

https://www.notebookcheck.net/GeForce-RTX-5090-drops-below-RTX-4090-in-high-end-graphics-card-benchmark-chart.966347.0.html

Oma Nvidian näytönohjainten omistushistoria menee 6600 GT → 8800 GT → 1080 Ti → 3090 joten osaan mielestäni ostajana arvioida, että milloin Nvidialta tulee huipputuote ja milloin täyttä kuraa. Jos pitäis arvioida näin näppituntumalta, niin laittasin 50-seriesin tierlistillä tuonne C tai D-tasolle. En oikeasti usko että kukaan järjellinen tai valistunut ihminen ostaa tän sukupolven Nvidian näyttistä, jos vaan on vaihtoehtoja :smiley:

Onneksi pelinäyttisten myynnillä ei ole käytännössä minkäänlaista vaikutusta yhtiön kurssiin, kun kaikki fyrkat ja tulevaisuuden kasvu tulee tekoälypuolelta.

4 tykkäystä

Tuo “benchmark chart” juttu lähinnä kertoo ko benchmarkin paskuudesta todella nopeiden grafiikkakorttien suorituskyvyn mittaukseen. Ihan oikeissa testeissä se 5090 on edelleen sen noin 30% nopeampi kuin 4090…

Mutta muut mainitsemasi jutut ovat ihan asiaa. Pahasti on NVIDIA tyrinyt tämän launchin. Toisaalta pelinäyttikset ovat vähän semmoinen sivuharrastus, ei vaikuta firman kurssiin mitenkään.

8 tykkäystä

io-techin Sampsa Kurrilta erinomaisen selkeä video Nvidian GeForce RTX 40- ja 50-sarjan näytönohjainpiirien suunnittelun kukkasista, jotka ovat mahdollisesti edesauttaneet virtaliittimien sulamistapauksissa.

3 tykkäystä

image

12 tykkäystä

https://x.com/LiveSquawk/status/1894860864488136969

image

Tärkein lopussa. Osinkovirta jatkuu vuolaana :upside_down_face: - osinkopuolue approves this.

Kuten ainakin itse odotin, katteissa se isoin paine, mutta noista kateprosenteista on hieman varaa tinkiä…

21 tykkäystä