NVIDIA - Mahdottoman mahdollistaja

Hyvä pointti. Näistä löytyy todella paljon eri variaatioita liittyen siihen, mistä softasta on kyse, jos/kun sitä pilvessä ajetaan. Jos yhtiön oma mission-critical softa ja data, niin kyllä sen osalta ollaan tarkkoja, missä data lopulta fyysisesti makaa ja kuka siitä huolehtii.

Jensenin yöllistä esitystä katsellessa tuli mieleen, että kuinkahan moni yritys tähän junaan lopulta on kykenevä lähtemään mukaan parin vuoden sisällä. Rahaa ja resursseja pitää olla älyttömästi kaiken nykyisen IT-softan ja -infran lisäksi. Mitäänhän tämä ei korvaa, vaan tuo vain uuden layerin. Enkä nyt puhu pelkästään chatboxeista, vaan näistä yrityskohtaisista neuroverkkototeutuksista.
Jo ihan tietokannan hallinnan osalta on mielenkiintoinen lautanen pöydällä, kun vektorikanta sisältää tokeneita ihan mielettömästi, jotka on sinne ajettu pitkän ja kalliin prosessoinnin lopputuloksena. Jos siellä esiintyy jokin virhe - on sitten syy mikä tahansa - tai datasta häviää jokin pätkä jonkin virheprosessin tuloksena, niin mitäs sitten? Haetaan backup, mutta jos se virhe on sielläkin jne.
Ehkä ajattelen liian vanhoilla aivoilla, mutta jotenkin tuntuu, että nahkatakkimiehen vauhti on kovempi kuin monen CTO:n ja CEO:n kyvykkyys pysyä tässä mukana.

FOMO:han aikaansaa sellaisen illuusion, että “jos ei heti satsata, hävitään kilpailijoille lopullisesti” siinä voidaan tehdä päätöksiä lopulta tietämättä, että mitä ollaan oikeasti saamassa.

8 tykkäystä

Jos sitä rahaa saadaan lemppaamalla väkeä ulos ja korvataan ne AI-boteilla, rahaa löytyy vaikka kuinka paljon. Beancounter-osasto melkeinpä kysyy että mitäs jos pistettäs muutama sata miljoonaa lisää jos vaikka sais vielä vähän lisää palkkakustannuksia leikattua tätä kautta?

Nahkatakkimies on myyntimies, ja kova sellainen, joten vauhti on päällä ja varmasti osa jutusta on vähän keulimista, mutta vahvasti alkaa näyttämään siltä että tässä on todellinen murroskausi edessä ja AI on muutakin kuin pieni hypejuna joka hyydähtää. Ja tällaisessa murrosvaiheessa usein uudelleenjaetaan kakkuja monessa paikassa. Jotkut ovat mukana ja pallon päällä ja vievät nallekarkit niiltä jotka eivät reagoi tarpeeksi nopeasti ja siinä vaiheessa kun homma näkyy viivan alla, voi olla myöhäistä reagoida…

11 tykkäystä

On mielenkiintoista nähdä, millaista tilastoa tämän suhteen alkaa syntyä. Tämähän se kulminaatio mittaville investoinneille lopulta on, eli saadaan ulos merkittävää mitattavaa kustannushyötyä. Tämä on tietysti myös se, johon koko homma voi lässähtää: jos on jo muutaman kerran laitettu miljarditolkulla rahaa pajatsoon ja silti ei saada kuin miljoonissa mitattavia hyötyjä takaisin, niin siinä voi alkaa käydä sitten kylmät investointibudjetille.

Niin kauan kuin tarpeeksi merkittäviä, ison mittaluokan näyttöjä ihmisten korvaamisesta AI-boteilla ei ole, niin tämä ajatus putoaa lähinnä R&D-fantasioiden kategoriaan. Ja sitä kautta tässä voi olla kuplan aineksia kasassa. Mutta se ei tarkoita tietysti sitä, etteikö lopulta merkittäviä muutoksia työelämään voisi tulla. Voi vaan olla, että (ehkä merkittäväkin?) osa muutoksista vie lopulta paljon enemmän aikaa kuin mitä monilla rahasäkin vartijoilla riittää hermoja.

Rautatiemania vei 1800-luvulla monen rahat, vaikka rautatie lopulta muuttikin asioita merkittävästi. Ja kyllä se internetkin muutti lopulta monenlaista ihan fundamentaalilla tavalla, mutta silti vuosituhannen vaihteessa vauhtisokeutta oli enemmän kuin tarpeeksi, kun .com -lappuja jonotettiin kuin leipää.

Ylipäätään (lähes) kaikkeen suuren mittaluokan tekniseen innovointiin tuntuu liittyvän usko siitä, että kehitys on nopeampaa kuin miten asiat sitten lopulta realisoituvat. Mielestäni tämä ongelma on lähinnä psykologista alkuperää ja liittyy siihen, että jokaisen on omassa mielessään helppo täydentää visio uudenlaisesta uljaasta tulevaisuudesta valmiiksi ilman, että kiinnittää huomiota niihin lukuisiin likaisiin teknisiin yksityiskohtiin ja epäselvyyksien viidakoihin, jotka lopulta sitten kuitenkin määräävät sen, miten pitkälle visio lentää millaisellakin panostuksella.

En yllättyisi, jos niin on tälläkin kertaa. Mutta toki tällä kertaa voi tietysti olla toisinkin.

6 tykkäystä

Mun mielestä keskustelun premissi on jo heti startissa pielessä, jos oletuksena on, että chatbotit, jotenkin laajemmassa mittakaavassa korvaisi ihmistyön. Väitän edelleen, ettei keskimääräinen firma ole hankkimassa Blackwell kaksatasta nurkkiinsa pyörimään, jolla pyöritetään omia AI-palveluita.

Sen sijaan se, mitä tapahtuu on, että kielimallit sulautuu osaksi yritys- (ja toki myös kuluttaja)softaa. Ja tämä tapahtuu jo nyt: ERPpeihin on tullut LLM-komentoliittymä (mm. D365 Copilot ja SAPin Joule), Salesforceen Einstein-tekoäly, ServiceNowhun NowAssist, Office-ohjelmistoihin MS Copilot jne.

AI muuhun softaan sulautuneena on se keskeinen tapa, jolla yritykset tehostaa toimintaansa AI:n avulla nyt lähitulevaisuudessa. Ja voin kertoa kokemuksesta, että näillä AI-ratkaisuilla on aivan helvetin iso painoarvo isojen järjestelmien investointipäätöksissä. Eli logiikka on ihan sama kuin pilven kanssa viime vuosikymmenellä - hyvin monella pilvisiirtymä alkoi alkeellisilla pilvestä hostatuilla SaaS-ratkaisuilla. Jotkut innovatiivisimmat yritykset toki tuovat tekoälyä lähemmäs asiakasrajapintaa - aivan kuten innovatiivisimmat veivät koko infransa pilveen heti 2010-alkupuolella - mutta nämä ovat vähemmistönä.

Ja tämä malli todistetusti tahkoaa rahaa softatoimittajille jo nyt ja näillä yhtiöillä on kyllä myös riittävän syvät taskut ja kannustimet investoida B-kaksatasiin, kun AI-lisenssiosan myynti vain kiihtyy.

8 tykkäystä

Mitäs täällä ketjussa tuumataan kilpailijoista; onko NViDIAn pysäyttäjää? Sam Antman ja Meta tilaavat varmaankin nyt niin paljon, että NVIDIAn paisuva kassa mahdollistaa aggressiivisetkin operaatiot kilpailijoiden suhteen. Ja toisaalta - onko kilpailijoilla verkostoja tuoda jotain uutta pöytään, joka saisi NVIDIAn pasmat sekaisin? Puhuuko kilpailijat näistä physical AI asioista, eli itseoppivat robotit, itseajavat autot jne.NVIDIAhan voi simuloida teollisia prosesseja, se voi simuloida niihin itseoppivat robotit ja sitten myydä robottitehtaan tai tehtaan täynnä robotteja - avaimet käteen kiinteällä hinnalla tietenkin koska kaikki on simuloitu ja siten varmistettu. Muista siruvalmistajista ei nyt tunnu olevan haastajaksi, mutta käsitykseni ehkä johtuu vaan siitä, että en niitä riittävästi seuraa. Amazon tuntuu myös edistykselliseltä yhtiöltä, joka myös etenee Physical AI saralla. Ehkäpä NVIDIAn ja Amazonin robottiduunarit ovat sitten toistensa kilpailijoita ja Amazonista tulee NVIDIAn katteen kaventaja?

6 tykkäystä

Kun puhutaan robottiduunareista, itselleni tulee aina mieleen Boston Dynamics (nykyään kai Hyundai Motor Groupin omistama).

Heidän R&D-humanoidirobottinsa liikkuminen on ollut aika hauskan näköistä katsottavaa jo useamman vuoden ajan. Alla pari pätkää tähän liittyen:

Tässä yksi “yleiskäyttöinen” tuotteistettu robotti, pari videota aiheeseen liittyen:

6 tykkäystä

On kyllä hauskannäköistä robottimenoa. Hyvät videot!

2 tykkäystä

GTC:n analyytikko Q&A kannattaa katsoa - Nahkatakin intohimoisuus on kyllä saavuttanut aivan uusia sfäärejä :slight_smile: GTC Financial Analyst Q&A - March 2024

Sen jälkeen kannattaa käydä kurkkaamassa Nvidian uusi NIM-palvelu. Käsittääkseni siis tarjoavat yrityksille omasta DGX-pilvestä suoraan pääsyn kaikkiin keskeisiin tekoälymalleihin recurring revenue -mallilla. Mahdollistaa ilman isoja etukenoon tapahtuvia capex-investointeja eksperimentoinnin näiden mallien kanssa GPU-kiihdytyksellä esim. yrityksen omalla datalla.

Tuolla pääsee ilmaiseksi koittamaan toimintaa joko suoraan selaimesta tai jos on python taitoja niin ilmaiseksi voi tehdä 1000 promptia.

https://build.nvidia.com/explore/discover

6 tykkäystä

Nahkatakkimiehen kateprosentit aiheuttavat närää?

https://twitter.com/RedboxWire/status/1772217252659581174

image

https://uxlfoundation.org/

Our mission:

  • Build a multi-architecture multi-vendor software ecosystem for all accelerators.
  • Unify the heterogeneous compute ecosystem around open standards.
  • Build on and expand open-source projects for accelerated computing.

Näyttäisi operaatiolta CUDA-hegemoniaa vastaan. Ei siis oikeastaan pitäisi vaikuttaa hardisbisneksiin suoraan, mutta voi tietenkin hankaloittaa nykyisentasoisen katteen repimistä jos asiakkat eivät ole sidottu CUDA-pohjaisiin softiin samalla kun kilpailijat panostavat rautakehitykseen.

Pohjaa oneAPI:iin joka on lähtöisin Inteliltä.

https://www.intel.com/content/www/us/en/developer/tools/oneapi/overview.html

…joka oikeastaan kertoo mikä tässä on takana. Intelin osuus AI-kiihdytinmarkkinoista on tasoa “mikä markkinaosuus? Missä? Promilleja” ja tämä tietenkin on ikävää Intelin johdon ja osakkeenomistajien mielestä.

Kunnes toisin todistetaan, tämä lienee se todennäköinen lopputulos, taas kerran:

image

12 tykkäystä

Mä en suoraan sanottuna ymmärrä, miksi kilpailijat eivät vain laita kaikkia resursseja ROCm/OpenCL kehitykseen ja PyTorchin pyörittämiseen ko. arkkitehtuureilla. Miksi säätää jotain uusia avoimia systeemejä, kun valmiit on jo olemassa? Tällä tavoin voitaisiin saada mutulla 95% datatieteilijöistä täysin indifferenteiksi alla olevan GPU:n suhteen. Nyt säädetään ties minkälaista proggista saturoituneilla resursseilla samalla, kun Nvidia vain kasvattaa jäätävällä osaamiskeskittymällään etumatkaa.

1 tykkäys

No siis tämän uuden keitoksen pohjana on alla ymmärtääkseni OpenCL, mutta kai tässä on ideana helpottaa sovelluskehittäjien elämää pinoamalla päälle kasa tavaraa joka korvaisi vastaavaa NVIDIAn tarjoamaa tavaraa.

1 tykkäys

Eihän näistä asioista aina tiedä, mutta minä otan sen kannan, että nyt on käynnissä sirutoimialalla se kuuluisa sekulaarinen trendi. NVIDIAn Blackwellit ovat vielä perus bulkkia, ja pikkuhiljaa toimialakohtaiset ratkaisut valtaavat alaa.
image

Beth Kindig X:ssä: “The AI chip market size is forecasted to grow at a CAGR of 29% through 2032 driven by the rising adoption of artificial intelligence across various industries, coupled with the growing demand for high-bandwidth memory, rapid computation, and parallel processing capabilities.… https://t.co/t6DNAfSmQU” / X (twitter.com)

8 tykkäystä

Mä en kyllä usko, että alla oleva laskentarauta muuttuu mitenkään toimialakohtaiseksi eikä tuossa mielestäni sitä tarkoiteta.

Sen sijaan sovellukset voivat sellaiseksi hyvinkin muuttua. Ainakin vielä tekoäly on sitä käyttökelpoisempi, mitä kapeampi ratkaistava ongelma - myös jopa LLMien osalta.

Pikemminkin blackwelleillä yms. tuotettava laskenta on muuttumassa samanlaiseksi yleishyödylliseksi commodityksi kuin sähkö ainakin jos Huangiin tai vaikkapa Altmaniin on uskomista.

Tuo ennustekäyrä on myös ihmeellisen matala. Eikö projektiot pelkästään Nvidian osalta ole jo kuluvalle vuodelle siellä jossain $100B nurkilla? AMD:n Su ennusti joulukuussa $300B TAMia 2027 mennessä.

4 tykkäystä

Niin, Beth osaisi kertoa enemmän jos siltä kysyisi. Mutta pääteema on tuo trendi, joka tietysti voi sisältää minisyklejä, minitaantumia, kuten oli 2022. Eteen tulevia minisyklejä on hankala treidata, kuten oli 2021 - 2022. Ehkäpä tässä puhun itselleni, että hold tight :slight_smile:

4 tykkäystä

Riippuu siitä, miten kapeaksi “toimialan” määrittää. Mielestäni tässä voi kuitenkin olla yhdenlainen selkeä mahdollisuus skaalata rautaa reilusti tehokkaampaan suuntaan.

Esimerkiksi NVidia tarjoilee Blackwellien kanssa tensor coreilla laskettavaksi niin erilaisia formaatteja aina FP4-FP64 asti. Ainakin FP32:lle taitaa olla ilmoitetuista nopeuksista päätellen kokonaan HW-tuettu laskenta, FP64 mahdollisesti jollain tapaa emuloitu, koska se on niin reilusti FP32:ta hitaampi. Ja tensor coreilla siis saadaan tehtyä rinnakkaisia kertolaskuja ja yhteenlaskuja nopeasti matriisilaskennan hengessä.

Mitä jos esim. kävisi niin, että pelkästään FP4 riittäisi lopulta hyödyllisimpien neuroverkkojen inferenceen? Ja jos AI tulee “joka puolelle” käyttöön, niin tällöin varmastikin inferencen suhteellinen osuus laskentakuormasta alkaisi kasvaa reilusti. Tällöin esim. Blackwellien monimutkaiset tensor-coret olisi redusoitavissa pelkästään FP4 -tuen omaaviksi, jolloin rauta olisi selvästi yksinkertaisempaa (vähemmän transistoreja) tai sitä voisi vaihtoehtoisesti samalla piilastulla huomattavasti enemmän.

Tai sitten tämä vaihtoehto, jota itsekin spekuloit toisessa ketjussa:

Tuollaisten ternary bittien käyttö tekisi vielä edelleen HW-vaatimuksista yksinkertaisemmat, jos ei tarvitsisi tukea geneerisiä tensor coreja ollenkaan. Eli jos tuo osoittautuisi toimivaksi ratkaisuksi, niin tavalliset tensor coret voisi raapaista kokonaan pois ja tilalle saisi moninkertaisen määrän yksinkertaisia operaatioita tekeviä ternary bittien tensor coreja.

Samalla voisi tietysti dropata pois kaikkea muuta tarpeetonta monimutkaisuutta raudasta, jos sillä on tarkoitus ajaa lähinnä noita yhdenlaisia operaatioita. Blackwell soveltuu edelleen kuitenkin varsin geneeriseen laskentaan, mikä voi jossain tilanteissa olla hyvä, mutta jos sitä käytetään hyvin paljon vain yhteen tarkoitukseen, niin se on ehkä tarpeettoman monimutkainen työväline siihen. Yhden tarkoituksen laskimen voisi siis rakentaa halvemmalla, yksinkertaisemmin ja paremmilla yieldeillä.

Jos oikein villisti visioi, niin voisiko esim. inferenceen sopivan raudan rakentaa kokonaan eri näkökulmasta kuin geneerisen laskimen? Noissa Blackwellin kahdessa chipissä on kuitenkin yli 200 miljardia transistoria, eli massiivinen kompleksisuus on kyseessä ja vaan yhtä operaatiota tehdessä siitä kompleksisuudesta suurin osa menee hukkaan.

Jos esim. käytettäisiin ternary bittejä, niin voisiko olla järkevää rakentaa rauta niin, että se laskee esim. rinnakkain neuroverkkomallin yhden layerin operaatiot samanaikaisesti (tai vain parissa erillisessä osassa) ja sitten layerit peräkkäin. Tähän voisi integroida muistin / välimuistit sillä tavalla sopivasti, että kerroindata ja edellisen layerin inputit olisivat optimaalisesti haettavissa layerien välissä. Tuolla raudalla ei sitten paljon muuta tehtäisi, mutta se olisi todennäköisesti äärimmäisen tehokas niin suorituskyvyn kuin sähkön kulutuksenkin osalta juuri tuossa yksittäisessä operaatiossa. Ja todennäköisesti se olisi myös huomattavasti yksinkertaisempi suunnitella ja halvempi valmistaa kuin monimutkaisempia operaatioita tekevä, transistorimäärältään paljon isompi chippi.

Tällä tavalla toteutettu ratkaisu ei välttämättä vaatisi mitään sen kummempaa ohjelmoitavuutta nykyisten GPU:den tyyliin (vrt. esim. GPU:lla suoritettavat ohjelmakoodi) vaan toiminta voisi olla varsin pitkälle hardkoodattua ja kaikki HW-optimoinnit voisi suunnitella sen ympärille. Tuo olisi enemmänkin jonkinlainen “signaaliprosessoritoteutus” kuin geneerinen laskin. Syötedata ja neuroverkon kerroindata vaihtuisivat, mutta operaatiot olisivat paljolti fiksattuja ja parametroitavissa ainoastaan esim. verkon topologian parametrien kautta (layereiden määrä, nodejen määrä layereissä tms.).

Tuo voi olla edessä sitten, kun tarkemmin tiedetään, millaisia ratkaisuita tullaan tarvitsemaan. Ja se voi tarjoilla ehkä mahdollisuuden joillekin kammeta NVidia ainakin osin pois jakkaralta, jos löytyy sopivia yksinkertaisia ja käytännöllisiä “sovelluskohtaisia” ratkaisuita.

Vastaavaa optimointia voisi olla tehtävissä myös neuroverkkojen opetusta ajatellen. NVidia myy nyt kuitenkin AI-käyttöön sveitsiläistä linkkuveistä, josta sitten monessa AI-käytössä ehkä lopulta tarvitaan vain korkkiruuvia ja hammastikkua. Erillinen korkkiruuvi ja hammastikku voisivat olla sekä halvemmat toteuttaa että tehokkaammat käytössä.

6 tykkäystä

OpenAI + Microsoft investoivat $100B AI-datacenteriin. Nvidiaa ei ole mainittu eikä tietenkään koko satanen mene chippeihin, mutta aika isolla todennäköisyydellä iso siivu tuosta menee Nvidian yläriville. Vaikea on kuvitella, että tuonne lähdettäisiin hankkimaan jotain muuta kuin parasta laskentarautaa, jota tältä planeetalta löytyy. Aika makoisa uutinen mielestäni siis Nvidian omistajille: https://www.hs.fi/talous/art-2000010327896.html

Edit: Tom’s Hardware raportoi aika paljon pessimistisemmin Nvidian suhteen tästä projektista:

“It sounds like the companies are also potentially using this phase of design to move away from reliance on Nvidia. The report claims that OpenAI wants to avoid using Nvidia’s InfiniBand cables in Stargate, even though Microsoft uses them in current projects. OpenAI claims it would rather use Ethernet cables.”

9 tykkäystä

Ovat nämä aika uskomattomia uutisia. Mutta samalla puolijohdevalmistusta pitää lisätä USAssa. Arvelen, että tänään n. 90% puolijohteista tehdään Taiwanissa, ja Kiinariski on iso. Jenkit ei kyllä lähde tuohon investointiohjelmaan ilman Intelin uusimpia USA:n puolijohdetehtaita, tai ainakin lupaus tuotannosta USAssa muutaman vuoden päästä pitää olla. Nyt jos olisin Taiwan Semiconductor Manufacturing Company -sijoittaja, hajauttaisin Inteliin. Mutta tää oli mutu pohdintaa, paitsi uskon vahvasti, että tuo Taiwan keskittymä tulee purkautumaan.

Sitten vielä itse uutisesta. Ajattelen samalla tavoin kuin @Roope_K . NVIDIA on keskiössä. Hanke on niin iso, että hankeen aikana varmasti syntyy uusia innovaatioita, ja NVIDIAn kirittäjätkin saavat rooleja. Tämä uutinen kyllä pehmentää sijoittajien käsitystä NVIDIAn syklisyydestä, ja säädän myöskin omaa käsitystäni. Voi olla, että nämä sekulaarisen trendin uutiset ja investoinnit pienentävät lyhyen aikavälin syklien syvyytä, mutta tietysti sekulaarinen trendikin joskus kääntyy. Mutta lähiajat mennään aika haipakkaa.

7 tykkäystä

Hyvä twiittiketju Nvidian CEO:sta. Lukeminen kestää :coffee: verran. Kaverin ajatuksia voisi käyttää Suomalaisessa yrityskentässä enemmänkin. Varmaan se jotakin tietää, kun on luonut Nvidiasta maailman kolmanneksi arvokkaimman yhtiön?

“I have low expectations” - Jensen Huang

https://x.com/seanpk/status/1776619706776199206

6 tykkäystä

Salkunhoitaja Juuso Kenkkilä oli Alexandra Huhtan haastattelussa. Teemana oli seitsikko ja Kenkkilä hehkutti näistä eniten Nvidiaa.

Luettava osuus on lyhyt, mutta linkin takaa löytyy noin 12,5 minuutin haastattelu, joka ei ole maksumuurin takana. :slight_smile:

6 tykkäystä

Ei varmaan yllättävää tarkemmin yhtiötä seuranneille, mutta ihan kiinnostava tviitti varmaan useimmille. :slight_smile:

https://twitter.com/Beth_Kindig/status/1779513507605561772

6 tykkäystä