ChatGPT, muut kielimallit ja tekoäly

Kirjoitin (sanasta sanaan): “AI:n kehitysvauhti on nyt todella kova. Teknologiassa ei olla otettu erityisiä harppauksia, mutta sen hyödyntämisessä sitäkin enemmän.”

… ja se oli mielestäsi jotenkin vastaväitteen arvoinen, jota en ymmärrä.

Väitettäsi siitä, että arkkitehtuurin ja algoritmiikan ei tarvitse välttämättä muuttua vuosikymmeniin on sen sijaan vaikea ymmärtää. Kehitys voi nykyalustallakin olla huimaa, kuten se nyt on, mutta kehitys kohti yleistä tekoälyvä vaatii kehitystä myös siltä. Niitä harppauksia. Silloin Juurikkiakaan ei enää sekoiteta Arto Paasilinnan jäniksiin.

Vaikka transformer-arkkitehtuuri ja sen algoritmiikka ovat osoittautuneet erittäin tehokkaiksi NLP:ssä, ei voi sanoa varmuudella, miten kehitys tulee jatkumaan pitkällä aikavälillä. Transformer-arkkitehtuuri ja siihen perustuva algoritmiikka ovat tällä hetkellä vallitsevia NLP:n paradigmoja, mutta teknologia kehittyy jatkuvasti, ja tulevaisuudessa voi syntyä uusia menetelmiä ja lähestymistapoja, jotka voivat muokata AI:n kehitystä. Näiden teknologioiden muutosnopeutta ei voi kuvata nopeaksi eikä niissä olla otettu harppauksia johonkin entistä parempaan. Nyt kun rahaa tulee kehitykseen ovista ja ikkunoista – tulevaisuudessa saattaa syntyä uusia kehityssuuntia ja innovaatioita, jotka voivat haastaa tai täydentää transformer-arkkitehtuuria.

2 tykkäystä

Niin siis pointti oli ja on edelleen, että jos harppaukseksi katsoo vain alla olevaa arkkitehtuuria tai vastaavia paradigmamuutoksia, mitään kehitystä ei ole tapahtunut sitten vuoden 2017 jälkeen, jolloin arkkitehtuuri ja GPT:t keksittiin. Tämä oli pointtini myös TCP/IP-rinnastuksessa. Nythän GPT:n “kehitys” on ollut lähinnä isompi opetusdata ja massoille suunnattu käyttöliittymä, jos soveltaa sun melko nihilististä kehityskäsitystä.

Kuitenkin fakta on se, että kehitystä on tullut ihan viimeaikoina myös yllä antamaasi esimerkkiin. Tutkijat ovat kyenneet parantamaan tarkkuutta mm. uusien RLHF-menetelmien ja Chinchilla-lakien soveltamisen avulla. Samoin esim. LlaMa-johdannaiset voidaan räätälöidä LoRa-lla ja vastaavilla menetelmillä hyvin pienellä vaivalla tuottamaan tekstiä spesifisti Arto Paasilinnan teoksilla fine-tunattuna ja MS:hän yhdistää reaaliaikaisen internet-lähteistyksen GPT-4:ään Bingissä, jolloin ylläkuvattuja virheitä ei enää synny.

1 tykkäys

TCP/IP-protokolla, joka on käytännössä viestintäjärjestelmä, on melko yksinkertainen. Sen sijaan neuroverkot eivät ole kovin yksinkertaisia. TCP/IP:n kehitys käynnistyi muistaakseni 1970-luvulla eikä sen perusajatus ole muuttunut miksikään. Lisäyksiä protokollaan on tullut vaikkapa laadunvalvonnan (QoS), mobiilin ja tietoturvan puolelta. Sen sijaan sitä hyödyntävät käyttöjärjestelmät ja etenkin sovellukset ovat kokeneet mullistuksia toisensa perään, aivan kuten softakehitys AI:n ympärillä juuri nyt. Jos jotain vertailua pitäisi tehdä AI:n ja perinteisen tietoteknisen kehityksen välillä vertailisin AI:n teknologista kehitystä vaikkapa juuri käyttöjärjestelmiin, joista on tullut vuosikymmenten saatossa päivityksiä n. 1-10 vuoden välein. Käyttöjärjestelmiä hyödyntävät sovellukset voivat muuttua vaikka jopa viikko, kuten AI-kehitys tällä hetkellä tekee.

Itse oletan, että näemme myös mainitsemaani alustakehitystä (paremman termin puutteessa) eli teknologista kehitystä itse transformer-arkkitehtuurissa. Tämä voi tarkoittaa myös täysin uusia innovaatioita, kuten totesin. Teknologisia harppauksia on luvassa myös esim. rautapuolella, jossa rauta on ns. kuumaa juuri nyt. Tällaista teknologista kehitystä ei tapahdu puolessa vuodessa. Toivottavasti tämä vihdoin avasi, mitä kommentillani teknologisesta kehityksestä tarkoitin. Kuulisin sinulta mielelläni lisää näkemyksiä teknologian kehittymisestä jatkossakin, sillä tunnut olevan aiheesta erinomaisesti perillä. Turha haaskata aikaa tällaiseen jauhamiseen.

4 tykkäystä

Kyllä mä yritän kommentoida tänne aina kun ehdin. Kuten sanoin, työn puolesta on pakko yrittää pysyä perässä, vaikka tuntuu ettei aika riitä mitenkään, ja Huggingfacea tulee tankattua käytännössä joka päivä.

Suosittelen muillekin, jos haluaa pysyä oikeasti tässä kehityskulussa syvällä mukana.

6 tykkäystä

Taas muuttui AI-jain mieli, kun suomeksi kysyi.

“Arto Paasilinnan romaanissa “Jäniksen vuosi” ja sen perusteella tehdystä elokuvasta ei ole tarkkaa tietoa siitä, mikä on jäniksen nimi. Teoksessa jänis on päähenkilön kumppani ja seikkailujen kohde, mutta nimen antaminen jänikselle ei ole osa tarinan juonta. Elokuvaversioissa jäniksen nimi ei yleensä ole mainittu, vaan se jää nimettömäksi hahmoksi.”

Ihan sama, jos teoksen päähenkilön eli jäniksen nimi ei olisikaan Juurikki, kunhan Juurikki saa olla myös söpö pikku pupu, niin mielikuvitushahmon lievä eksistentiaalinen ahdistus ei muutu kosmiseksi deprikseksi. :rabbit: :carrot:

Selvittämättä jää, miten AI-jai alunperin yhdisti Juurikin nimen ja fiktion nimettömän jäniksen. Olisiko se luovuutta? Suunniteltua luovuutta? Itämaista kohteliaisuutta? Parempi kysellä suomalaisista jutuista englanniksi, niin saa hauskempia vastauksia. Vähän tosikolta vaikuttaa tämä suomenkielinen AI-jai.

2 tykkäystä

Tässä on järkeä:”the degree of memorization is tied to the frequency with which passages of those books appear on the web”. Toimii kuten ihmisen mieli, mitä useammin jonkun jutun kuulee tai lukee sitä helpommin sen voi toistaa. Mulla on päässä lukuisia leffojen repliikkejä jotka tulee ulkomuistista, kun olen nähnyt ne liian monta kertaa.

Samaa mieltä tästäkin: ” we show that models perform much better on memorized books than on non-memorized books for downstream tasks. We argue that this supports a case for open models whose training data is known.” Eli asiat jotka malli on nähnyt vaikuttaa sen suoritukseen myöhemmin. Ja kyllä training aineisto pitää avata ja kertoa mitä malli on nähnyt ja mitä ei.

Toisen artikkelin kohdalla tuli vahva olo että tulokset oli päätetty etukäteen. Reuse sana oli lainausmerkeissä. Mutta plagiarism ei ollut lainausmerkeissä vaikka plagiarism oli jo laajennetu ideoihin. Ihmisenkään ajattelussa on aika vaikea syyttää idean plagioinnista. Monesti kuvittelen saavani uniikin idean johonkin ongelmaan, mutta kun hetken seurustelen google scholarin kanssa tajuan että joku on julkaissut tämän jo 20v sitten. Jos julkaisen ideani ilman viitteitä ei se ole plagiointia vaan huonosti tehty prior work osuus.

3 tykkäystä

Laitoin ChatGPT:n tekemään yhteenvedon OmaSäästöpankin laajasta raportista käyttäen AskyourPDF plug inniä. Alla tuloksia, ei mahtunut koko tiivistelmä yhteen kuvakaappaukseen. Onko foorumilaisilla kokemuksia onnistuuko jo ChatGPT:ltä tätäkin pidemmälle viety yritysten ja osakkeen arvostuksen ja potentiaalin arviointi?

6 tykkäystä

Ehkä tuossa vanhemmassa artikkelissa käytetty terminologia oli valikoitunut arvolatautuneeksi tutkimuksen lähtökohdan ollessa ainakin osin kielimallien käytön eettiset ja sosiaaliset vaikutukset. Artikkeli löytyi myös arcxiv.orgista josta pääsee suoraan artikkelin koko sisältöön, ja johdannossa lähtökohta tuotiin esiin näin:

Concerning the fast-growing adoption of language technologies, it
is important to educate citizens and practitioners about the potential
ethical, social, and privacy harms of these LMs, as well as strategies
and techniques for preventing LMs from adversely impacting people.

Ja termi “plagiarism” tuli mukaan tässä kohdassa (korostukset alkuperäiset):

Note that over-memorization can be perceived as a threat to the
authorship and originality of training instances, as training sets for
LMs are routinely downloaded from the Internet without the ex-
plicit approval of content owners [9 ]. This behavior is known as
plagiarism–i.e., the act of exploiting another person’s work or idea
without referencing the individual as its author [4]

Olet sikäli kyllä ihan oikeassa, että tuossa on arvojen kautta ladattu lähestymiskulma otettu. Ja tämä näyttää johtaneen siihen, että myös merkitykseltään sama teksti saa plagioinnin leiman. Tieteellisessä kirjoittamisessa asia tietysti on aikalailla näin, koska jos et kerro lähdettä, oletusarvo on että kyse olisi oman tutkimuksesi tuloksesta (ja kukaan ulkopuolinen ei voi tietää teitkö sen tahallasi vai koska et penkonut tarpeeksi aiempia julkaisuja), mutta tuon kontekstin ulkopuolella plagioinnilla yleensä tarkoitetaan vähän räikeämpää kopiointia.Tietosanakirjoissakaan (silloin kun niitä vielä paperille painettiin) ei ole ollut massiivista lähdeluetteloa, mutta voi olettaa kuitenkin ettei materiaali ole kirjan toimittajien oman tutkimustyön tulosta vaan nimenomaan perustuu eri tieteenalojen sillä hetkellä faktoina pidettyihin asioihin.

Edit: Kuten edelläkin sanoin: Jos LLM viittaisi lähteisiin joista on jonkun tiedon oppinut, tässä ei olisi ongelmaa ehkä lainsäätäjän näkökulmasta, ehkä ei edes tekijänoikeuksien puolustajankaan. Itse näkisin että varsinkin sanasta sanaan -tyyppisessä lähteestä kopioinnissa voi tulla ongelmia myös yksityisyyteen liittyen, mutta ko. artikkelin kirjoittajat näkevät ongelmia myös lähteen tekstin uudelleen muotoilussa:

Our qualitative examination of
plagiarized texts reveals that LMs expose individuals’ sensitive or
private data not only through verbatim plagiarism but also para-
phrase and idea plagiarism. Although all identified contents were
publicly available on the Web, emitting such sensitive information
in the generated texts can raise a serious concern.

Yksityisyyden suoja oletettavasti julkisesti saatavilla olevan tiedon toistamisessa on tietty jo aika hähmäistä, koska voisi kuitenkin olettaa että tietovuotojen tms. seurauksena yksityiseksi tarkoitetun tiedon julkiseksi päätyminen on aika pieni osa, ellei kielimallia kouluteta dark webin sisällön avulla… Toisaalta doksaaminen on kohteelleen haitallista vaikka siinä olisikin käytetty pelkästään julkisesti saatavilla olevaa aineistoa, tai siitä pääteltävissä olevaa tietoa.
Toistaiseksi yksytyisyydensuoja ei vailä taida olla noussut niin paljon esiin AI:n rajoittamiseen tähtäävässä lainsäätäjien tasolla käytävässä keskustelussa kuin esim. nuo tekijänoikeudet, mutta aktivistit pitävät aihetta kyllä esillä.

3 tykkäystä
5 tykkäystä

Tämä aiheuttaa myös GPT:ssä virheitä overfittingin takia. Asiaa voi testata esim. kaali, lammas, susi -arvoituksella. Jos vaihtaa arvoituksen parametrit perinteisestä arvoituksesta siten, että susi syö kaalin ja lammas suden, GPT tarjoaa silti arvoituksen vastaukseksi ratkaisuksi “ulkoaopitun” vastauksen, jossa susi jää kaalin kanssa rannalle ja itsepintaisesti ei suostu tarjoamaan muuta ratkaisua, vaikka kuinka pyytäisi.

8 tykkäystä

Nyt aletaan olemaan mielestäni lähellä sitä hetkeä, kun GPT-mallit tulevat jokaisen toimistotyöläisen päivittäiseen tekemiseen. Microsoft introsi tosiaan Windows copilotin toissa viikolla. Omasta mielestä intro oli aika raakile vielä ja esim. tiedostojen muokkaukseen liittyvät tietoturva-asiat varmaan estää laajemman käytön.

Adoben Firefly-julkaisu Creative Cloudiin / Photoshoppiin, jolla on se joku 30 miljoonaa käyttäjää olikin sitten tajunnan räjäyttävä. Jokainen joka on joskus tuskaillut photarin kanssa varmaan ymmärtää, miten käsittämättömän uskomatonta jälkeä AI-saa tässä aikaan:

Metalta tuli just paperi, jossa kerrotaan uudesta keksinnöstä, joka mahdollistaa miljoonan tavun sekvenssien luonnin ns. patcheina (kun nyt pituusrajoitteita / hitautta aiheuttaa ns. tokenisointi): [2305.07185] MEGABYTE: Predicting Million-byte Sequences with Multiscale Transformers. Tuo tulee olemaan mullistava, kun joskus ko. arkkitehtuurimuutoksella treenattu malli tulee ulos.

13 tykkäystä

Huomenta kaikille! Tarkastelin tänään tekoälyn kansantaloudellisia vaikutuksia makrokatsauksessa. AI voi tuoda onnistuessaan talouteen tuottavuusloikan, joka ratkoo työmarkkinan jännitteitä ja saattaa pelastaa maailmantalouden stagflatoriselta sykliltä.

24 tykkäystä

Kiitos kun pohdit näitä asioita “ääneen”. Mielenkiintoista nähdä miten AI tulee vaikuttamaan talouteen ja työmarkkinoihin.
Luin tämän ja olen kuunnellut noita podeja/talouden jäljiltä aiheesta.
Aika selvää on, että AI-sovelluksilla on mahdollista saavuttaa tuottavuusloikkia. Lähes kaikessa tietotyössä hommia voi parantaa ja nopeuttaa tällaisilla työkaluilla. Osaltaan tulee varmasti syntymään täysin uutta työtä ja osaltaan tulee vapautumaan resursseja hyödyllisempiin tehtäviin. Itse olen kuitenkin hämmentynyt kuinka optimistisin lasein tässäkin artikkelissa katsotaan työmarkkinoiden tulevaisuutta.

“The investment bank estimates 300 million jobs could be lost or diminished”

Kuvitellaan täysin esimerkinomaisesti ToimistotyöpaikkaA, jossa on 100 toimistotyöntekijää. ChatGPT-X julkaistaan ja se hoitaa jatkossa 50 % ToimistotyöpaikkaA:ssa tehtävistä suoritteista. Näissä artikkeleissa näyttää olevan oletus, että jatkossa ToimistotyöpaikkaA tai sen työntekijät keksivät vapautuneelle työajalle hyötykäyttöä ja samat 100 työntekijää pidetään yhtiön palkkalistoilla. Itse näkisin paljon kyynisemmin, että heti kun ToimistityöpaikkaA saa työt rullaamaan ChatGPT-X:n kanssa, niin yhtiö irtisanoo 40 hitainta työntekijäänsä.

Eihän siinä kansantalouden kannalta ole mitään ongelmaa. Parhaat työntekijät jäävät yritykseen ja heille jää paremmat työkalut ja enemmän aikaa tehdä tärkeämpiä tehtäviä. Eihän kukaan enää itke senkään perään, että traktori hoitaa maataloudessa fyysisen työn ja ihmiset ovat siirtyneet muualle. Ongelma siittä saatta silti tulla, jos paljon rutiinityötä katoaa yhdessä rysäyksessä. Niihin AI:n luomiin superkoodariFullStackAIDeveloper-tehtäviin pystyy vain harva ja loput jäävät sitten miettimään, että onko se oma tulevaisuus kortistossa vai matalan tuottavuuden fyysisissä töissä.

Ps hieno homma, että FIN löytyy tuolta global AI leaders-taulukosta :finland:

7 tykkäystä

On totta että AI mahdollistaa tuottavuuden kasvua. Mutta voisiko olla yhtälailla mahdollista että AI johtaa tuottavuuden laskuun?

Tuolla tarkoitan AI:n käytön johtavan paljon myös monenlaiseen hupikäyttöön työajalla ja/tai erilaista materiaalia syntyy AI:n avulla suuria määriä, jolloin suurempi osa työajasta kuluu yrittää saada tolkkua mikä informaatio on relevanttia. Toki AI voi avuksi tuohon kasvaneen tietovuon setvimiseen, mutta kun se on myös käyttäjälle mustalaatikko ja siten saattaa vaatia aikaa saadun tiedon oikeellisuuden verifioimiseen.

1 tykkäys

Moikka!

Kiitos, että linkitit tuon Goldman Sachsin ennustetta käsittelevän artikkelin. Vastasin samaa uutista käsittelevään kysymykseen äskettäin Inderesin Q&A-palstalla ja kuten vastauksesta näkyy, tuo menetettävien tai muutoksen alla olevien työpaikkojen määrä on Yhdysvaltain populaation verran, eli mittakaava on todella suuri. Aivan tällaisiin lukuihin tuskin päästään. Lisäksi suorittavassa työssä korvaavia paikkoja voi löytyä esim. palvelualalta, jossa työvoimapula on suuri ja edelleen tarvitaan ihmiskäsiä.

2 tykkäystä

Ihan hyvää pohdintaa makrotalouden näkökulmasta.

Mua jäi vähän vaan häiritsemään se, miten suurista kielimalleista tehdään synonyymi AI:lle. Tekoälyn kehitys ei ole todellakaan ole tapahtunut “viimeisten kuukausien aikana”. Tekoälyn kehitys ei myöskään ole “alkutekijöissään”. Se mitä nyt on ennen kaikkea tapahtunut, on tekoälyn popularisoituminen, jonka myötä on viimein kyetty havaitsemaan ne lukemattomat käyttötapaukset, jotka tekoäly pystyy tekemään tehokkaammin, laadukkaammin ja tarkemmin kuin ihminen. Tekoälyä meillä on kuitenkin ollut jo vuosia tai vuosikymmeniä käytössä ilman, että sitä kukaan on varsinaisesti edes huomannut sen läsnäoloa.

Jälleen kerran internet on tuo tähän erinomaisen analogian. Internet on kehittynyt käytännössä nykyisen kaltaiseksi jo 1960-1970-lukujen aikana. Ei internet ollut kuitenkaan “alkutekijöissään” 1990-luvun alussa, kun yritykset sinne kilpaa ryntäsivät. WWW ja Mosaic/Netscape tekivät internetille sen saman popularisoinnin, jota nähdäkseni GPT:n kaltaiset tekoälymallit tekevät nyt koko AI-kentälle.

10 tykkäystä

Pakko vielä jatkaa vähän “paasausta” - historian ymmärtäminen on nähdäkseni paras keino ymmärtää myös tulevaisuutta etenkin makro(taloudellisessa) mielessä.

Suuret kielimallit kuten GPT siis pohjautuu niille ihan samoille tekoälyn perusrakenneosasille (lineaarialgebran ja Bayes teoreeman sovelluksille, vahvistusoppimiselle sekä neuroverkoille ja takaisin kytkennälle), joita tekoälyssä on vakavasti kehitetty ja sovellettu jo ainakin 15-20 vuotta. Se mitä nyt on keksitty, on miten näitä osasia saadaan venytettyä ja vanutettua tavalla, joka a) soveltuu multimodaalisiin syötteisiin b) ennaltamääräämättömämpään käyttötapausten kirjoon.

Sitä ei toki käy kiistäminen, että tämä tekniikoiden venyttäminen ja vanuttaminen ja tällä aikaan saadut tulokset ovat lyöneet myös meidät alan ihmiset ällikällä, mutta lopulta kyse on samasta tekoälyn kehityksen jatkumosta, joka tosiaan on ollut käynnissä jo pitkään ja josta ainakin kaikki alalla olevat ovat puhuneet vuosia.

Kehityskulkua on tosiaan helppo verrata Internetin kehitykseen. Kaikki (siis lähestulkoon ihan 100%) internet-toiminnasta pyörii edelleen ARPANETin aikaisten perusrakenneosasten TCP/IP-pinon määritelmien mukaisesti. Yhtä lailla teknologia-yhteisö on näiden päälle kehittänyt mitä mielikuvituksellisempia sovelluksia siten, että puolet meidän elämästämme tapahtuu nykyisin tuon verkkoprotokollan kautta tai sen avustuksella.

Jos minun pitäisi ennustaa tekoälyn kehityskulkua, kääntäisin katseeni nimenomaan internetin kehityskulkuun sen jälkeen, kun WWW ja selain keksitiin. Sen jälkeen lähes kaikki keksittävissä olevat asiat ovat sulautuneet osaksi internet-teknolgioita, minkä lisäksi päälle on syntynyt biljoonien arvosta työtä ja liiketoimintaa, jollaista emme olisi ikinä osanneet edes kuvitella mahdolliseksi.

Toki voi olla, että mulla on ruusuinen kuva alan enthusiastina ja sisäpiiriläisenä ja kaikki on vain hypeä - mistä sitä ikinä tietää etukäteen.

11 tykkäystä

En tiedä, miksi jäimme jumiin TCP/IP:n kanssa. Sen vertailu transformer-arkkitehtuuriin ei tee edelleenkään mitään järkeä. Tekoälystähän tässä vielä keskustellaan, vai jostain muusta?

UDP toimii nykyisin TCP/IP:n rinnalla ja yhtä lailla sen päälle on alettu jo rakentaa uusia kerroksia, kuten vaikka QUIC, joka lupaa parempia latensseja ja nopeutta. UDP ei tarjoa edes kryptausta tai multipleksausta. Sitä käytetään esim. striimauksessa, peleissä ja muissa vastaavissa sovelluksissa, jotka sietävät packet loss:ia.

Ei TCP/IP minnekään ole katoamassa. Ei ole edes olemassa mitään, mikä sen korvaisi. Se säilyy uusien protokollien rinnalla ja monet uusista protokollista on itse asiassa rakennettu vieläkin sen päälle. Softapohjaiset verkot ovat jo yleisiä ja muuttavat tilannetta joissain ympäristöissä. Muutokset ovat hitaita, mutta olisivat paljon nopeampia, jos olisi todellinen syy tehdä muutoksia. Ja onhan TCP/IP:lle jo generaatiopäivityskin korjauksineen. Yhdessä IPv6-selvityshankkeessa olin jo yli vuosikymmen sitten, mutta sitä ei silloin päätetty tehdä, vaikka kaikki siitä kohkasivat, eikä kyseistä hanketta olla toteuttamassa todennäköisesti koskaan.

Olen nähnyt vastaavia kommentteja aiemminkin ja analogia on ihan järkevä. Kuitenkin, on melko epätodennäköistä, että transformer-arkkitehtuurin venyttämisellä yksinään saavutettaisiin edistysaskeleita, joita AGI:n saavuttamiseksi tarvitaan ja sitähän kohti kaikki nyt kurkottavat. Se olisi mullistus. Jos kehitys jääkin junnaamaan paikalleen meillä voi ChatGPT:n kaltaisten sovellusten kanssa olla käsissämme modernin tietosanakirjan ja näyttelijän yhdistelmä, joka höpöttää aina omiaan, jos ei tiedä jostain asiasta. Tai joka piirtää vähän omituisia kuvia tai tekee vielä omituisempaa musiikkia tai videoita. Vielä tarvitaan iso säkillinen abstraktia ajattelua, maalaisjärkeä ja ongelmanratkaisukykyä, jotta päästään seuraavalle askelmalle, lähemmäs yleistä tekoälyä, ja se tarvitsee taas uusia innovaatioita osaksi tekoälyarkkitehtuurin perustaa.

Mutta, isoja askeleita voi olla luvassa nopeastikin. Internet ja web lähti lentoon vasta 1990-luvun loppupuolella, mutta siitä lähtien vauhti olikin huima. Kehitys on usein kiinni rahasta – kuten myös silloin. Nyt rahaa virtaa AI-kehitykseen niin, että siitä nopea kehitys ei ainakaan jää kiinni.

10 tykkäystä

Odotuksia on hyvä toisinaan hallita realismilla ja se pätee myös AI:n kehitykseen. Ari Allyn-Feuer ja Ted Sanders julkaisivat 114 sivuisen tutkielman, ja voi kai sanoa ennustuksen, AGI:n kehittymisestä päätyen lopputulokseen, jonka mukaan todennäköisyys muuttuvan yleisen tekoälyn saavuttamiselle seuraavan 20 vuoden aikana on alle 1%:n.

Termillä transformative AGI (jonka suomensin, tietämättä parempaa termiä, muuttuvaksi yleiseksi tekoälyksi) kaverukset tarkoittavat, että yleinen tekoäly voi tehdä lähes jokaisen tehtävän ihmisen tavoin ja samalla tai alemmalla kustannuksella kuin ihminen. Eli rimakin on siis todella korkealla.

Ted Sanders työskentelee GPT-4:n parissa OpenAI:lla, joten hän seuraa näköalapaikalta kehitystä kohti AGI:tä.

Luin pelkän yhteenvedon ja säästän itse tutkielman iltalukemiseksi. Siihen on linkki ao. twiitissä. Jo nyt voi tietenkin kommentoida, että jotkin AGI:n osa-alueet voivat kehittyä huomattavasti toisia nopeammin. Ja ainakin itse uskon, että niin käy. Enkä pelkästään siksi, että en välttämättä ole 20 vuoden päästä ihmettelemässä ihmisen kaltaista tekoälyä, vaikka minulle kävisi kuinka hyvin. :slight_smile:

2 tykkäystä

AGI on toistaiseksi vielä hyvin akateeminen aihe. Kiinnostavampaa on, millaisia disruptiivisia vaikutuksia generatiivisella tekoälyllä voi olla bisneksille 5 vuoden aikajänteellä - jos vielä paljon mitään.

Lyhyellä aikajänteellä vaikutukset kun tunnetusti yliarvioidaan.

Olen tarttunut pieneen positioon call center palveluja tuottavassa Teleperformancen osakkeessa, joka on tällä hetkellä putoava puukko. Ilmeisesti yhtenä syynä (ei ainoana) markkinoiden pelko disruption uhasta.

Toisaalta, kuten melkein mikä muukin yhtiö, myös TP odottaa AI:sta liiketoiminnallisia hyötyjä. Itseäni miellyttää se että yhtiö vaikuttaa ainakin olevan ajan hermolla tässä suhteessa.

3 tykkäystä