ChatGPT, muut kielimallit ja tekoäly

Käytin muutaman tunnin lueskellessa LLM mallien käyttäjäkokemuksia. Mitä selvisi?

Ollaan tilanteessa, että on 4 hyvää ja 1 melko hyvä malli joiden kesken käyttö jakautuu. Hyvät: ChatGPT, Opus Claude, Mistral, ja Gemini. Melko hyvänä vielä LLama. Kaikille löytyi omat kannattajat käyttötapauksista riippuen.

Lisäksi eri mallien käyttö ja vertailu on helppoa. Osoitteessa https://openrouter.ai/ saat käyttöösi 120 eri mallia. Openrouter on “LLM reititin” jonka kautta voit käyttää malleja joko chatin tai API:n läpi. Firman slogan on " A unified interface for LLMs". Maksu luottokortilla ja vetävät muutaman prosentin välistä. “In cloud you pay for convenience”. Alkuun antavat yhden dollarin edestä ilmaista käyttöä joka halvimpien mallien osalta riittää hyvin kauas. Myös kuluveloituksesta jää selkeä logi.

Hetki sitten "Open"AI:n ja muutamien muidenkin LLM firmojen valuaatio oli järjetön. Mun silmissä miljadien valuaatiot LLM firmoista sulavat vauhdilla. Jos maailmassa on neljä samantasoista mallia ja toista sataa heikompaa sekä halvempaa mallia, ja jos käytössä on one-stop-shop, joka mahdollistaa mallien vaihdon vaivattomasti, niin herää kysymys: Pitäisikö miljardien valuaation mennä OpenRouter-firmalle eikä malleja takoaville firmoille?

Tätä kautta pääsee käsiksi malleihin joita ei ole Euroopassa vielä käytössä. Ainakin Claude onnistui. Saatavilla on myös malleja joita ei tarvitse jail breakata mikä saattaa selittää niiden suosiota. MythoMaxillakin rajat tuli vastaan, mutta ne ovat todella paljon kauempana kuin normatiivisilla malleilla.

Löytyy myös käyttöleaderboardia. Keulalla mallit joissa hinta-laatu suhde kohdallaan. LLama variantti MythoMax $0.25 ja Mixtral 8x7B Instruct $0.27 per miljoona tokenia. Vertailuksi GPT4-turbo $30 per miljoona tokenia.

11 tykkäystä

Oiskohan täällä jollain jotain asiantuntevaa sanottavaa tähän kommenttiini Fondia-ketjussa?

2 tykkäystä

Kuningas on kuollut! Kauan eläköön kuningas! ChatGPT siis kaadettu kuva.

Jos haluat itse osallistua kuninkaan vaaleihin niin tätä kautta pääset vaikuttamaan. https://chat.lmsys.org/
Laitat saman promptin kahdelle kielimallille ja äänestät kumpi on parempi tai tasapeli. Vastauksen jälkeen saat selville mitkä mallit oli vastakkain. Sisällä jo kohta 500k vastausta.

Mitä kuvassa oleva ELO on voittotodennäköisyyksinä. Jos vastakkain kuvan eka elo 1253 ja vika 1125. Niin shakissa todennäiköisyydet kuten alla. En tiedä miten tässä menee tasurien todennäköisyys, kun se on aina lajikohtaista.

Outcome Probability
elo 1253 win 61.1%
elo 1125 win 26.5%
draw 12.3%

Joka tapauksessa mallien erot kärjessä on pieniä.

Reddit ketju. https://www.reddit.com/r/LocalLLaMA/comments/1bp4j19/gpt4_is_no_longer_the_top_dog_timelapse_of/

@_TeemuHinkula LLM on hyvä ratkaisu bulkkikysymyksiin. Toki miten tuosta voi saada kilpailuetua, kun vapaasti saatavat mallit tekee tuota jo? Pitää olla omaa hyvää dataa piilossa tai keksiä tapa miten finetunettaa avointa mallia paremmaksi. Onko Fondialla noita?

4 tykkäystä

Ilmeisesti sitten noi lakimiestin kirjoittamat tekstit ovat niitä. En sitten tiedä kuinka kattava ja kilpailukykyinen tietokanta se on.

En katsonut Teemun viittaamaa videota, mutta vilkaisin tätä sivua, jossa Fondia itse kertoo tuotteestaan: Etusivu | MyFondia.

AI Lawyer, joka näyttäisi kai olevan se tarjooman AI-osanen, näyttäisi nojaavan Fondian lakimiesten kirjoittamiin teksteihin (ja jotka ovat jo tarjolla asiakkaille Legal Insights -nimisenä palveluna). Käytännössä todennäköisesti tuo on retrieval augmented generation -tyyppinen LLM-ratkaisu, jossa käyttäjän syötteen perusteella ensin haetaan aiheeseen liittyvät dokkarit (Legal Insightsin materiaaleista) modernilla hakuteknologialla, ja kielimallia käytetään sitten generoimaan niiden pohjalta käyttäjän esittämään kysymykseen vastauksen. Aiheesta löytyy haulla syvällisempää keskustelua tästä ketjusta jos yksityiskohdat kiinnostaa. Ei tämä mitään rakettitiedettä enää tänä päivänä ole, ja mikä tahansa firma joka haluaa “keskustella omien dokumenttiensa kanssa” voisi tuollaisen pystyttää tavalla tai toisella, mutta kyllähän tuo nyt Fondian asiakkaan näkökulmasta varmaan voi olla aikaa säästävä työkalu suoraan Legal Insightsin käyttöön verrattuna.
Sen verran hankalaksi on osoittautunut kielimallien pitäminen aisoissa (generoimatta omiaan), että voisin kuvitella tuon palvelun käyttöehdoissa olevan jonkun lausekkeen joka jättää käyttäjälle vastuun kielimallin tekemistä hölmöilyistä. Toki varmaan se vastuu Legal Insightsinkin osalta on asiakkaalla mitä tulee virhetulkintoihin :person_shrugging: Esittelystä ei ihan erota, että annetaanko tekoälyjuristin vastauksen kylkeen lähdeviitteet. Jos annetaan, käyttäjän olisi luultavasti syytä lukea ne kuitenkin läpi varmuuden vuoksi.

5 tykkäystä

AI-hypen keskellä on joskus mielenkiintoista kuunnella vajaan 30 sekunnin maailmoja syleilevän hissipuheen sijaan myös perusteellisempia keskusteluja AI:sta. Linkkasin ylle tähän ketjuun Lex Fridmanin podcastin, jossa hän haastattelee Yann LeCunia (Metan Chief AI Scientist, NYU:n professori, Turing-palkinnon saaja, …). Haastattelu on mielenkiintoinen ja sopii mielestäni hyvin ketjun aiheeseen. Ongelma tosin on se, että vajaan 30 sekunnin sijaan haastattelu kestää vajaat 3 tuntia, joten kaikilla kiinnostuneilla ei välttämättä riitä aikaa sen läpi kahlaamiseen.

Kuuntelin haastattelun läpi ja kirjailin ylös muutamia pointteja haastetteluun liittyen. Kirjailut ovat aikajärjestyksessä, joten jos jotkut kohdat tuntuvat kiinnostavilta, niin niiden perusteella voi ehkä haarukoida, mitä pätkiä haastattelusta haluaa katsoa. Aikaleimoja en valitettavasti tullut keränneeksi. Lisäksi jotkut listan kohdista saattavat olla hieman irrallisen oloisia ja tuntua olevan vailla kontekstia, mutta se lienee ymmärrettävää, kun yrittää tiivistää 3 tunnin haastattelun muutamaan bullettiin. Myös redundanssia on listassa jonkin verran.

Keskeiset pointit:

  • Nykyiset LLM:n kaltaiset ratkaisut eivät tule johtamaan mihinkään yleiseen älykkyyteen, koska niistä puuttuvat keskeiset yleiseen älykkyyteen vaadittavat ominaisuudet: kyky ymmärtää fyysistä maailmaa, kyky muistaa ja palauttaa mieleen asioita, pysyväismuisti sekä kyky järkeillä ja suunnitella. Sikäli kun näitä asioita jossain määrin on, ne ovat hyvin primitiivisellä tasolla.
  • Ongelmat ovat lähtökohtaisesti fundamentaaleja eivätkä ole LLM:n arkkitehtuurin osalta korjattavissa.
  • Kuriositeetti: Vaikka LLM:t on opetettu äkkiseltään suunnattomalta tuntuvalla aineistolla (kaikki internetistä saatavilla oleva teksti, n. 10^13 tokenia, n. 2*10^13 tavua), niin toisaalta 4-vuotias lapsikin on pelkästään näköaistinsa kautta saanut jo aivoilleen opetusinformaatiota huomattavasti enemmän (n. 10^5 tavun edestä). Määrällisesti suurin osa ihmisen oppimisesta tapahtuu kontaktissa reaalimaailmaan, ei tekstin välityksellä. Toki huomattava, että aistivaraisessa informaatiossa on paljon redundanssia, mutta jossain vaiheessa myöhemmin spekuloitiin, että tämä saattaa olla jopa hyväksi oppimisprosessille.
  • Syvällinen filosofinen kysymys, onko maailmasta ylipäätään opittavissa “älykkyyden pohjaksi” riittävästi pelkkää kieltä / tekstiä tutkimalla. LeCun on sitä mieltä, että kosketus tosimaailmaan tarvitaan ja pelkkä kieli ei riitä. Suuri osa älykkyyteen liittyvästä toiminnasta on kytköksissä sellaisten mentaalisten mallien rakentamiseen, että niillä ei välttämättä ole paljoakaan tekemistä tekstuaalisen esityksen kanssa. Toisen suuntaisiakin näkemyksiä asiasta on.
  • Keskustelua siitä, miten nykyiset autoregressiiviset LLM:t toimivat ennustamalla aina seuraavaa sopivaa tokenia jakaumien avulla. Fundamentaali ero ihmisen kielentuottoprosessiin, jossa ajattelu tapahtuu usein ensin abstraktimmassa muodossa mentaalisten mallien avulla ja vasta ajattelun lopputuloksen perusteella muodostetaan sanat, jotka kuvaavat ajatteluprosessia tai sen lopputulosta.
  • Pelkästään kielen perusteella, sanoja ennustamalla toimivaa mallia maailmasta ei todennäköisesti ole rakennettavissa, koska sanoiksi puettu kieli välittää liian vähän informaatiota kunnollisten mallien tuottamiseksi. Kunnollisen mallin tekeminen edelyyttäisi maailman havainnointia ja vuorovaikutusta maailman kanssa ja näistä havainnoista oppimista.
  • Kommentteja videoiden tuottamisen vaikeudesta. LLM:n kaltaisen opettamisen / ennustamisen käyttö (self supervised learning with reconstruction) vaikeaa, koska ei ole käytössä analogisia, hyviä tunnettuja menetelmiä korkeadimensioisten ja jatkuva-arvoisten avaruuksien ennustamiseen. Tekstissä diskreetti käytössä huomattavasti matalammat dimensiot ja diskreetti esitys. Videolla esimerkkejä aiheesta.
  • JEPA (joint embedded predictive architechture) kuvadatan opettamisessa, kuvailua korkealla tasolla. Yhdenlaisia hieman korkeamman tason abstraktioita kuvasisällöstä, joita on helpompi ennustaa yksittäisten pikselien sijaan.
  • Miten voidaan saada (self supervised) järjestelmät oppimaan, miten maailma toimii sensorisyötteen avulla? Esimerkiksi eläimet oppivat maailman toiminnasta paljon ilman kieltä. Jos tällainen järjestelmä saataisiin tehtyä ja se voitaisiin yhdistää kieltä osaavaan järjetelmään, joka pystyisi käymään läpi kaiken mahdollisen tekstimuotoisen materiaalin, niin se olisi kova juttu.
  • JEPA-arkkitehtuurien käyttö videoissa korkealla tasolla.
  • Voisiko tämän tyyppinen arkkitehtuuri tuottaa esimerkiksi ratkaisun, joka voisi ymmärtää tarpeeksi maailmasta esimerkiksi auton ajamisen tarpeisiin? LeCunin mielestä mahdollisesti kyllä, mutta kestää vielä aikansa ennen kuin sellaiseen päästään. Periaatteessa mahdollista pyrkiä tuottamaan yksinkertaisia suunnitelmia yksinkertaisille fysikaalisille (opituille) malleille → Merkittävä ero LLM:n kaltaisiin ratkaisuihin.
  • Yhtään monimutkaisempien asioiden suunnittelun automatisointi vaatii hierarkista suunnittelua. Esimerkkinä fyysinen matkustaminen toimistosta Pariisiin, joka pitää pilkkoa hyvin monella abstraktiotasolla osatehtäviin, jotta se on järkevästi suoritettavissa. Lisäksi etukäteisuunnittelua ei voi tehdä matalimmalla tasolla liian aikaisin, koska tarvittava informaatio suunnitteluun selviää käytännössä vasta suunnitelmaa suorittaessa. Tällä hetkellä hierarkinen suunnittelu on Lecunin mukaan sellainen asia, jota kukaan ei oikein osaa tehdä AI:lla. Kukaan ei siis osaa opettaa AI:ta siten, että se oppisi itsenäisesti monitasoisia abstraktioita, joita suunnitelman tekeminen ja toteuttaminen vaatisi.
  • LLM:ien kehityksessä on yllättänyt se, miten paljon ne vaikuttaisivat “ymmärtävän” kielestä asioita, kun mallia skaalataan tarpeeksi suureksi ja sitä opetetaan riittävän suurella aineistolla.
  • Koska LLM:t tuottavat sujuvan tuntuista kieltä, päädymme helposti ajattelemaan, että järjestelmän täytyy olla jotenkin vertautuva ihmisälykkyyteen. Tämä on LeCunin mukaan kuitenkin virhepäätelmä.
  • On tärkeää ymmärtää, mihin LLM:n kaltaiset mallit pystyvät ja mihin ne eivät pysty.
  • LLM:n kaltaisia generatiivisia malleja käyttäen ei todennäköisesti pysty oppimaan hyviä malleja maailmasta. Jos haluaa ihmistasoisen AI:n, generatiivinen AI ei todennäköisesti ole tähän hyvä lähtökohta.
  • Hallusinointi on sisäänrakennettu ongelma LLM:n tyyppisissä järjestelmissä: Koska autoregressiivisessä ennusteessa seuraava token valitaan aina jakaumasta edellisen tokenin perusteella, jokaisella tokenilla on jonkinsuuruinen mahdollisuus ajautua järkevien vastausten joukon ulkopuolelle. Mitä enemmän outputissa on tokeneita, sitä varmemmin törmätään jossain vaiheessa hallusinointiin ja tämä divergenssi kelvollisesta vastauksesta on eksponentiaalista suhteessa outputin tokeneiden määrään. Tämä ei ole korjattavissa, vaan on fundamentaali ongelma LLM:ssä.
  • Hallusinoinnin ongelmia voidaan vähentää esi-opettamalla tai hienosäätämällä järjestelmää yleisimmin esitetyille kysymyksille, mutta lopulta aina on mahdollita opettaa tai hienosäätää vain häviävän pieni osa mahdollisista syötteistä.
  • LLM:ssä tapahtuva “päättely” on pakostakin hyvin rajoittunutta ja tästä evidenssinä esitetään se, että käytettävän laskennan määrä per token on vakio. Eli asiasisällön monimutkaisuus ei vaikuta per token käytettyihin laskentaresursseihin mitenkään. Siispä sisällön puolesta yksinkertaiset, monimutkaiset ja jopa mahdottomat kysymykset ovat saman arvoisia ja tarvittavan laskentaresurssin määrä tulee suoraan outputin tokenien määrästä.
  • Järjestelmät, jotka muodostavat “ajatuksen” vastauksesta konseptitasolla ja vasta sen jälkeen vastauksen, ovat ehkä tulossa lähivuosina, mutta tulevat olemaan rakenteeltaan ihan erilaisia kuin nykyiset autoregressiiviset LLM:t. Tähän liittyen korkean tason keskustelua “ajatuskonseptien” tavoitefunktioista ja niiden optimoinnista.
  • Kunnollinen tapa opettaa järjestelmiä tulisi perustua ensisijaisesti representaatioiden ja maailmamallien muodostamiseen pääasiassa havaintojen ja jossain määrin vuorovaikutuksen kanssa.
  • Onko mahdollista tuottaa AI-järjestelmä, joka ei ole yhtään biasoitunut? LeCunin mielestä ei. Bias on “katsojan silmässä” ja niin kauan kuin AI-järjestelmä ottaa jotenkin kantaa muuhunkin kuin koviin faktoihin (esim. mielipiteisiin), niin bias on väistämätön.
  • Ratkaisuksi biasoitumiseen LeCun ehdottaa AI-järjestelmien monimuotoisuutta (useita erilaisia järjestelmiä, erilaisilla kriteereillä rakennettuja), vertaa tätä mm. sananvapauteen. Ei ole hyvästä, jos kaikki informaatio tulee yhdestä lähteestä.
  • Alamme olla sellaisen aikaukauden kynnyksellä, jossa lähes jokainen interaktiomme digitaalisen maailman kanssa kulkee jonkinlaisen AI-järjestelmän kautta.
  • Ei ole varaa antaa AI-järjestelmien keskittyä pelkästään muutamien USA:n länsirannikon yritysten käsiin. Tässä ratkaisuksi esitetään avoimen lähdekoodin järjestelmiä, joita kuka tahansa voi hienosäätää ja viritellä.
  • LeCunin visio on, että tulevaisuudessa suurin osa AI-järjestelmistä rakennettaisiin open source ratkaisujen päälle.
  • Keskustelua AI:n biasoitumisesta ja siitä, millaista tasapainoilua AI:n virittely on, kun pitäisi olla korrekti kaikkiin suuntiin ja yrittää miellyttää kaikkia.
  • Jotain visioita Metan LLaMa -mallin tulevaisuuden kehityksestä. LeCun ei osaa ennustaa, milloin esimerkiksi suunnittelua vaativaan ongelmanratkaisuun kykenevä ja maailman toimintaa oikeasti ymmärtävä malli olisi käytettävissä, koska sellainen vaatii vielä useita R&D-läpimurtoja. LeCunin veikkaus on, että tällaiset mallit tulevat olemaan jotain JEPA-arkkitehtuurin tyylistä, mutta tämä on toki tässä vaiheessa spekulaatiota.
  • LeCunin mielestä ihmistasoiseen tekoälyyn pääseminen voi olla mahdollista jollain aikavälillä. Edelleen hänen mukaansa ollaan vielä kaukana “ihmisaivojen” laskentatehosta (ei tarkemmin määritelty metriikkaa tähän) ja hänen mukaansa ehkä seuraavan parin kymmenen vuoden aikana tähän voidaan päästä. Ja erityisesti energiatehokkuuden näkökulmasta ollaan erittäin kaukana ihmisaivojen tehokkuudesta.
  • Tehokkuuden parantamisessa voidaan jatkaa vielä jonkin matkaa nykyisellä tiellä ennen kuin homma saturoituu ja pitää kehittää ihan uudenlaisia periaatteita ja valmistusmenetelmiä.
  • Erityisesti energiatehokkuuden osalta mainittu kuriositeetti, että yksittäinen GPU tarvitsee n. puolesta 0,5-1 kW teholla energiaa, kun taas ihmisaivot vaativat vain n. 25 W. Ja GPU:ita tarvitaan järkyttävä määrä, jotta päästään ihmisaivojen tasolle AI-ratkaisuiden kanssa.
  • LeCunin mukaan AGI:hin on vielä pitkä matka. AGI:n keksiminen ei kuitenkaan tule olemaan yksittäinen tapahtuma vaan pidemmän tähtäimen vaiheittainen kehitys. Arviolta kehityksessä menee vähintään vuosikymmen, mutta mahdollisesti paljon pidempäänkin. R&D-ongelmia on ratkottavaksi useita ja kaikkia matkan varrella vastaan tulevia ongelmia ei vielä tetenkään edes tiedetä.
  • Keskustelua älykkyyden mittaamisen ongelmista - ei triviaalia, kuka/mikä oikeastaan on toista älykkäämpi ja millä tavalla.
  • LeCun on eri mieltä AI-doomereiden kanssa, eikä odota lähtökohtaisesti ihmiskunnan tuhoa tilanteessa, jossa AGI saadaan lopulta aikaan.
  • Loppupuolella paljon enemmän yleistä pohdintaa keskustelua AI:n tiimoilta. Hyvä AI vastaan paha AI yms.
  • Humanoidiroboteista: LeCun arvelee, että ensi vuosikymmen tulee olemaan mielenkiintoinen humanoidirobottien näkökulmasta. Edellytyksenä kunnollisille humanoidiroboteille on se, että nillä pystytään oppimaan “maailmamalli” ja fysikaalisen maailman kanssa tapahtuva vuorovaikutus varsin pienellä opetusmateriaalin määrällä. Esimerkkinä Level 5 FSD pohjana oleva AI, joka pystyisi muutaman kymmenen tunnin opetuksen perusteella oppimaan auton ajamisen kuten kuka tahansa ajokorttia suorittava teini.
  • Summausta avoimista ongelmista. Niitä käyty jo edelläkin läpi, mutta fokus siinä, miten AI:n voisi saada itse oppimaan hierarkista suunnittelua, jota ei ole mitenkään manuaalisésti tuunattu. Tämä on yksi keskeisimmistä kysymyksistä, jotta päästään eteenpäin yleisemmän AI:n suuntaan ja LeCunin mukaan tästä ei ole olemassa vielä ensimmäistäkään demonstraatiota.
  • LeCunin mielestä AI:lla voidaan parantaa koko ihmiskunnan älykkyyttä ja lopulta jokainen yksittäinen ihminen voi hyötyä siitä, että pääsee käskyttämään AI-apulaisia erilaisten asioiden aikaansaamiseksi.
  • LeCun vertaa AI:n kehittämistä ihmiskunnan historiassa kirjapainojen keksimiseen merkittävyydeltään ja tiettyjen muiden samankaltaisuuksien osalta.
55 tykkäystä

3Blue1Brownilla on uusi video siitä miten transformerit toimii (osa 5 AI-videosarjassa mutta edeltãvien katsominen ei ole välttämätöntä):

4 tykkäystä

Uusia malleja putkahtelee kuin sieniä sateella (alla).

Databricks julistautuu open source mallien kuninkaaksi DBRX mallillaan.

https://www.databricks.com/blog/introducing-dbrx-new-state-art-open-llm

Toisaalla taas Cohere Command R+ väittää tarjoavansa “biggest bang for the buck” enterprise sovelusten osana.

On omien tulosten mukaan on ykkönen Berkley Function call benchmarkissa joka relevantti siinä miten hyvin LLM pystyy käyttämään muuta softaa.
https://gorilla.cs.berkeley.edu/blogs/8_berkeley_function_calling_leaderboard.html?ref=txt.cohere.com

Olisi mukava saada hyötyjä pikkuhiljaa sinne enterprise sovelluksiin. Edelleen joudun hakkamaan kaikkea roskaa SAPpiin sen sijaan että LLM tekisi sen. Vai onko se niin että LLM:t tekee mun työn hauskat jutut ja mulle jää vain SAP.

Kaikki käytettävissä OpenRouterin kautta.

2 tykkäystä

AI tekee kaikki hauskat asiat.

27 tykkäystä

Meta julkaisi vihdoin Llama 3!

Alustavat tulokset vaikuttavat loistavilta :grin: :+1:

kuva

6 tykkäystä

Kanavalta löytyy myös “series” neuroverkoista, joita nämä transformeritkin ovat. Hyvin selitetty ja visualisoitu perusteet aiheesta :+1: Vaatii toki matematiikan ymmärrystä, että kaiken saa irti ja ymmärtävällekin kerroksia riittää opeteltavaksi, mutta hienoa sisältöä yhtä kaikki.

Jenkkien hallinto rakentelee lisää kaupan esteitä:

https://www.reuters.com/technology/us-eyes-curbs-chinas-access-ai-software-behind-apps-like-chatgpt-2024-05-08/

WASHINGTON, May 8 (Reuters) - The Biden administration is poised to open up a new front in its effort to safeguard U.S. AI from China with preliminary plans to place guardrails around the most advanced AI Models, the core software of artificial intelligence systems like ChatGPT, sources said.

The Commerce Department is considering a new regulatory push to restrict the export of proprietary or closed source AI models, whose software and the data it is trained on are kept under wraps, three people familiar with the matter said.

Ensin viedään Kiinalta AI-piirit ja seuraavaksi blokataan AI-softan myynti.

Saattaa myös tuoda kiinnostavia ongelmia open source-mallien kanssa jos tulee rajoituksia minne niitä saa viedä.

8 tykkäystä

Poistettu viesti, joka oli tarkoitettu kahvihuoneeseen.

“Mikään ei voi mennä pieleen tämän kanssa” :smiley:

2 tykkäystä

Artikkeli tekoälyn tulemisesta luoville aloille.
Olen pitänyt kiinni vanhoista oletuksistani tekoälyn suhteen

  • tekoälysovellukset tulevat yleistymään ja nostavat monessa paikassa tuottavuutta paljon (nopeuttavat, poistavat virheitä, enemmän tuotoksia pienemmillä resursseilla jne), mikä on lähtökohtaisesti hyvä asia
  • iso osa ihmisistä yliarvioi kuinka vaikea heidän työpanoksensa on korvata.
  • tekoälysovellusten yleistyminen aiheuttaa disruption, mikä tulee tuhoamaan valtavan määrän työpaikkoja! Disruptio myös polarisoi työmarkkinoita voimakkaasti; hyvin monessa työtehtävässä/yrityksessä kysyntä ei kasva, mutta tehokkuus lisääntyy → suuri osa työntekijöistä voidaan irtisanoa ja jäljelle jää muutama tehokkain ja parhaiten palkattu hoitamaan erikoistilanteita ja valvomaan että asiat sujuvat
7 tykkäystä

Nyt tuli kunnon tylytystä tekoälystä: ”En halua pyykätä ja tiskata, jotta tekoäly voisi minun sijastani tehdä taidetta ja kirjoittaa” – 100 000 peukaloa ja 2,9 M lukijaa | Tekniikka&Talous (tekniikkatalous.fi)

Hyvä vasta-artikkeli: “Monet fyysisen maailman arkiset suoritukset, kuten siivoaminen, ovat kuitenkin liian vaikeita roboteille. Onko siis tekoäly orjuuttamassa ihmiset takaisin rutiinityön raatajiksi, Maciejewska kysyy.”

6 tykkäystä

Näkökulma on siinä mielessä hassu, että tekoäly (laajinta mahdollista määritelmää käyttäen) on tehostanut fyysisen maailman arkirutiineja jo vuosikymmenet. Aika paljon jäisi vähemmän aikaa luovuudelle ilman pyykin- tai astianpesukoneita, pölynimureita tai muita arjen töitä helpottavia teknologisia innovaatioita.

Isomassa makrokulmassa näkemys osuu kyllä oikeaan: hienomotoriset kyvyt ovat haastavia laskennalla hoidettavaksi ja tällaiset ammatit esimerkiksi transformoituvat oletettavasti viimeisenä (parturit, timpurit jne.). Toisaalta luovaa ja emotionaalista avaruutta, joka vaatii antropomorfista tietoisuutta ympäristöstä, jäänee vielä ihmiselle täytettäväksi vuosikymmeniksi tai ehkä ikuisuuksiksi.

9 tykkäystä

Olisipa asia noin yksinkertaista, mutta ei kannata aliarvioida poliitikkojen halua luoda säätelyä ja uusia hallinnollisia mekanismeja. (Ainakin, jos ollaan Euroopassa.)

EU:n tiedotteessa lukee mm. seuraavalla tavalla:

Sen vuoksi lakitekstissä vaaditaan, että kansalliset viranomaiset tarjoavat yrityksille tosielämää mukailevan testiympäristön.

Voidaan taittaa peistä mille tasolle tosielämää mukaeleva tesiympäristö laitetaan, mutta Suomen tapauksessa asiassa mennäään arvatenkin kohti ääretöntä ja sen yli. “Joku” tuonkin maksaa.

Vastaavasti tarvitaan “joku” lukemaan lupalappusia ja tekemään bias-tarkistuksia ja tutkimaan mitä kaikkea keksitäänkään pelätä. EU:n (linkatussa uutisessa mainittu) tekoälysäädös on siitä oiva osoitus. Eri aloja laitetaan keskenään erilaisen regulaation kohteeksi. (Josta tuli mieleeni - tämähän voisi olla yksi tapa arvioida voiko joku sektori nostaa tehokkuutta erityisen paljon vrt. enemmän regulaation kohteeksi joutuva.)

Jos ja kun uhat konkretisoituvat ja säädöksistä välitetään piut ja pait, keksitään pankkialan tyyliin lisää sääntelyä. Periaatteena armeijasta tuttu yksi ryssii, kaikki kärsivät.

Oman näkemykseni mukana syntyy veroparasiitien kaltaisia “AI-parasiiteja”, joissa regulaatio on lievää ja kaikki on sallittua. Houkutus leikata hallinnollisesta taakasta on liian iso.

3 tykkäystä

Asiasta tai ohi, EKP:n pankkisääntelyä saa kiittää siitä, että talouden verenkierron eli pankkitoiminnan riskitaso on tosi pieni ja varsinkin Etelä- ja Keski-Euroopan pankkien holtiton riskinotto on saatu kuriin. Enää ei se toimikaan, että voitot saa sijoittaja ja tappiot veronmaksajat. Nyt sijoittaja on ensisijainen maksumies, jos hommat kusee. Mitä pahaa siinä on?

Sääntely voi tietysti joskus yksittäistapauksissa mennä naurettavan puolelle, kuten etteivät vakavaraiset pankit saaneet yhtenä vuotena maksaa osinkoja, vaikka oli tarve panna kuriin vain holtittomat. Jatkossakin vastaavia vetoja varmasti tulee, sillä EKP ei jatkossakaan halua sormella osoittaa suurelle yleisölle hommansa ryssineitä pankkeja. Se olisi uhka rahamarkkinoiden vakaudelle, jopa bank runille.

Analogia AI-jain sääntelyyn? Vastuun konkretisoitumisen kautta? EU valmistelee asiaa, on valmistellut jo pitkään, mutta eipä ole niitä vihreitä ja muita välipapereita Suomen media juuri uutisoinut.

2 tykkäystä

EU tukee AI:n kehittämistä useassa eri ohjelmassa, mutta perehtyy myös sen eettiseen puoleen ja valmistelee sääntelyä. Lisätietoa:

Juurikki ei vastaa dokumenttia koskeviin kysymyksiin, koska ei ole itsekään ehtinyt siihen tutustua, ei vaikka luvassa voisi olla asiatuntijoille syyskuussa seminaarimatka Reykjavikiin. Kesälomalla luetaan ihan muuta. :sunglasses:

1 tykkäys