Miun mielestä keskustelu etiikasta on pidemmän tähtäimen asia kuin yksittäisen kielimallin tms. kelvollisuus. Ja koska en tiedä missä määrin Microsoft on vastannut bing-bottinsa koulutuksesta ja missä määrin se on tullut OpenAI:lta valmiina, on paha mennä sanomaan missä on menty pieleen. Kielimalli, tai mikä hyvänsä koulutusaineistolla opetettu AI, tuottaa juuri sellaisia tuloksia kuin millaiseksi koulutusaineisto on sen muovannut. Jos kielimallille antaa koulutusvaiheessa esimerkkejä aggressiivisesta dialogista, se oppii myös tuottamaan aggressiivista tekstiä vastaavassa kontekstissa.
Kyllähän OpenAI esimerkiksi on pyrkinyt kovasti “kastroimaan” bottinsa niin, etteivät ne suostuisi antamaan pomminteko-ohjeita, tai tuottamaan vihapuhetta tai haittaohjelmia, mutta niin kauan kuin se botti ei todalla ymmärrä mitä tekee (ja kielimalllihan ei symboliseen ajatteluun kykene), taitaa olla aika mahdotonta estää täydellisesti sen käyttö epäeettisiin tarkoituksiin. Jos pieni inhimillistäminen sallitaan, parhaimmillaankin se kielimalli on hyväntahtoinen manipulaatiolle altis hölmö. Mutta jos yhtään voi vetää yhtäläisyyksiä sovelluskehittäjien kyvystä havaita omasta koodistaan virheitä tekoälykehittäjien kykyyn havaita omassa luomuksessaan mahdollisuuksia toimia välineenä epäeettisille päämäärille, niin ilman jotain kehittäjistä erillistä porukkaa sparraamassa lopputuloksena voisi hyvinkin olla katastrofi. Nykyteknonologialla ei onneksi mitään Skynet-skenaarioita tarvitse kuitenkaan pelätä, joten toistaiseksi nää sekoilut on aika vaarattomia.
Jos se enimmillään 30 hengen porukka jo lokakuussa kutistettiin 7:ään, niin en kyllä laittais näitä sekoiluja tuon porukan piikkiin. Ihan sama jos firma ensin kutistaa laadunvarmistuksen ja sen jälkeen päätyy julkistamaan tuotteen, joka toimii huonosti, onko vika aiemmin pihalle potkittujen testaajien, vai bisnesjohdon?
Miun tarkoituksena oli kontrata @Jarkko4:n kärjekästä väitettä “devaamisessa sellainen malli ei toimi kovinkaan hyvin, että AI devaajien niskassa pyörii joku 40 työntekijän jarruosasto, joka ratkaisujen sijaan kokoajan keksii miksi jotain asiaa ei saa tehdä ja löytää vikoja kykenemättä kehittämään ratkaisuja ongelmiin”. Tuo edustaa sellaista vanhanaikaista vastakkainasettelua kehittäjien ja testaajien välillä että se melkein vois olla sarkasmia (ehkä se olikin?)…
Mutta tosiaan en pysty arvioimaan missä määrin MS:llä on ollut vaikutusta ylipäätään siihen miten se malli toimii. OpenAI:n etusivulla lukee kuitenkin tällä hetkellä:
We spent 6 months making GPT-4 safer and more aligned. GPT-4 is 82% less likely to respond to requests for disallowed content and 40% more likely to produce factual responses than GPT-3.5 on our internal evaluations.
Tästä vois päätellä, että itse mallin osalta on jo tehty paljonkin turvallisuuden eteen OpenAI:n puolella viime syksystä lähtien, ja Microsoftin vastuulla olisi enemmänkin vain sen integrointi omiin järjestelmiinsä. Hämärän peitossa on miten paljon mallia on mahdollista säätää ulkopuolelta (=tässä tapauksessa MS:n taholta) parametrein.