ChatGPT, muut kielimallit ja tekoäly

Haluaisin vähän toppuutella odotuksia o1-mallin (joka muuten OpenAI:n mukaan on itsenäinen uusi malli, ei mikään 4o:n jatkumo) merkityksen suhteen. Se toki näyttää pärjäävän testeissä erinomaisesti verrattuna aiempiin malleihin (etenkin niissä joissa suoriutuminen on aiemmin ollut kehnoa), mutta ei ole kuitenkaan mikään varsinainen teknologinen läpimurto, vaan perustuu kaiketi hyvin pitkälti samoihin asioihin kuin aiemmatkin mallit - on vain otettu vähän erilainen kulma sen opetukseen:

Similar to how a human may think for a long time before responding to a difficult question, o1 uses a chain of thought when attempting to solve a problem. Through reinforcement learning, o1 learns to hone its chain of thought and refine the strategies it uses. It learns to recognize and correct its mistakes. It learns to break down tricky steps into simpler ones. It learns to try a different approach when the current one isn’t working.

(https://openai.com/index/learning-to-reason-with-llms/)

“Chain of thought” ei sinänsä ole mitään uutta kielimallien kanssa, mutta aiemmin se on pitänyt erikseen mallia proptatessa (ohjeistaessa) tehdä käyttäjän toimesta (tässä esimerkki aihetta käsittelevästä kirjoituksesta vuoden takaa: Chain-of-Thought Prompting: Helping LLMs Learn by Example | Deepgram), ja sillä on ollut mahdollista parantaa mallilta saatavaa lopputulosta. Nyt ilmeisesti tämä tekniikka on upotettu malliin itseensä, tai sitä ympäröivään softaan, ja mallin “ajatuksen kulku” on vain piilotettu käyttäjiltä (ylemmän linkin sivun lopussa kerrotaan tälle syitä).

Vaikka pidänkin näitä teknologisesti erittäin kiinnostavina juttuina, en usko että tällä transformer-mallien kehityksen polulla pystytään kovin suuriin edistysaskeliin niiltä osin, jotka ovat tähänkin asti olleet heikkoja. Omasta mielestäni olen lähinnä realisti enkä suinkaan ole työntänyt päätäni pensaaseen, vaan käytän (yritän käyttää) kielimalleja työssäni suhteellisen usein, etenkin jos haluan ymmärtää jotain alaani liittyvää asiaa, josta minulla ei ole ennestään mitään kokemusta. Monesti kielimalli pystyy silloin auttamaan alkuun pääsemisessä, mutta vähänkään monimutkaisempaan asiaan niiltä ei tunnu saavan suoraan ratkaisua. Ne nyt vaan eivät edelleenkään hahmota oppimastaan materiaalista sitä millä reunaehdoilla asia XYZ on mahdollinen ja millä reunaehdoilla se ei ole mahdollinen, joten tarjotuissa ratkaisuissa on sisäisiä ristiriitaisuuksia, tai ne eivät voi toimia annetussa kontekstissa. Toisaalta taas joissain tapauksissa on nopeampaa itse hakea webistä tieto kuin muotoilla kysymys kielimallille siten että se todennäköisesti pystyy antamaan oikean vastauksen.

Luultavasti tulokset ovat parempia silloin, kun ei mennä kovin kapean sektorin syvällistä tietoa vaativiin tehtäviin, eli juurikin asiakaspalvelu, viestintä yms, tai kun on johonkin tiettyyn aihealueeseen valmiiksi valmisteltu avustaja (kustomoitu GPT tai RAG-pohjainen työkalu tms), mutta omassa työssäni asiakkaille viestiminenkin vaatisi niin paljon kontekstia malllille, että sen käyttö olisi hidasta - puhumattakaan siitä että samalla tulisin vuotaneeksi ei-julkisia asioita ulos.

14 tykkäystä