Tuleeko näin tosiaan tapahtumaan, vai siirtyykö pseudotieto vain uuteen kanavaan? Oma näkemykseni kielimallien käytöstä varsinaisessa tiedonhaussa ei ole ihan yhtä ruusuinen. Korostan sitä, että sanomani ei koske vain ChatGPT:tä vaan yhtä lailla kaikkia kielimalleja. USC:n Jonathan May kirjoitti hyvän tiivistyksen kielimallien kyvyistä ja käyttötarkoituksista. Toistonkin uhalla tässä keskeiset kohdat:
As a computer scientist, I often field complaints that reveal a common misconception about large language models like ChatGPT and its older brethren GPT3 and GPT2: that they are some kind of “super Googles,” or digital versions of a reference librarian, looking up answers to questions from some infinitely large library of facts, or smooshing together pastiches of stories and characters. They don’t do any of that – at least, they were not explicitly designed to.
– – – –
When talking privately to colleagues about ChatGPT, they often point out how many factually untrue statements it produces and dismiss it. To me, the idea that ChatGPT is a flawed data retrieval system is beside the point. People have been using Google for the past two and a half decades, after all. There’s a pretty good fact-finding service out there already.
– – – –
Starting with a bad first draft can break through writer’s block and get the creative juices flowing, and ChatGPT and large language models like it seem like the right tools to aid in these exercises.
And for a machine that is designed to produce strings of words that sound as good as possible in response to the words you give it – and not to provide you with information – that seems like the right use for the tool.
Kielimallien käyttäminen ajankohtaisen tiedon etsintään onkin sitten jo kokonaan toinen kysymys. En edes väitä tuntevani kielimallien toimintaperiaatteita tällaisissa tarkoituksissa, mutta samaa tuntuvat arvuuttelevan monet minua viisaammatkin. Mielenkiintoisia aikoja yhtä kaikki: