Luin tästä aiemmin ja en pitänyt menetelmää kuin hidastetöyssynä sisältöfarmauksen valtatiellä. Se blokkaa laiskimmat 1-1-kopioijat, mutta kuten sanot, tekstin pieni manipulointi ohittaa tunnistuksen.
Jos merkistöstä vaihtaa esim. I-kirjaimen tilalle satunnaisesti merkkikartasta lähes samalta näyttävän kirjaimen, on se laskennalisesti erillinen - samalla, kun ihmissilmä ei huomaa eroa. (Huom. liika muokkaus ei ole hyvä, jotta sisältö osuisi hakukoneen algoritmeihin, mutta kyse on jatkuvasta optimoinnista.)
Ehdotetut mekanistiset mallit on minusta tarkoitettu vain “ollaan tehty jotain”-perusteluksi, jos ja kun sisältöfarmaus ja AI-generaattoreiden kasvava rooli nousee julkisuudessa yhä enemmän tapetille. Reiluuden nimissä on sanottava, että en usko minkään menetelmän tarjoavan 100% estettä estää verkkoon laitetun ja luettavaksi tarkoitetun sisällön kopiointia, muodossa tai toisessa.
Nettiin tarvitaan Twitterin tapaisia “sinisiä pisteitä” (tarkoitan ideaa) tai varmennehallintaa, jotta hakukoneet keskittyvät indeksoimaan vain kuranttia tai sellaisena pidettyä sisältöä. Se sotii netin perusideologiaa vastaan, mutta netin hakupalveluiden toimivuuden kannalta signaalia voi olla liian vaikea erottaa kohinasta. (Tai brutaalimmin sanottuna: hukumme digitaalisen paskaan.)
Muokk: tajusin, että onhan myös tällä keskustelupalstalla varmennetägi, kuten Ahon Petrillä…