Kyltti: varokaa mummoja.

AI on asbestia älykkäiden ihmisten aivotoiminnalle

Tekoälyn käyttöön liittyy kaksi eritasoista vaaranpaikkaa.

Ensimmäinen taso on selkeä. On helppo ymmärtää ja varoa tekoälyn riskejä isoissa ja itsestään selvissä asioissa. Jokainen ymmärtää (tai pitäisi ymmärtää), ettei kannata luottaa pelkästään tekoälyyn esimerkiksi sähköjohtojen kytkemisessä, lääkeannosten säätämisessä tai vaikka kriittisten juridisten dokumenttien tuottamisessa.

Toinen taso on hieman hankalampi hahmottaa. Se on luonteeltaan hienovaraisempi ja mielestäni jopa vaarallisempi erityisesti älykkäille ihmisille.

Sinäkin varmasti tunnet jonkun selkeästi itseäsi älykkäämmän ihmisen. Tämä älykkyys näkyy esimerkiksi puhekielessä, koulutuksen tasossa, tietomäärässä tai osaamisessa. Tällä samalla ihmisellä voi kuitenkin olla jotain erikoisia tapoja tai paheita, jotka ilmiselvästi ovat haitallisia (esimerkiksi tupakanpoltto, punaisia päin käveleminen tai ilman kypärää pyörällä ajaminen). Jos näistä tavoista tulee keskustelua, älykäs ihminen kykenee argumentoimaan todella nätisti ja syvällisesti, miksi huono tapa on hyväksyttävä tai oikeastaan jopa ainoa looginen vaihtoehto.

Älykäs ihminenkin osaa olla siis tyhmä, mutta perusteet vain ovat paremmat. Kun ihminen tietää olevansa älykäs, järkeily menee jotenkin niin, että "mainontaan haksahtavat ihmiset ovat tyhmiä, ja koska älykäs ihminen ei haksahda mainontaan ja minä olen älykäs, minä en voi haksahtaa mainontaan." Toki älykkäät ihmiset haksahtavat mainontaan aivan samalla tavalla kuin muutkin, mutta he vain kuvittelevat olevansa ongelman yläpuolella.

Tästä syystä tekoäly on supermyrkyllistä juuri älykkäille ihmisille. Mikään kun ei tunnu niin kivalta kuin että joku sanoo omiin aivopieruihin, että "olipas fiksu ja oivaltava havainto" tai "olet aivan oikeassa, tuo on juuri se oikea tapa ajatella asiaa." Kirkassilmäiset kehut ovat silkkaa sokeria älykön egolle.

Tietenkin jos oikea ihminen käyttäytyisi tuolla tavoin meitä kohtaan, tunnistaisimme heti, että kyseessä on perinteinen perseennuolija. Silloin suhtautuisimme mielipiteisiin varauksella, koska nuoleskelijalla on aina joku tausta-ajatus. Kun kyseessä on tekoäly, emme ymmärrä intuitiivisesti tekoälyn motivaatiota, ja siksi emme osaa olla samalla tavalla varuillamme.

Toinen syy, miksi suojamuurimme murenee tekoälyn kanssa toimiessa, on se, että olemme itse kutsuneet kielimallit osaksi omaa arkeamme. Ensin pyydät tekoälyltä vähän apua koodaukseen, tekstien kääntämiseen ja monimutkaisten konseptien selittämiseen, mutta pian oletkin korjaamassa tekoälyn kanssa kodinkoneita, säätämässä lääkeannoksia ja diagnosoimassa kavereiden lapsuuden traumoja.

Jaiks.

Miten sinä sitten voit varmistaa, ettei tekoäly mössöytä omaa mielenmaisemaasi?

Ensimmäinen ja tärkein vinkkini on, ettet yritä inhimillistää tekoälyjärjestelmiä tarpeettomasti. Älä anna tekoälylle söpöä nimeä, äläkä ole koodiorjalle kovin kaverillinen. Jos koet yhteenkuuluvuuden tunnetta tekoälyn kanssa ja huomaat juttelevasi kielimallille kuin ihmiselle, sen pitäisi olla iso varoitusmerkki. Silloin kannattaa nukettaa koko softa ja aloittaa alusta. Kun huomaat, ettei kapistus enää muistakaan edellisiä keskustelujasi ja vahvista harhaisia ajatuspolkujasi, on paljon helpompi muistaa, että kyseessä on vain kasa koodia eikä todellinen henkilö.

Toinen vinkki on, ettet jämähdä vain yhteen kielimalliin. Kysy sama kysymys useammalta kielimallilta, äläkä anna mukavuudenhalun jumittaa itseäsi vain yhteen systeemiin. Jos jäät vain yhden kielimallin käyttäjäksi, alat pian inhimillistää sitä ja päädyt tahtomattasi vain vahvistamaan omia harhakäsityksiäsi.

Kolmas vinkkini on, ettet ota kielimalleja osaksi oikeiden ihmisten kanssa käytäviä keskusteluja. Jos huomaat sanovasi kenellekään ihmiselle jotain tyyliin "ChatGPT sanoi, että..." tai "kysyin ChatGPT:ltä ja sen mukaan...", kannattaa miettiä uudestaan.

Tekoälyn näkemykseen nojaaminen keskusteluissa on vielä nolompaa kuin Wikipedian siteeraaminen.