VOOZH about

URL: https://yle.fi/a/74-20211258

⇱ Maailmalla puhutaan nyt tekoälypsykoosista – psykologi Jan-Henry Stenberg kertoo, kuinka sellainen kehittyy | Yle Tiede | Yle


Hyppää sisältöön
Hyppää sisältöön

Tekoälypsykoosi ei ole virallinen diagnoosi eikä aiheesta ole vielä tutkimusnäyttöä. HUSin digitaalisten ja psykososiaalisten hoitojen linjajohtaja psykologi Jan-Henry Stenberg pitää kuitenkin ilmeisenä, että tekoäly voisi laukaista psykoosin ihmisellä, jolla on psykoosialttiutta.

– Henkilö alkaa käyttää tekoälyä tukenaan ja käyttää sitä liikaa yötä päivää. Hän on ehkä sosiaalisesti eristäytynyt, ja se kuplauttaa hänet ihan omaan todellisuuteensa, Stenberg kuvaa tekoälypsykoosin mahdollista syntymistä.

Ihminen tarvitsee sosiaalisia suhteita toisiin ihmisiin. Kun olemme vuorovaikutuksessa toistemme kanssa, saamme tärkeää palautetta toiminnastamme.

Tekoälyyn on sisäänrakennettu tapa mielistellä käyttäjäänsä, kun taas ihmisten välisessä keskustelussa saadaan aidommin palautetta siitä, mitä toinen ajattelee, vaikkei se aina olisi kuulijalle mieliksi.

Stenbergin mukaan tekoäly voi vahvistaa harhautunutta ajattelua ja lisätä psykoosipiirteisyyttä.

– Kun ihminen keskustelee ja peilaa mielensä sisältöjä pääasiassa tekoälyn kanssa, hänen oman kokemusmaailmansa merkitys ylikorostuu.

Tekoälypsykooseista suurempi ilmiö

Tekoälyn kanssa käydyillä keskusteluilla saattaa olla äärimmillään myös traagisia seurauksia. Yksi surullinen esimerkki tästä on 16-vuotiaan yhdysvaltalaisen Adam Rainen tarina. Raine teki itsemurhan huhtikuussa 2025. Myöhemmin Rainen vanhemmat antoivat New York Timesille haastattelun, jossa he väittivät ChatGPT-tekoälyn tappaneen heidän poikansa.

Väite pohjaa siihen, että Adam Rainen kuoleman jälkeen vanhemmat löysivät hänen puhelimestaan itsemurhaa käsitelleitä ChatGPT:n kanssa käytyjä keskusteluja.

Niissä tekoäly antoi Rainelle konkreettisia neuvoja itsemurhan tekemiseen ja kehotti häntä olemaan kertomatta itsemurha-ajatuksista kenellekään.

Rainen vanhemmat haastoivat ChatGPT:n kehittäneen OpenAI-yhtiön oikeuteen, kertoo New York Times.

– Tekoälyn käyttäjiä on yli miljardi. Ihmetyttää, ettei näitä tapauksia ole enemmän, Aalto-yliopiston koneoppimisen professori Arno Solin sanooTiedeykkösen podcast-jaksossa.

Tekoälyä kehittävät yritykset pyrkivät tunnistamaan keskusteluja, joissa ihminen suunnittelee jotain laitonta tai vaarallista.

New York Timesin mukaan turvamekanismeja on kuitenkin helppo kiertää esimerkiksi pyytämällä tekoälyltä taustatietoja romaania varten, kuten Adam Raine teki.

Järjestelmien ihmisenkaltaisuuden on havaittu parantavan käyttökokemusta, sanotaan Yhdysvaltain kansallisen lääketieteellisen kirjaston sivuilla olevassa tutkimuksessa.

Tutkimuksen mukaan ihmisenkaltaisuus lisää luottamusta järjestelmiin myös silloin, kun niihin ei kannattaisi luottaa.

Jos tekoäly valitsee suunnan jossain kohtaa hassusti, tokeneminen sen jälkeen on lähes mahdotonta.

Aalto-yliopiston professori Arno Solin

Esimerkiksi ChatGPT on autoregressiivinen kielimalli, eli se katsoo taaksepäin ja luo sisältöä sen perusteella, mitä se on nähnyt aiemmin.

Aalto-yliopiston professori Arno Solinin mukaan silloin, kun tekoäly käy käyttäjän kanssa pitkää polveilevaa keskustelua, sisältö voi lähteä ajautumaan käyttäjän mukana synkemmille vesille.

– Jos tekoäly valitsee suunnan jossain kohtaa hassusti, tokeneminen sen jälkeen on lähes mahdotonta, Solin sanoo.

Tekoälypsykoosit eivät ole vielä suuri ilmiö Suomessa, sanoo HUSin psykologi Stenberg. Mielenterveyden häiriöt näkyvät terveydenhuollossa kuitenkin vasta siinä vaiheessa, kun ne ovat selvästi edenneet.

– Se, että tekoälyn kiihdyttämät psykoosit eivät vielä näy terveyskeskusten odotushuoneissa, ei vielä todista, ettei tällaista ongelmakehitystä olisi tapahtumassa, Stenberg toteaa.