VOOZH about

URL: https://yle.fi/a/74-20214412

⇱ Kela lopetti tekoäly­kokeilun, jossa etsittiin huijareita – Ruotsissa algoritmi päätyi syrjimään | Politiikka | Yle


Hyppää sisältöön
Hyppää sisältöön

Kansaneläkelaitos on luopunut kokeilusta, jonka tarkoitus oli löytää väärin perustein sosiaaliturvaa nostavia tekoälyn avulla.

Kelalla oli viime syksyyn saakka pilottihanke, jossa tekoäly kävi läpi tiedostoja ja etsi sieltä epäilyttäviä poikkeamia. Kokeilu on kuitenkin haudattu epäselvän lainsäädännön takia.

– Oikeuskäytännöt ovat puutteelliset, ja tulkinnatkin tekoälyn käytöstä tämän tapaisissa asioissa ovat tulkinnanvaraisia, perustelee Kelan IT-palveluista vastaava johtaja Nina Nissilä hankkeen hyllyttämistä.

Kokeilussa tekoäly pyrki löytämään isosta tietomassasta poikkeamia.

Kone olisi raportoinut epäilyttävät havainnot virkailijalle, joka olisi päättänyt mahdollisista jatkotoimista.

Ongelmaksi nousi se, että tekoälyn käytöstä tällaiseen ei ole Suomessa ennakkotapauksia eli oikeuskäytäntöä ei ole. Kela ei halunnut olla ensimmäisenä testaamassa lainsäädännön rajoja.

– Mihin asti on hyväksyttävää viedä niitä algoritmeja ja mikä ei ole hyväksyttävää, siitä ei ole yhtenäistä käsitystä vielä, Nissilä sanoo.

Asiakirjaväärennöksiä tutkitaan ilman tekoälyä

Samassa hankkeessa kokeiltiin myös asiakirjaväärennösten tunnistamista tekoälytyökalulla. Tästäkin on nyt luovuttu.

Sen sijaan Kela otti viime vuonna käyttöön asiakirjaväärennösten paljastamiseen työkalun, joka ei käytä tekoälyä.

Viime vuonna Kela tunnisti sosiaaliturvan väärinkäytöksiä 7,2 miljoonan euron arvosta. Summa on vajaat puoli promillea Kelan maksamista yhteensä 16,5 miljardin euron etuuksista.

Eniten väärinkäytöksiä löytyi toimeentulotuesta, kuten yllä oleva grafiikka näyttää.

Väärinkäytösten lukumäärä on ollut laskussa, mutta keskimääräinen euromäärä kasvussa, joten kokonaissumma pysyi ennallaan. Kela teki viime vuonna 1017 väärinkäytösepäillystä 471 tutkintapyyntöä poliisille.

Ruotsin ”Kela” kohdisti petosepäilyt syrjivästi

Tekoälyn valjastaminen sosiaaliturvapetosten etsimiseen on johtanut vaihteleviin tuloksiin muualla maailmassa. Algoritmi on päätynyt kohdistamaan valvontaa syrjivin perustein Ruotsissa, Tanskassa ja Alankomaissa.

Ihmisoikeusjärjestö Amnesty International on ilmaissut huolensa samantyyppisistä ongelmista Kelan tapauksessa.

Ruotsissa Kelaa vastaavan Försäkringskassanin tekoälyjärjestelmä päätyi kohdistamaan petosepäilyjä syrjivällä tavalla sukupuolen, etnisyyden, tulotason ja koulutustason perusteella.

Asia selvisi Svenska Dagbladetin ja Lighthouse Reportsin tutkimuksista. Algoritmi pisteytti ihmisiä petosriskin perusteella.

Viranomaiset kohdistivat tarkastuksia henkilöihin, joiden petosriskin tekoäly oli määrittänyt korkeaksi. Tutkimus paljasti, että järjestelmä syyllisti suhteettomasti ryhmiä, jotka olivat jo valmiiksi marginalisoituja.

Försäkringskassan on sittemmin luopunut kyseisen tekoälyjärjestelmän käytöstä.

Kela toivoo kansallista linjausta

Kela on kehitellyt tekoälyratkaisua myös liikamaksujen vähentämiseksi. Kyse on tilanteista, joissa Kela maksaa etuutta esimerkiksi henkilölle, jonka olosuhteet ovat muuttuneet ja oikeus etuuteen lakannut.

Liikamaksujen vähentämiseen tähtäävästä tekoälyratkaisusta Kela ei ole luopunut. Kyse on rahallisesti isommasta asiasta kuin väärinkäytöksissä. Kela peri vuonna 2024 takaisin liikamaksuja 110 miljoonaa euroa.

Myöskään väärinkäytösten paljastamisen tekoälytyökalua ei ole välttämättä lopullisesti kuopattu. Kela on uudistamassa tietojärjestelmiään 589 miljoonan euron Eepos-hankkeessa, joka nojaa osin tekoälyyn.

Nissilän mukaan on mahdollista, että väärinkäytösten paljastamiseen palataan, kun tietojärjestelmähanke on edennyt pidemmälle.

– Kenties jotain viitekehystä on näihin tulkinta-asioihin siihen mennessä syntynyt, jolloin pystyisimme katsomaan tätä asiaa uusin silmin, Nissilä sanoo.

Hän huomauttaa, että Kela ei ole Suomessa ainoa taho, jolle väärinkäytösten torjuminen tekoälyn avulla on ajankohtaista. Esimerkiksi vakuutusyhtiöt joutuvat miettimään samaa teemaa.

Kelan johtaja Nina Nissilä perää kansallista tulokulmaa tekoälyn käytön rajoihin. Kuva: Mårten Lampén / Yle

– Voisi olla hyvä, että jossakin olisi taho, joka miettisi kansallista tulokulmaa tähän asiaan, Nissilä sanoo.

Lainsäädännön harmaa alue

Yksi tällainen taho on valtion ICT-johtaja Jarkko Levasma. Hän johtaa työryhmää, jonka yhtenä tehtävänä on edistää tekoälyn käyttömahdollisuuksia julkisessa hallinnossa.

Levasma myöntää, että nykyiset tekoälyn käyttöä koskevat lait ovat ainakin osin tulkinnanvaraisia.

– Lainsäädäntö ei ole ihan niin yksiselitteinen, että voisi sanoa absoluuttisesti, mikä on sallittua ja mikä ei ole, Levasma sanoo.

Esimerkiksi viranomaispäätösten tekeminen kokonaan tekoälyllä on kielletty. Myös tekoälyn tekemä viranomaisneuvonta on nykylaissa kielletty, mutta tätä ollaan lain muutoksella sallimassa. Sallitun ja kielletyn väliin mahtuu tulkinnanvarainen harmaa alue.

Ongelmia voi tulla etenkin silloin, kun tekoälyä halutaan hyödyntää arkaluontoisen datan kanssa, kuten Kelan tapauksessa. EU:n tekoälyasetus määrittelee korkean riskin käyttökohteet.

Teknologia kehittyy nopeasti, mutta lainsäädäntö muuttuu hitaasti.

– On selvää, että meidän täytyy koko ajan työskennellä sen eteen, että emme hidastaisi sellaista kehitystä, jota halutaan tapahtuvan, Levasma sanoo.

Viranomaispäätösten tekemistä tekoälyn avulla selvitetään oikeusministeriössä, mutta lakiesitystä ei ennen ensi kevään eduskuntavaaleja olla antamassa.

Valtion ICT-johtaja Jarkko Levasma myöntää, että tekoälyä koskevissa laeissa on tulkinnan varaa. Kuva: Mårten Lampén / Yle

Riskinä valvonnan laajeneminen

Kelassa ei epäillä, että tekoälyyn perustuva väärinkäytösten haarukointi olisi suoranaisesti laitonta. Samansuuntaiseen johtopäätökseen vuonna 2025 silloinen oikeuskansleri Tuomas Pöysti, joka selvitti omasta aloitteestaan tekoälyn käyttöä Kelassa.

Oikeuskanslerin mukaan Kelan selvitys tekoälyn käytöstä ei anna aihetta epäillä lainvastaista menettelyä. Tuolloin tekoälymalli oli tosin vasta kehitysvaiheessa.

Väitöskirjatutkija Otto Sahlgren tutkii Tampereen yliopistolla algoritmien reiluutta eli sitä, miten tekoälyn syrjiviä vinoumia voidaan tunnistaa ja korjata. Sahlgrenin mukaan tekoäly voi olla tehokas työkalu väärinkäytösten löytämiseen. Se on omiaan isojen tietomassojen seulomiseen.

– Tekoälyllä voidaan löytää hyvin vaikeasti muuten tunnistettavia korrelaatioita tiettyjen ominaisuuksien välillä, Sahlgren sanoo.

Monimutkaisia tekoälymalleja kutsutaan toisinaan ”mustiksi laatikoiksi” sen takia, että niiden täsmällistä toimintalogiikkaa voi olla vaikea selvittää täysin aukottomasti. Dataa menee sisään ja tulee ulos, mutta sitä mitä välillä tapahtuu, on vaikea täsmällisesti sanoa.

– Pitää olla hyvin varovainen, kun tekoälyä tuodaan hyvin merkittäviin konteksteihin, kuten sosiaalietuuksiin tai sosiaaliturvaan, Sahlgren varoittaa.

Aiempia automatisaation välineitä huomattavasti tehokkaamman tekoälyn yhdistäminen Kelan laajoihin tietoihin kaikista suomalaisista avaa periaatteessa uudenlaisia mahdollisuuksia massavalvontaan.

– Siinä on riski niin sanotulle ”surveillance creepille” (valvonnan hivuttamiselle), eli valvontakoneisto ulottautuu tätä kautta jatkuvasti pidemmälle ja siitä tulee tunkeilevampaa, Sahlgren sanoo.