Tekoälyä viranomaistoimintaan

 

 

 

Tomi Voutilainen

Kirjoittaja on Itä-Suomen yliopiston julkisoikeuden professori, joka on erikoistunut informaatio-oikeuden sekä hallinnon digitalisaation oikeudellisiin kysymyksiin.

Viranomaistoiminnan automatisoinnilla  on jo vuosikymmeniä pitkät juurensa Suomessa. Puolestaan tekoälyyn liittyviä teorioita ja sovelluksia on kehitetty 1950-1960 –luvuilta lähtien. Uudessa hallitusohjelmassa ”Osallistava ja osaava Suomi – sosiaalisesti, taloudellisesti ja ekologisesti kestävä yhteiskunta” todetaan, että Suomi edistää eettisesti, taloudellisesti ja sosiaalisesti kestävän datapolitiikan ja tekoälypoliittisen sääntelykehikon laatimista. Hallitusohjelman mukaan Suomeen luodaan ohjeistus tekoälyn eettisestä käytöstä. Niin ikään tavoitteeksi asetetaan, että tehdään tarvittavat lainmuutokset, joilla edistetään digitalisaation ja tekoälyn hyödyntä¬mistä sosiaaliturvaetuuksien hakemisessa, käsittelyssä ja päätöksissä.

ALOITTEITA, SUOSITUKSIA JA EETTISYYTTÄ

Tekoälyn käyttöön liittyvistä sääntelytarpeista ja käytön rajoituksista sekä eettisistä kysymyksistä on tehty aloitteita, linjauksia ja suosituksia niin Euroopan unionin toimielimissä (ks. esimerkiksi seuraavat: 1) Parlamentin suositukset robotiikkaa koskevista yksityisoikeudellisista säännöksistä, 2) A European Approach to Artificial Intelligence, 3) Ethics Guidelines for Trustworthy AI ja  4) Komission tiedonanto: Luottamuksen rakentaminen ihmiskeskeiseen tekoälyyn) kuin Euroopan neuvostossa (ks. European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment).

Pitkälle viety automatisointi viranomaistoiminnassa on monin osin oikeudellisesti ongelmallinen eikä ongelmiin ole löydetty kestäviä ratkaisuja. Toisaalta pitkälle viety automatisointi voi joissakin tilanteissa parantaa viranomaisten asiakkaiden yhdenvertaisuutta ja oikeusturvaa asioiden käsittelyssä, kun nk. inhimilliset ihmistyöstä johtuvat muuttujat on karsittu minimiin. EU:n yleinen tietosuoja-asetus lähtökohtaisesti kieltää automatisoidut päätökset, mutta sallii ne tietyissä tilanteissa.

Tekoälyn käytön eettisyyteen liittyvät pohdinnat sivuavat tai ovat osa säädännäistä oikeutta. Julkisessa toiminnassa lain tarkka noudattaminen ei ole eettinen kysymys, vaan suoraan perustuslain 2.3 §:stä tuleva vaatimus. Tässä suhteessa eettisiä ohjeita laadittaessa on syytä pyrkiä asetelmaan, jossa laissa säädettyjä vaatimuksia ei esitettäisi eettisinä kysymyksinä. Sen sijaan eettiset kysymykset voivat nostaa esiin uusia sääntelytarpeita erityisesti eettisiä kysymyksiä peilattaessa perusoikeuksien toteuttamiseen sekä julkisen vallan käytön lakisidonnaisuuteen.

HALLINNON AUTOMATISOINTI JA TEKOÄLYN KÄYTTÖ

Suomessa oikeustieteissä ensimmäinen hallinnon automatisointia käsitellyt OTT Jorma Kuopuksen väitöskirja ”Hallinnon lainalaisuus ja automatisoitu verohallinto” julkaistiin yli 30 vuotta sitten (väitös 14.5.1988). Käsittelin myös omassa 10 vuotta sitten julkaistussa väitöskirjassani ”ICT-oikeus sähköisessä hallinnossa” (väitös 12.6.2009) hallinnon päätöksenteon automatisointia ja sen reunaehtoja osana ICT-oikeudellisia kysymyksiä. Teoksissa on esitetty hallinnon automatisointiin ja algoritmisoitumiseen liittyviä oikeudellisia reunaehtoja ja ongelmia, jotka ovat edelleen relevantteja eikä ajan kuluminen ole niitä muuttanut, koska hallinnollinen sääntely on Suomessa ollut peruspohjaltaan varsin kehittymätöntä viimeiset vuosikymmenet. Osaltaan tähän vaikuttavat myös perustuslaista johdettavat hallinnon toimintaan kohdistuvat vaatimukset muun muassa hallinnon lainalaisuudesta, lakisidonnaisuudesta, oikeusturvasta ja hyvästä hallinnosta.

Viimeisen vuoden aikana hallinnon automatisoinnin ongelmiin on herätty jälleen kerran, kun eduskunnan apulaisoikeusasiamies kysyi Verohallinnolta verovelvollisten oikeusturvan sekä hyvän hallinnon ja virkavastuun toteuttamisen perään pitkälle viedyssä automatisoidussa verotusmenettelyssä (ks. oheinen apulaisoikeusasiamiehen selvityspyyntö). Perustuslakivaliokunta otti puolestaan kantaa automatisoituun päätöksentekoon liittyviin sääntelyn reunaehtoihin tämän vuoden alkupuolella sekä ratkaisemattomiin kysymyksiin (PeVL 62/2018 vp). Muun muassa antamaani lausuntoon pohjautuen perustuslakivaliokunta totesi, että ”automatisoituun päätöksentekoon vaikuttaa sisältyvän useita hallinnon yleislaeilla nimenomaisesti säätelemättömiä kysymyksiä. Asiasta ja oikeusministeriön valmisteluvastuulle kuuluvan hallinnon yleislainsäädännön alan sääntelytarpeesta tulee tehdä selvitys. Selvityksessä on tarkasteltava, millä tavoin automatisoidun hallintomenettelyn ja päätöksenteon sääntely täyttää hallinnon lainalaisuuden, julkisuusperiaatteen ja hyvän hallinnon perusteisiin kuuluvien hallinnon oikeusperiaatteiden asettamia vaatimuksia sekä turvaa oikeusturvan ja virkamiesten virkavastuun asianmukaisen toteutumisen”.

Automatisoitu päätöksenteko ja tekoälyn hyödyntäminen viranomaisten toiminnassa on kehitystyön jatkumoa, jossa ollaan ajautumassa siihen pisteeseen, jossa teknologiset mahdollisuudet kohtaavat lainsäädännön asettamat rajat ja jolloin lainsäädäntöä on tarkoituksenmukaisin osin tarpeen kehittää kuitenkin perustuslaista johdettavien vaatimusten puitteissa. Tarkoituksenmukaisuus ei voi kuitenkaan tarkoittaa pelkästään hallinnon toiminnan taloudellisen tehokkuuden lisäämisyrityksiä, koska tällaiset tavoitteet ovat tietojärjestelmien käytössä osoittautuneet julkisessa hallinnossa pääsääntöisesti ”ilmaan puhaltamiseksi” vailla tosiasiallisia todennettavissa olevia taloudellisia säästöjä. Perusteet täytyy löytää esimerkiksi perusoikeuksien edistämisestä.

VIRKAVASTUU – PERIAATTEESSA

Yksi automatisoidun päätöksenteon ja tekoälyn hyödyntämisen rajoittavista tekijöistä on virkavastuuta ilmentävät vaatimukset. Perustuslain 118 §:n mukaan ”virkamies vastaa virkatoimiensa lainmukaisuudesta [––] Jokaisella, joka on kärsinyt oikeudenloukkauksen tai vahinkoa virkamiehen tai muun julkista tehtävää hoitavan henkilön lainvastaisen toimenpiteen tai laiminlyönnin vuoksi, on oikeus vaatia tämän tuomitsemista rangaistukseen sekä vahingonkorvausta julkisyhteisöltä taikka virkamieheltä tai muulta julkista tehtävää hoitavalta sen mukaan kuin lailla säädetään”. Erityisesti rikosoikeudellinen virkavastuu pitää pystyä kohdentamaan päätöksestä tai virkatoimesta vastanneeseen virkamieheen. Tietojärjestelmän tehdessä päätöksiä viranomaisten toiminnassa tällaisen vastuun kohdentamista on pääsääntöisesti hankalaa tai jopa mahdotonta osoittaa yksittäiseen virkamieheen siten, että vastuu tosiasiassa olisi todellista. OTT Jorma Kuopus luonnehti 1988 väitöskirjassaan tällaista vastuun hämärtymistä osuvasti pulverisoinniksi.

Suomessa ei ole ollut yleislaintasolla säädettynä hallintopäätöksiin kohdistuvia allekirjoitusvaatimuksia eikä hallintolain mukaan hallintopäätöksessä tarvitse olla mainittuna edes päätöksestä vastuussa olevaa henkilöä tai henkilöitä. Allekirjoitus on perinteisesti käsialanäyte, mutta sähköisessä toimintaympäristössä sähköiseen allekirjoitukseen liittyy erilaisia henkilöllisyyden sekä asiakirjojen alkuperäisyyden varmistavia tekijöitä.
Allekirjoituksen eräänä tarkoituksena on osoittaa päätöksissä se henkilö, joka on vastuussa päätöksestä. Allekirjoituksen perusteella myös voidaan jälkikäteen todentamaan, että päätöksen on tehnyt toimivaltaisen viranomaisen toimivaltainen virkamies ja että päätös on alkuperäinen. Yleislaintasoinen säädännäinen oikeus ei kuitenkaan tunnista tällaista allekirjoitusvaatimusta. Sen sijaan lainkäytössä on päätösten allekirjoittamiseen liittyviä vaatimuksia muun muassa päätöksen lopullisuuden sekä virkavastuun osoittamiseksi.

Allekirjoitusvaatimusta hallintoasioissa on yritetty oikeuskirjallisuudessa perustella vanhahtavilla julkisuuslain säännöksillä, joita on käytetty argumentoinnissa asiayhteydestään erotettuina. Tulkinnat julkisuuslakiin pohjautuvista allekirjoitusvaatimuksista lähinnä ilmentävät sitä, että päätöksenteon vastuisiin kaivataan selkeyttä ja avoimuutta, jota ei kuitenkaan voida lähteä kestävällä tavalla johtamaan julkisuuslaista. Virkavastuun osoittaminen muodostaa perusteen johonkin todennettavissa olevaan toimeen (allekirjoitukseen), jolla voidaan osoittaa päätöksenteosta vastuussa olevat henkilöt. Laillisuusvalvonnassa allekirjoituksen tarpeellisuutta on pyritty argumentoimaan epämääräisesti hyvällä hallinnolla (AOK OKV/399/1/2017, 10.11.2017), johon laillisuusvalvonnassa on tapana kaataa lähes kaikki sellaiset oikeudellisesti avoimet hallinnon toimintaan kohdistuvat kysymykset, joihin ei löydy selkeää vastausta lainsäädännöstä, mutta toimintaa halutaan arvostella. Virkavastuu ja sen osoittaminen hallinnollisessa päätöksenteossa ei näytä olleen ongelma hallintolakia säädettäessä, joskaan hallintolakia ei ole jostain syystä säädetty perustuslakivaliokunnan myötävaikutuksella.

Virkavastuun perään kysely tekoäly- ja algoritmihallinnossa on aiheellista, mutta vaikuttaa varsin myöhäisherännäiseltä, kun otetaan huomioon hallinnon päätöksentekoon kohdistuva nykyinen sääntely sekä automatiikkaa jo pitkään hyödyntäneet päätöksentekoprosessit. Jonkinlaista epätoivoista yritystä ja kipuilua virkavastuun toteuttamisesta osoittaa lausuntokierroksella oleva hallituksen esityksen luonnos laiksi henkilötietojen käsittelystä maahanmuuttohallinnossa, joka jo kertaalleen raukesi viime vaalikaudella eduskunnassa. Hallituksen esityksen luonnoksessa ehdotetaan, että Maahanmuuttoviraston ylijohtaja olisi vastuussa automaattista päätöksentekoa koskevasta menettelystä ja automatisoidusta yksittäispäätöksestä. Ilmeisesti Maahanmuuttoviraston ylijohtajan pätevyysvaatimuksiin kuuluu jatkossa tietojärjestelmien koodin ja algoritmien lukemisen tuntemus, jotta virkavastuu tosiasiassa voisi toteutua rikosoikeudellisesti. Näin ne vaatimukset kehittyvät myös virkamiesjohdon osalta teknologisen kehitystyön myötä ja koodareille näyttää olevan tarvetta virkamiesjohdossa jatkossa.

Itä-Suomen yliopiston oikeustieteiden laitoksen ”Kehittyvän julkisen hallinnon oikeus” -tutkimustiimi on mukana tutkimassa tekoälyn ja automatiikan hyödyntämisen mahdollisuuksia opetuksessa yliopistojen yhteisessä AnalytiikkaÄly-hankkeessa.

Lisätietoja tekoälystä ja automatisoidun päätöksenteon haasteista:
Lausunto perustuslakivaliokunnalle
ICT-oikeus sähköisessä hallinnossa
Chatbot-sovellus osana viranomaisten neuvontapalveluja

Algoritmit oikeudellisen päätöksenteon tukena

 

 

 

Mika Sutela

Kirjoittaja on väitellyt Itä-Suomen yliopiston oikeustieteiden laitokselta.

Voitko kuvitella
päivän, jolloin tekoäly tukee oikeudellista päätöksentekoa? Tekoälytuomarin aikakausi voi olla luultua lähempänä. Hurjaa vauhtia arkipäiväistyvällä tekoälyllä tarkoitetaan yleensä ihmisten älyllistä toimintaa imitoimaan pyrkivää tietotekniikkaa. Älyllisessä toiminnassa ovat mukana myös tunteet sekä jonkinasteinen tietoisuus. The Curious AI Companyn toimitusjohtaja Harri Valpola totesi Ylen Perjantai-ohjelmassa (9.3.2018), että ihmiset haluavat nähdä älyn kiinni jossakin fyysisessä laitteessa, ja siksi robotit kiehtovat kovasti ihmisiä, mutta tekoälyn kehitys menee jossakin muualla. Tällä hetkellä kaikkein kehittyneimmät tekoälyt ovat puhdasta ohjelmistoa.

Analytiikasta puhuttaessa on usein kyse algoritmeista, jotka ymmärtävät ihmisten käyttäytymistä. Arjessamme taustalla olevat algoritmit tiedostamattamme määrittävät Google-hakujen tuloksia, Yle Areenassa suositeltuja ohjelmia ja Spotifyssä suositeltua musiikkia, sosiaalisessa mediassa näkemiämme julkaisuja sekä verkkokaupan mainoksia. Esimerkiksi verkkokauppaa personoidaan aiemman käyttäytymisen mukaan, mikä vaikuttaa sivuston visuaalisuuteen, tuotesuosituksiin ja kampanjoihin. Lisäksi algoritmit muun muassa ennustavat vaalituloksia ja seulovat työhakemuksia.

Algoritmit ovat valtaosin liikesalaisuuksia, joiden mekanismeja ei paljasteta ulkopuolisille. Ongelmallista on, ettei niiden tuottamia tuloksia voida arvioida. Tuomarin on tiedettävä, miten algoritmi toimii ja mitä dataa sen kehittämiseen on käytetty. Voi kuitenkin olla, etteivät edes ohjelmoijat tiedä, millä perusteilla algoritmit suosituksiinsa päätyvät. Läpinäkyvyyden puuttuessa tuloksiin päädytään ilman, että kukaan tietää, millä perusteilla niihin on päädytty.

Helsingin yliopiston tietojenkäsittelytieteen professori Tommi Mikkonen ei ole huolissaan algoritmeista; ne ovat ihmisten tekemiä ja ihmisten hallittavissa. Tässä hengessä algoritmit tavataan esittää puolueettomina ja matemaattisen neutraaleina, mutta silti ne sisältävät aina laatijoidensa oletuksia. Neutraalit algoritmit päätyvät toistamaan ihmisten ennakkoluuloja, koska algoritmien käyttämä data on ihmisten ennakkoluulojen muokkaamaa. Algoritmit perustuvat aiemmin tehtyihin valintoihin ja asenteisiin. Kun yliopistoja paremmuusjärjestykseen laittava algoritmi vertailee mm. tieteellisten julkaisujen määriä, sisäänpääsyprosentteja ja valmistusaikoja, algoritmin tekijät olettavat, että nämä seikat kuvaavat parhaiten yliopistojen menestymistä. Tulos voisi olla toinen, jos huomioon otettaisiin myös esimerkiksi opiskelijoiden taustat.

Digitalisoitumisen moninaiset vaikutukset oikeudenhoitoon, lakimiestyöhön sekä kansalaisten oikeuksiin on yhä akuutimpi kysymys, joka muuttaa sekä koko oikeudenhoitoa että yksittäisen lakimiehen työtä lähitulevaisuudessa. Hankejohtaja Marko Loisa oikeusministeriöstä on pohtinut, että poliisi–syyttäjä–tuomioistuin -akselilla on paljon sellaista, mitä voitaisiin analytiikkatyökaluja käyttämällä automatisoida ja sujuvoittaa. Poliisi voi hyödyntää dataa tehdessään päätöksiä, minne ja milloin resursseja on suunnattava. Tietokone voidaan opettaa lukemaan pykäliä ja tulkitsemaan oikeustapauksia. Kone pystyy lyhyessä ajassa käymään läpi merkittävästi enemmän tapauksia kuin yksikään ihminen. Asianajajan ammatissa riitely on ydinasia ja sitä se tulee olemaan myös tulevaisuudessa. Tästä huolimatta tekoäly on asianajoalalla jo nyt kuuma aihe, sillä tekoälyä voidaan käyttää tukemaan päätöksentekoa ja automatisoimaan mekaanisempia tehtäviä säästäen asianajajan aikaa rutiininomaisilta paperitöiltä.

Oikeussaleissa on jo kokeiltu algoritmeihin perustuvaa data-analytiikkaa ja päätöksentekoa. Tietokonealgoritmeihin perustuvia järjestelmiä on käytetty uusimisriskin arviointiin Yhdysvalloissa jo ainakin toista vuosikymmentä. Yhdysvaltojen kymmenissä osavaltioissa tuomarit ovat saaneet päätöstensä tueksi COMPAS-järjestelmän algoritmien suorittamia laskemia siitä, millä todennäköisyydellä oikeuden eteen tuotu henkilö syyllistyy uudestaan rikokseen. Algoritmien laskelmissa on huomioitu 137 erilaista muuttujaa, jotka ennustavat todennäköisyyttä, jolla rikollinen syyllistyy uuteen rikokseen, jää kiinni ja tulee tuomituksi. Ongelmaksi tässä muodostuu aineisto: uusimisasteen ajatellaan kertovan siitä, kuinka todennäköisesti henkilö tulevaisuudessa tekee rikoksen, mutta tietoa on kuitenkin vain rikoksista kiinnijääneistä ja tuomituksi tulleista, mikä tuottaa järjestelmällisen harhan. COMPAS-järjestelmä on kuitenkin vähentänyt tuomareiden henkilökohtaisten käsitysten merkitystä, mikä on johtanut johdonmukaisempiin tuomioihin.

Muuan englantilais-amerikkalainen tutkijaryhmä puolestaan tarkasteli tutkimuksessaan Euroopan ihmisoikeustuomioistuimen ratkaisuja ja havaitsi, että tekoälytuomari ennusti 584:stä aiemmin tehdyistä ratkaisuista 79 prosenttia oikein. Tutkijoiden mukaan EIT:n päätökset olivat vahvemmin yhteydessä tapausten ei-oikeudellisiin seikkoihin kuin suoraan oikeudellisiin argumentteihin. Havainto tukee aiempia tuomioistuinten päätöksenteosta tehtyjä tutkimuslöydöksiä. Yksi luotettavampia päätösten selittäjiä oli niissä käytetty kieli.

Ihanteellinen tuomari on kuin kone, joka ei anna väsymyksen, omien tunteidensa, mieltymystensä tai näkemystensä vaikuttaa päätöksiin. Ihminen ei kuitenkaan ole kone. Rangaistuksen määräämisen ollessa yksi tärkeimmistä osavaiheista rikosprosessissa, algoritmeilla on suuri potentiaali apuvälineenä ratkaisujen tuottamisessa oikeusturvan sekä yhdenmukaisuuden näkökulmasta. Algoritmit eivät tule korvaamaan oikeudellista harkintaa ja perinteisiä tuomareita, mutta niillä tulee varmasti olemaan entistä tärkeämpi rooli rikoslainkäytössä. Rikokset ja tilannekohtaiset tekijät ovat aina uniikkeja, eikä kahta samanlaista tapausta ole olemassa. Algoritmit eivät kykene ottamaan huomioon kaikkia yksittäistapausten erityispiirteitä, minkä vuoksi tuomareiden on tehtävä varsinainen päätös. Kun algoritmien tulosten käyttö on ohjeellista, ja tuomarit hyödyntävät niitä oman harkintansa mukaisesti, säilyy päätöksenteossa inhimillinen puoli.

Ihminen laumaeläimenä tekee miten muutkin tekevät. Algoritmit tehostavat sekä yksilöllisyyttä että laumakäyttäytymistä paitsi helpottamalla sopivan, oikeudenmukaisen rangaistuksen määrittämistä, myös kertomalla, mitä yleensä samankaltaisista rikoksista tuomitaan rangaistukseksi. Vaikka algoritmeilla on omat rajoitteensa, ne voivat joka tapauksessa edistää rangaistuskäytännön yhtenäisyyttä. Kun tuomari tekee päätöksen algoritmiperusteisen suosituksen pohjalta, esimerkiksi se, milloin oikeudenkäynti pidetään tai millainen olo tuomarilla on kyseisenä päivänä, ei vaikuta niin todennäköisesti päätökseen. Algoritmit, jotka poistavat muun muassa vastaajan sukupuolen, etnisen taustan ja kotipaikan vaikutukset, poistavat harhaisuutta, joka liittyy ihmisten tekemiin päätöksiin.

Tuomareita avustavien algoritmien tulisi olla läpinäkyviä. On pyrittävä siihen, että tuomittavana oleva henkilö saisi tietoa ratkaisun taustoista. Perinteiset dataa hyödyntävät menetelmät, kuten esimerkiksi klassiset tilastomenetelmät, ovat yleensä melko läpi­näkyviä. Nämä ovat kuitenkin vaarassa unohtua tekoälykeskustelun lomassa. On muistettava, että tekoäly on vain yksi datan hyödyntämisen menetelmä muiden joukossa. Jo melko yksinkertaisilla kuvailevilla analyysimenetelmillä olisi mahdollista antaa tukea oikeudelliseen päätöksentekoon. Toisinaan jopa yksinkertaiset tilastolliset peukalosäännöt ovat likimain yhtä tarkkoja kuin monimutkaiset algoritmit. Tilastolliset peukalosäännöt toimivat parhaiten silloin, kun tavoitteet ovat selkeästi määriteltyjä ja kun dataa on tarjolla aiemmista ratkaisuista.