Näkemys · 01 — Tekoälyn hallinta

Tekoäly on vastuuvelvollisuuden kysymys.

Kiinnostava kysymys ei ole se, onko malli vaikuttava. Kysymys on, voidaanko ministeriötänne, sairaalaanne tai valvontaviranomaistanne pitää vastuussa päätöksestä, jossa tekoäly oli yksi vaihe.

  1. i.Väite

    Tekoäly julkisella sektorilla on vastuuvelvollisuusongelma ennen kuin se on kyvykkyysongelma. Instituutio, ei malli, kantaa seuraamuksen.
  2. ii.Miksi sillä on väliä

    EU:n tekoälysäädös on voimassa; korkean riskin järjestelmiä koskeva sääntely alkaa elokuussa 2026. Vaatimustenmukaisuus ei vapauta käyttöönottavaa instituutiota vastuusta. Tarkastus, tuomioistuin ja parlamentaarinen valvonta kohdistuvat siihen instituutioon, joka otti järjestelmän tuotantoon.
  3. iii.Operatiivinen testi

    Jokaisesta tekoälyn muovaamasta päätöksestä: voitko esittää pyynnöstä prompin, mallin version, arviointi­näytön, ihmisen-silmukassa-tallenteen, palautussuunnitelman ja lopetus­kriteerin? Jos et, et ole vielä valmis tuotantoon.
  4. iv.Missä autan

    Ministeritason tekoälypolitiikan kehystäminen. Arviointi- ja hankintakuri julkisen sektorin tekoälyssä. Hallitustason tekoälyn hallinta. Lainsäädännön muotoilu ja kääntäminen Brysselin englannista jäsenvaltioiden käytäntöön.

Virhe, jonka eurooppalaiset instituutiot toistavat tekoälyn kanssa, on kohdella sitä kyvykkyyden kysymyksenä eikä vastuuvelvollisuuden kysymyksenä. Kyvykkyyskysymys on äänekäs — puolen vuoden välein ilmestyy uusi malli, joka pärjää jossakin paremmin, ja uusi pilottikierros käynnistyy. Vastuuvelvollisuus­kysymys on se, johon ministerin, tietohallintojohtajan tai tarkastus­lautakunnan on tosiasiassa vastattava silloin, kun valvoja, eduskunnan valiokunta tai kansalaisvalitus tulee paikalle: kun päätöksemme prosessissa oli tekoälyn muovaama vaihe, voimmeko selittää sen, perustella sen ja ottaa siitä vastuun?

Se on ainoa kysymys, joka selviää eduskunta­tutkinnasta, oikeus­juttua tai perjantai-illan uutiskierrettä. Kaikki muu on hankintaa.

Vastuuvelvollisuusongelma

EU:n tekoälysäädös on nyt ollut voimassa riittävän pitkään, että alkuhuuma on hälvennyt. Yleiskäyttöisten tekoäly­mallien (GPAI) säännöt alkoivat soveltua elokuussa 2025; korkean riskin järjestelmien säännöt alkavat elokuussa 2026. Toimeenpano­säädökset, harmonisoidut standardit ja ensimmäiset vaatimustenmukaisuus­arviot ovat yhä neuvottelussa.

Säädös on hyvää lainsäädäntöä. Se on myös infrastruktuuri, jota instituutiot kohtelevat yhä jonkun toisen vastuuna. Compliance-tiimi odottaa valvojan ohjeistusta. Hankintatiimi odottaa toimittajan sertifikaattia. Operatiivinen tiimi odottaa molempia. Yksikään näistä odotuksista ei poista instituution vastuuta lopputuloksesta. Kunta, jonka sosiaalipalvelujen chatbot ohjaa haavoittuvassa asemassa olevan hakijan väärään paikkaan, ei voi puolustaa itseään sanomalla, että malli läpäisi vaatimustenmukaisuus­arvion. Pankki, jonka luotto­päätökset siirtyvät hiljaa hienosäädetyn luokittimen suuntaan, ei voi puolustautua osoittamalla mallin korttia.

Vastuuvelvollisuus on se osa tekoälypinoa, jota ei voi ulkoistaa. Tekniset osat voi hankkia; hallintotyylin ei.

Arvioinnit eivät ole benchmarkkeja

Mallin kortti listaa, mitä järjestelmä osaa synteettisissä testeissä. Se ei kerro, mitä se tekee sinun datallasi, sinun työnkulussasi ja sinun vikamuoteissasi. Tulostaulukko on markkinoinnin esine. Arviointi on tehtäväsidonnainen, käyttöönotto­tietoinen, toistettava ja instrumentoitu kaatumaan äänekkäästi.

Tämä on kuri, joka puuttuu useimmista julkisen sektorin tekoälyhankinnoista. Toimittaja esittelee benchmarkin; ostajan pitäisi ajaa arviointi. Toimiva arviointi vastaa neljään kysymykseen: Miten järjestelmä suoriutuu edustavasta otoksesta meidän eläviä tapauksiamme? Miten se epäonnistuu, ja kuinka usein? Kuinka nopeasti huomaamme epäonnistumisen? Mikä on epäonnistumisen kustannus toiselle päässä olevalle ihmiselle?

Jos hankintaprosessisi ei voi vastata näihin neljään mistään tekoälykomponentista, jota olet ottamassa käyttöön, hankinta ei ole vielä valmis allekirjoitettavaksi.

Käyttöönotto on paikka, jossa politiikka tosiasiassa elää

Politiikka elää käyttöönotossa, ei lainsäädännössä. Tekoälysäädöksen harkitsevimmat artiklat menetetään valvomaton chatbot, liikaa luotettu päätöksenteon tukityökalu tai integraatio, joka ohittaa valvonta­komitean koska se rajattiin "prosessi­automaatioksi". Järjestelmän oikeudellinen asema muuttuu sillä hetkellä, kun sen tuotos luetaan kanslistille, joka kohtelee sitä ohjeena.

Käyttöönoton kurilla on neljä osaa. Ihminen silmukassa siellä, missä laki ja seuraukset sitä vaativat — ja silmukan on kannettava painoa, ei olla teatraalinen. Auditoinnin kestävä lokitus, jossa todellinen prompti, mallin versio ja päätös tallennetaan yhdessä. Palautus­suunnitelmat, joita on testattu tositoimissa. Määritelty lopetuskriteeri: mittari tai kynnys, jolla järjestelmä otetaan tuotannosta pois, kirjattuna ennen kuin järjestelmä menee sisään.

Useimmissa nykyisissä julkisen sektorin käyttöönotoissa on yksi tai kaksi näistä neljästä. Lähes yhdelläkään ei ole kaikkia neljää.

Kyvykkyyttä ilman näytöstä

Frontier-mallit ovat tärkeitä. Niin ovat avoimet painot, jotka nyt ajetaan 64 GB:n läppärillä. Vastuullisen instituution kiinnostavat valinnat eivät ole OpenAI:n, Anthropicin ja Googlen välillä. Ne ovat hallittavissa olevan kyvykkyyden ja hallitsemattoman kyvykkyyden välillä.

Tämä valinta liittyy harvoin siihen, mikä malli. Se liittyy siihen, missä malli asuu, miten sen tuotokset arvioidaan ja mitä tapahtuu, kun se on väärässä. Pieni avoin malli, joka ajetaan hallitsemassasi infrastruktuurissa, jossa on arviointi­paketti, ihminen silmukassa ja palautussuunnitelma, on vastuullisempi järjestelmä kuin tehokkain isännöity huippumalli ilman näitä.

Kyvykkyys ilman näytöstä on toimintaperiaate. Demo ei ole käyttöönotto. Tiedote ei ole politiikkaa.

Mitä työstän

Ministeritason tekoälypolitiikan kehystäminen — mukaan lukien Suomen vuoden 2026 raportti uusista teknologioista ja digitaalisesta resilienssistä. Arviointi­menetelmät ja hankintakuri julkisen sektorin tekoälyn käyttöönotossa, neuvonantotyössä valvojien ja keskeisten palvelujen toimijoiden kanssa. Tekoälyn hallinta hallituksille ja valvonta­viranomaisille. Ja Suomen Sosialidemokraattisen Puolueen teknologiatyöryhmä, jossa tekoälysäädös käännetään Brysselin englannista lainsäädäntö- ja puoluepolitiikan kielelle.

Kumppani­essee Vuoden 2026 tekoälymaisema — huippu ylhäällä, perustaso alhaalla luonnostelee, miltä mallimarkkinat juuri nyt näyttävät ja miksi vuoden 2026 vaikutusvaltaisin julkaisu on se, joka ei maksa mitään.

Konkreettisista toimeksiannoista — briefingeistä, hallitustyöstä, arviointi­katselmuksista tai puhumisesta — ota yhteyttä.