Uusi teknologia ilmestyy usein työpöydälle ensin kokeiluna. Siitä tulee vähitellen apuväline, josta muotoutuu lopulta tärkeä osa arkea. Viimeisen parin vuoden aikana näin on käynyt myös tekoälyn kanssa. Siinä missä vain hetki sitten generatiivinen tekoäly kuului lähinnä tutkimuslaboratorioiden ja teknologiayritysten kehityshankkeisiin, käytetään sitä nykyään jatkuvasti esimerkiksi raporttien kirjoittamiseen, taustaselvitysten kokoamiseen, analyysien tuottamiseen ja yhä useammin myös päätöksenteon tukena.

Samaan aikaan kehittyvät niin sanotut tekoälyagentit, eli järjestelmät, jotka eivät vain vastaa kysymyksiin tai suorita yksittäisiä tehtäviä, vaan voivat koordinoida työtä, jakaa tehtäviä ja seurata niiden etenemistä. Ne eivät ainoastaan toimi osana työprosesseja, vaan alkavat ottaa haltuunsa toimintoja, jotka ovat perinteisesti kuuluneet johtamiseen. Samalla kasvaa tarve ymmärtää, mitä riskejä kehitys tuo mukanaan – ja kenelle.

”Tekoälyn kehitystä leimaa eksponentiaalinen kasvu. Kyvykkyydet voivat parantua hyvin lyhyessä ajassa tavalla, jota on vaikea ennustaa etukäteen”, sanoo tekoälyn turvallisuutta tutkiva Anna Katariina Wisakanto.

Kuva: Pentti Hokkanen/Flaming Star Oy

Wisakanto työskentelee kansainvälisessä Center for AI Risk Management & Alignment -ajatushautomossa, jossa tutkitaan tekoälyn turvallisuutta ja riskienhallintaa. Lisäksi hän on tekoälyturvallisuuden tutkimusta edistävän Turvallisen tekoälyn keskus -verkoston perustajajäsen ja hallituksen puheenjohtaja. Hänen tutkimuksensa liikkuu teknologian ja yhteiskunnan rajapinnassa.

”Tutkimukseni ytimessä on kysymys, joka on sekä tekninen että yhteiskunnallinen: miten voimme ymmärtää ja mitata tekoälyn riskejä tavalla, joka todella palvelee päätöksentekoa?”

Murros, joka koskee ajattelua

Tekoälyä on helppo ajatella uutena ohjelmistona tai tehokkaampana työkaluna. Wisakanto pitää tätä kuitenkin liian yksinkertaisena tapana hahmottaa muutosta.

”Aiemmat teknologiat automatisoivat tehtäviä, mutta tekoäly ja generatiivinen tekoäly etenkin automatisoivat päätöksentekoa ja ajattelua.”

Tämän myötä teknologia siirtyy alueille, joita on perinteisesti pidetty asiantuntijatyön ytimessä: tiedon tulkintaan, vaihtoehtojen punnitsemiseen ja kokonaisuuksien jäsentämiseen. Samalla tekoälyn tekninen toimintalogiikka poikkeaa aiemmista digitaalisista järjestelmistä. Tämä tarkoittaa sitä, että esimerkiksi kielimallit toimivat tavalla, jossa käskyjä ja dataa ei pystytä erottamaan toisistaan.

”Kielimallien kohdalla käskyjä ei pystytä erottamaan datasta. Se ei ole bugi, vaan teknologian perusominaisuus.”

Käytännössä tämä tarkoittaa sitä, että mikä tahansa dokumentti tai viesti, jonka tekoäly käsittelee, voi samalla ohjata sen toimintaa tahattomasti tai tarkoituksella.

Lisäksi tekoäly toimii luonnollisella kielellä, joka on aina monimerkityksellistä ja kontekstiriippuvaista. Näiden ominaisuuksien vuoksi tekoälyn käyttöönotto ei ole sama asia kuin uuden tietojärjestelmän hankinta.

”Jos emme ymmärrä tätä eroa, suunnittelemme tekoälyn käyttöönoton kuin kyse olisi vain uudesta IT-järjestelmästä. Se olisi iso virhe”, Wisakanto toteaa.

Kun tekoäly auttaa asiantuntijaa

Tekoälyn vaikutukset näkyvät kuitenkin jo nyt monissa organisaatioissa. Valtiokonttorin johtava asiantuntija Virpi Hotti työskentelee datan ja analytiikan hyödyntämisen parissa sekä on mukana kehittämässä Valtiokonttorin tekoälyratkaisuja. Hän muistuttaa, että tekoäly toimii usein ennen kaikkea asiantuntijan apuna.

Virpin mukaan tekoälyn mitattavista hyödyistä ei ole toistaiseksi raportoitu juurikaan kansallisella tasolla.

”Tekoäly auttaa erityisesti tilanteissa, joissa pitää lähteä puhtaalta pöydältä tekemään jotain ja käydä läpi paljon tietopohjaa. Tällaisissa asiantuntijoiden valmistelutehtävissä siitä on paljon apua.”

Se voi tarkoittaa esimerkiksi laajojen aineistojen läpikäyntiä, raporttien taustoitusta tai vaihtoehtojen kartoittamista. Näin työ, joka aiemmin vei päiviä tai viikkoja, voidaan tehdä huomattavasti nopeammin. Silti tekoälyn vaikutuksia on vaikea mitata tarkasti.

”Jos puhutaan mitattavista hyödyistä, niitä ei ole vielä kovin paljoa raportoitu kansallisella tasolla”, Hotti sanoo.

Arviot vaihtelevat paljon: ”Välillä nähdään arvioita jopa 70–90 prosentin tehokkuusparannuksista, mutta esimerkiksi Suomen Pankin arviot ovat olleet paljon maltillisempia, noin prosentin luokkaa bruttokansantuotetasolla.”

Tekoälyn merkitys ei siis näy vielä suurina taloudellisina loikkina. Vaikutus liittyy tällä hetkellä enemmän siihen, miten asiantuntijatyö vähitellen muuttuu. Tekoälyn seurauksena kun osa rutiineista automatisoituu, mutta samalla tarve tulkinnalle ja arvioinnille kasvaa.

Asiantuntijuus muuttuu, vastuu ei

Hotin mukaan tekoäly ei muuta vain työvälineitä, vaan myös asiantuntijuuden luonnetta.

”Sanon usein, että asiantuntija loistaa lainavalolla niin kauan, kunnes omat valot syttyvät.”

Ajatus viittaa siihen, että asiantuntijuus rakentuu perehtymällä aiempaan tietoon, tutkimuksiin, raportteihin ja keskusteluihin. Vähitellen tästä syntyy oma ymmärrys. Tekoäly voi auttaa tässä prosessissa, mutta se voi myös oikaista sitä. Vaarana kuitenkin on, että tekoälyn tehtäväksi annetaan liikaa:

”Jos vain loistaa tekoälyn avulla ilman, että on itse perehtynyt siihen tietoaineistoon, jonka pohjalta väittää jotakin, se muuttaa asiantuntijuuden luonnetta aika radikaalisti”, Hotti toteaa.

Turvallisuus ei ole enää vain tekninen kysymys

Tekoäly muuttaa turvallisuusajattelua merkittävästi. Aiemmin tietoturvassa keskityttiin pitkälti siihen, miten hyökkäykset estetään ennakoiden ja uhkia tunnistamalla, palomuureja rakentamalla sekä sulkemalla järjestelmät ulkopuolisilta. Wisakannon mukaan tämä ei enää riitä.

”Sen sijaan, että ajatellaan, että kaikki virheet ja väärinkäytökset voidaan estää on siirryttävä paradigmaan, jossa rajataan vahingot olettaen, että jokin menee pieleen.”

Käytännössä tämä tarkoittaa sitä, että järjestelmät on suunniteltava kestämään virheitä ja väärinkäytöksiä. Täydellinen suoja ei ole realistinen tavoite, vaan keskeistä on se, miten laajoiksi seuraukset voivat kasvaa. Turvallisuus ei ole enää vain tekninen kysymys, vaan se liittyy yhä enemmän siihen, miten organisaatiot rakentavat prosesseja, valtuuksia ja valvontaa.

Toisin sanoen järjestelmät on suunniteltava niin, että virheen tai väärinkäytön vaikutukset eivät pääse kasvamaan hallitsemattomaksi.

”Tekoälystä tulee osittain psykologinen ja organisatorinen ongelma”, Wisakanto sanoo.

Hyökkäykset eivät myöskään muistuta enää pelkästään teknisiä murtoja, vaan ne noudattavat koko ajan enemmän sosiaalisen manipuloinnin kaavaa. Siinä hyödynnetään tuttuja keinoja, kuten auktoriteettiin vetoamista, kiireen tuntua ja vakuuttavaa kieltä. Kun kaikki tämä yhdistetään tekoälyn kykyyn tuottaa uskottavaa sisältöä, rajat teknisen ja inhimillisen riskin välillä hämärtyvät.

Tekoäly on myös vallan kysymys

Keskustelu tekoälyn riskeistä ei Wisakannon mukaan aina keskity olennaiseen. Julkinen keskustelu pyörii pitkälti kahden ääripään välillä, joissa tekoäly näyttäytyy lähes rajattomana tehokkuuden lähteenä tai toisaalta uhkana koko ihmiskunnalle.

Näiden vastakkaisten näkemysten väliin jää kuitenkin laaja alue, jossa tekoälyn todelliset vaikutukset näkyvät. Näitä ovat esimerkiksi arjen työ, organisaatioiden käytännöt ja päätöksenteon rakenteet. Juuri näissä paikoissa piilevät sekä tekoälyn merkittävimmät riskit että mahdollisuudet, mutta näistä kuitenkin puhutaan usein vähemmän.

”Suomessa keskustelu on usein aika tuottavuuskeskeistä. Puhutaan tehokkuudesta ja liian vähän siitä, mitä tekoälyn myötä menetetään ja miten valtarakenteet muuttuvat.”

Wisakanto muistuttaa, että tekoäly ei kuitenkaan ole vain väline tehokkuuden lisäämiseen. Se muuttaa myös sitä, miten valta jakautuu organisaatioissa ja koko yhteiskunnassa. Teknologian lisäksi kyse on myös siitä, kuka määrittelee sen käytön ehdot ja tekee lopulta päätökset.

”Tekoäly on valtaa. Se vaikuttaa siihen, kuka hallitsee tietoa, kuka määrittelee toimintatavat ja päättää järjestelmien ehdoista.”

Digitaalinen suvereniteetti tekoälyn aikakaudella

Tekoälyn valta ei myöskään rajoitu vain yksittäisiin päätöksiin tai organisaatioihin. Se liittyy myös siihen, millaisiin järjestelmiin ja alustoihin työ yhä enemmän kytkeytyy. Hotti nostaa esiin näkökulman, joka on noussut viime aikoina entistä keskeisemmäksi myös julkisessa keskustelussa: digitaalisen suvereniteetin.

Käytännössä kysymys on siitä, kuinka riippuvaisia organisaatiot ja yhteiskunnat ovat ulkopuolisista teknologioista ja palveluista, ja mitä tapahtuu, jos näiden toimintalogiikka, saatavuus tai ehdot muuttuvat.

Tekoälyn kohdalla tämä korostuu: ”Monet käytetyimmistä järjestelmistä perustuvat globaaleihin alustoihin, joiden kehityssuuntaa yksittäinen organisaatio tai edes valtio ei voi suoraan ohjata. Samalla päätöksenteko, tiedon käsittely ja työprosessit alkavat nojata yhä vahvemmin näihin järjestelmiin”, Hotti toteaa.

Digitaaliseen suvereniteettiin liittyykin kysymyksiä siitä, missä määrin organisaatio säilyttää kyvyn ymmärtää, hallita ja tarvittaessa muuttaa käyttämiään järjestelmiä. Tästä on tullut yhä keskeisempi ongelma, kun teknologinen kehitys kietoutuu entistä tiiviimmin geopoliittisiin jännitteisiin ja valtioiden väliseen kilpailuun.

Organisaatiot uuden äärellä

Wisakannon mukaan menestyvät organisaatiot eivät ole niitä, jotka sitoutuvat yhteen kuvaan siitä, mihin teknologia on menossa. Nopeasti kehittyvässä ympäristössä tarkka ennakointi on usein mahdotonta, ja siihen keskittyminen voi jopa hidastaa reagointia. Keskeisempää on hahmottaa vaihtoehtoiset kehitykset ja kyetä sopeutumaan muutokseen silloin, kun se tapahtuu.

”Ne organisaatiot, jotka pärjäävät parhaiten, eivät yritä ennustaa mihin tietty teknologia päätyy tai milloin, vaan rakentavat kyvyn mukautua nopeasti.”

Mukautumiskyky ei kuitenkaan synny tyhjästä. Se vaatii pohjalle jotain mitä Wisakanto kutsuu resilienssiksi. Se ei tarkoita pelkästään varautumista riskeihin, vaan sitä, että organisaatiolla on riittävästi marginaalia kestää häiriöitä niin, että sen kyky toimia epävarmuudessa, oppia nopeasti ja muuttaa tarvittaessa suuntaa säilyy. Resilienssi on ennen kaikkea organisaation ominaisuus. Se on tapa luoda rakenteita, kulttuuria ja päätöksentekoa niin, että ne kestävät muutosta.

”Resilienssi on tulevaisuusvalmiin talouden perusedellytys.”

Samalla organisaatioiden on määriteltävä selvästi vastuut ja roolit. Kun tekoäly osallistuu yhä useammin työn tekemiseen, ei riitä, että tiedetään, mitä tehdään. Sen lisäksi on ymmärrettävä, kuka tekee päätökset ja millä perusteella. Ilman tätä vastuu voi hämärtyä huomaamatta.

”Pitää jatkuvasti määritellä, missä ihminen päättää, missä kone päättää, ja miksi.”

Vaikuttamisen aika on nyt

Wisakanto tutki aiemmin Cambridgen yliopistossa, miten automatisoidut järjestelmät vaikuttavat ihmisten päätöksentekokykyyn. Häntä huolestuttaa erityisesti yksi asia: teknologinen muutos voi vaikuttaa siihen, miten ihmiset kokevat oman roolinsa työssä ja yhteiskunnassa. Jos tekoäly alkaa ohjata työtä huomaamatta, vaarana on, että ihmiset alkavat kokea olevansa järjestelmien käyttäjiä enemmän kuin niiden ohjaajia.

”Huolestuttaa se, että ihmisten kokemus omasta toimijuudesta heikkenee”, Wisakanto sanoo.

Sama ajatus nousee esiin myös asiantuntijuudesta puhuttaessa. Hotin mukaan tekoäly voi auttaa asiantuntijaa työssä, mutta se ei voi korvata ymmärrystä, jonka varaan asiantuntijuus rakentuu.

”Kaikki mitä viet eteenpäin omassa nimessäsi ilman lähdeviitteitä, on sinun omaa väitettäsi”, Hotti muistuttaa.

Wisakannon mukaan juuri nyt eletään hetkeä, jolloin kehityksen suuntaan voidaan vielä vaikuttaa. Hän suhtautuu myönteisesti siihen, että tekoälyyn liittyviä ongelmia on alettu ottaa vakavasti ja niistä on alettu keskustella. Erityisesti Suomen lähtökohdat ovat hänen mukaansa vahvat:

”Suomella tässä on paljon mahdollisuuksia, etenkin koska olemme niin digitalisoitunut ja korkean luottamuksen yhteiskunta. Meillä on aidosti edellytykset näyttää myös globaalilla tasolla suuntaa siinä, millaisia ratkaisuja voidaan rakentaa.”

Mahdollisuus ei kuitenkaan ole auki loputtomasti. Teknologian kehitys etenee nopeasti, ja monet ratkaisut alkavat vakiintua käytännöiksi ennen kuin niitä ehditään kunnolla arvioida tai kyseenalaistaa. Se mikä tänään näyttäytyy kokeiluna, voikin jo huomenna olla osa arkea. Siksi Wisakanto pitää tärkeänä sitä, että organisaatiot toimivat nyt.

Millaisen yhteiskunnan haluamme rakentaa?

Lopulta kyse on laajemmasta asiasta kuin pelkästä teknologiasta. Tekoälyyn liittyvät kysymykset ovat kysymyksiä myös suunnasta, arvoista ja siitä, millainen rooli ihmiselle halutaan jättää järjestelmien rinnalla.

”Kysymys ei ole siitä, miten hyödynnämme tekoälyä, vaan siitä, millaisen yhteiskunnan haluamme rakentaa ja onko sillä resilienssiä kestää se, mitä on tulossa.”

Juuri siksi turvallisuus syntyy siitä, miten suhtaudumme epävarmuuteen. Pyrimmekö poistamaan kaikki riskit vai opimmeko toimimaan niiden kanssa?

Jos tekoälyn käytöstä pitäisi muistaa yksi asia, Wisakannon vastaus onkin selvä:

”Kohtele tekoälyäsi sisäpiiriläisenä ja suunnittele rajattu epäonnistuminen.”

Turvallisuus ei synny siitä, että kaikki menee oikein, vaan siitä, että varaudutaan siihen, että jokin menee pieleen. ”Sen sijaan, että kysyt, miten estämme tämän, kysy, mikä on pahinta mitä voi tapahtua, jos tämä tapahtuu – ja onko se hyväksyttävissä?”

****

Teksti: Paula Minkkinen
Etusivun kuva ja Virpin kuva: Henni Purtonen
Annan Katariinan kuva: Pentti Hokkanen/Flaming Star Oy

Anna Katariina Wisakanto on tekoälyn turvallisuutta tutkiva asiantuntija ja kansainvälisen Center for AI Risk Management & Alignment -ajatushautomon vanhempi tutkija. Hän on myös Turvallisen tekoälyn keskus -verkoston perustajajäsen ja hallituksen puheenjohtaja. Wisakannon tutkimus sijoittuu teknologian ja yhteiskunnan rajapintaan ja keskittyy erityisesti siihen, miten tekoälyn riskejä voidaan ymmärtää, mitata ja hallita päätöksenteon tueksi.

Virpi Hotti on Valtiokonttorin johtava asiantuntija, joka työskentelee datan ja analytiikan hyödyntämisen sekä tekoälyratkaisujen kehittämisen parissa. Hän on mukana edistämässä tekoälyn käyttöä julkishallinnossa erityisesti asiantuntijatyön tukena. Hotin työssä korostuvat tekoälyn käytännön soveltaminen, työn murros sekä asiantuntijuuden ja vastuun kysymykset.

Lue seuraava artikkeli

Etusivu