Ny teknik dyker ofta först upp på arbetsplatsen som ett experiment. Med tiden blir den ett hjälpmedel som så småningom formas till en viktig del av vardagen. Under de senaste åren har detta också skett med artificiell intelligens. För inte länge sedan hörde generativ AI främst hemma i forskningslaboratorier och teknologiföretagens utvecklingsprojekt. I dag används den kontinuerligt till exempel för att skriva rapporter, sammanställa bakgrundsutredningar, producera analyser och allt oftare även som stöd i beslutsfattande.

Samtidigt utvecklas så kallade AI-agenter, det vill säga system som inte bara svarar på frågor eller utför enskilda uppgifter, utan som kan koordinera arbete, fördela uppgifter och följa upp deras genomförande. De fungerar inte längre enbart som en del av arbetsprocesser, utan börjar ta över funktioner som traditionellt har hört till ledning. Samtidigt ökar behovet av att förstå vilka risker utvecklingen för med sig – och för vem.

”Utvecklingen av AI präglas av exponentiell tillväxt. Förmågor kan förbättras på mycket kort tid på sätt som är svåra att förutse i förväg”, säger Anna Katariina Wisakanto, som forskar i AI-säkerhet.

Photo: Pentti Hokkanen/Flaming Star Oy

Wisakanto arbetar vid den internationella tankesmedjan Center for AI Risk Management & Alignment, där man forskar i säkerhet och riskhantering kopplat till AI. Hon är också grundande medlem och styrelseordförande för nätverket Turvallisen tekoälyn keskus, som främjar forskning inom AI-säkerhet. Hennes forskning rör sig i gränslandet mellan teknik och samhälle.

”Kärnan i min forskning är en fråga som är både teknisk och samhällelig: hur kan vi förstå och mäta riskerna med AI på ett sätt som verkligen tjänar beslutsfattandet?”

En omvälvning som gäller tänkandet

Det är lätt att se AI som en ny programvara eller ett effektivare verktyg. Wisakanto menar dock att detta är ett alltför förenklat sätt att förstå förändringen.

”Tidigare teknologier automatiserade uppgifter, men AI – och särskilt generativ AI – automatiserar beslutsfattande och tänkande.”

Därmed rör sig teknologin in i områden som traditionellt har betraktats som kärnan i expertarbete: tolkning av information, avvägning av alternativ och strukturering av helheter. Samtidigt skiljer sig AI:s tekniska logik från tidigare digitala system. Det innebär till exempel att språkmodeller fungerar på ett sätt där instruktioner och data inte kan skiljas från varandra.

”När det gäller språkmodeller kan instruktioner inte skiljas från data. Det är inte en bugg, utan en grundläggande egenskap hos tekniken.”

I praktiken innebär detta att varje dokument eller meddelande som AI behandlar samtidigt kan styra dess beteende, antingen oavsiktligt eller med avsikt.

Dessutom fungerar AI med naturligt språk, som alltid är mångtydigt och kontextberoende. På grund av dessa egenskaper är införandet av AI inte samma sak som att ta i bruk ett nytt informationssystem.

”Om vi inte förstår den här skillnaden planerar vi införandet av AI som om det bara handlade om ett nytt IT-system. Det vore ett stort misstag”, konstaterar Wisakanto.

När AI hjälper experten

Enligt Virpi har man inte i någon större utsträckning rapporterat om AI:s fördelar på nationell nivå.

AI:s effekter syns redan nu i många organisationer. Virpi Hotti, ledande expert vid Statskontoret, arbetar med att utnyttja data och analys samt deltar i utvecklingen av Statskontorets AI-lösningar. Hon betonar att AI ofta framför allt fungerar som ett stöd för experter.

”AI hjälper särskilt i situationer där man måste börja från noll och gå igenom mycket information. I sådana beredningsuppgifter är den till stor nytta.”

Det kan till exempel handla om att gå igenom omfattande material, ta fram bakgrund till rapporter eller kartlägga alternativ. Därmed kan arbete som tidigare tog dagar eller veckor göras betydligt snabbare. Ändå är det svårt att exakt mäta AI:s effekter.

”Om man talar om mätbara nyttor har det ännu inte rapporterats särskilt många på nationell nivå”, säger Hotti.

Bedömningarna varierar mycket: ”Ibland ser man uppskattningar på effektiviseringsvinster på upp till 70–90 procent, men till exempel Finlands Bank har varit betydligt mer återhållsam och talat om omkring en procent på BNP-nivå.”

AI:s betydelse syns alltså ännu inte som stora ekonomiska språng. Effekten handlar för närvarande mer om hur expertarbete gradvis förändras. Vissa rutiner automatiseras, samtidigt som behovet av tolkning och bedömning ökar.

Expertis förändras, ansvar gör det inte

Enligt Hotti förändrar AI inte bara verktygen, utan också själva expertisens natur.

”Jag brukar säga att en expert lyser med lånat ljus tills de egna lamporna tänds.”

Tanken syftar på att expertis byggs genom att sätta sig in i tidigare kunskap, forskning, rapporter och diskussioner. Gradvis uppstår en egen förståelse. AI kan stödja denna process, men också förkorta den. Risken är att för mycket överlåts till AI.

”Om man bara lutar sig mot AI utan att själv ha satt sig in i det underlag som ens påståenden bygger på, förändras expertisens natur ganska radikalt”, säger Hotti.

Säkerhet är inte längre bara en teknisk fråga

AI förändrar säkerhetstänkandet i grunden. Tidigare fokuserade informationssäkerheten i stor utsträckning på att förhindra angrepp genom att identifiera hot, bygga skydd och stänga ute obehöriga. Enligt Wisakanto räcker det inte längre.

”I stället för att tänka att alla fel och missbruk kan förhindras måste vi gå mot ett paradigm där skador begränsas utifrån antagandet att något kommer att gå fel.”

I praktiken innebär detta att systemen måste utformas så att de tål fel och missbruk. Fullständig säkerhet är inte ett realistiskt mål – det avgörande är hur stora konsekvenserna kan bli. Säkerhet är inte längre enbart en teknisk fråga, utan handlar i allt högre grad om hur organisationer bygger processer, befogenheter och tillsyn.

Med andra ord måste systemen utformas så att konsekvenserna av fel eller missbruk inte växer okontrollerat.

”AI blir till viss del ett psykologiskt och organisatoriskt problem”, säger Wisakanto.

Angrepp liknar heller inte längre enbart tekniska intrång, utan följer allt oftare logiken i social manipulation. Metoder som att åberopa auktoritet, skapa brådska och använda övertygande språk utnyttjas. När detta kombineras med AI:s förmåga att producera trovärdigt innehåll suddas gränsen mellan tekniska och mänskliga risker ut.

AI är också en maktfråga

Enligt Wisakanto fokuserar diskussionen om AI:s risker inte alltid på det väsentliga. Den rör sig ofta mellan två ytterligheter: AI som en nästan obegränsad källa till effektivitet eller som ett hot mot hela mänskligheten.

Däremellan finns ett brett område där AI:s verkliga effekter syns – i vardagligt arbete, organisatoriska praktiker och beslutsstrukturer. Just här finns både de största riskerna och möjligheterna, men de diskuteras ofta mindre.

”I Finland är diskussionen ofta starkt fokuserad på produktivitet. Vi talar om effektivitet, men för lite om vad som går förlorat och hur maktstrukturer förändras.”

AI är inte bara ett verktyg för effektivitet. Det förändrar också hur makt fördelas – i organisationer och i samhället. Det handlar också om vem som sätter villkoren och fattar besluten.

”AI är makt. Den påverkar vem som kontrollerar information, vem som definierar arbetssätt och vem som bestämmer villkoren för systemen.”

Digital suveränitet i AI:s tidevarv

AI:s makt begränsas inte till enskilda beslut eller organisationer. Den hänger också samman med de system och plattformar som arbetet i allt högre grad bygger på. Hotti lyfter fram digital suveränitet som en allt viktigare fråga.

I praktiken handlar det om hur beroende organisationer och samhällen är av externa teknologier och tjänster – och vad som händer om deras villkor eller logik förändras.

När det gäller AI blir detta särskilt tydligt. ”Många av de mest använda systemen bygger på globala plattformar vars utveckling en enskild organisation eller ens en stat inte kan styra. Samtidigt börjar beslutsfattande, informationshantering och arbetsprocesser i allt högre grad vila på dessa system”, säger Hotti.

Frågan om digital suveränitet handlar därför om i vilken utsträckning organisationer behåller förmågan att förstå, kontrollera och vid behov förändra sina system.

Organisationer inför något nytt

Enligt Wisakanto är det inte de organisationer som binder sig till en specifik bild av framtiden som lyckas bäst. I en snabbt föränderlig miljö är exakt förutsägelse ofta omöjlig – och kan till och med bromsa anpassningen.

”De organisationer som klarar sig bäst försöker inte förutspå vart en viss teknologi är på väg, utan bygger förmåga att anpassa sig snabbt.”

Denna förmåga kallar Wisakanto resiliens. Det handlar inte bara om att förbereda sig för risker, utan om att kunna fungera i osäkerhet, lära sig snabbt och ändra riktning vid behov.

”Resiliens är en grundförutsättning för en framtidsredo ekonomi.”

Samtidigt måste ansvar och roller definieras tydligt.

”Vi måste ständigt definiera var människan fattar beslut, var maskinen gör det – och varför.”

Nu finns möjlighet att påverka

Wisakanto har tidigare forskat vid Cambridge om hur automatiserade system påverkar människors beslutsförmåga. Hon lyfter fram en särskild oro: att människors upplevelse av egen handlingsförmåga kan försvagas.

”Det som oroar mig är att människors känsla av egen handlingskraft försvagas.”

Samma gäller expertrollen. AI kan stödja arbetet, men inte ersätta förståelsen.

”Allt du för vidare i ditt eget namn utan källor är dina egna påståenden”, säger Hotti.

Vi befinner oss nu i ett skede där utvecklingens riktning fortfarande kan påverkas.

Vilket samhälle vill vi bygga?

I slutändan handlar det om mer än teknik. AI väcker frågor om riktning, värderingar och människans roll.

”Frågan är inte hur vi använder AI, utan vilket samhälle vi vill bygga – och om det har resiliens att möta det som kommer.”

Säkerhet handlar därför om hur vi förhåller oss till osäkerhet.

Och om en sak bör kommas ihåg:

”Behandla din AI som en insider – och planera för ett begränsat misslyckande.”

Säkerhet uppstår inte när allt fungerar, utan när vi är förberedda på att något kan gå fel.

****

Text: Paula Minkkinen
Omslagsbild och Virpis bild: Henni Purtonen
Anna Katariinas bild: Pentti Hokkanen/Flaming Star Oy

Anna Katariina Wisakanto är forskare inom AI-säkerhet och verksam vid den internationella tankesmedjan Center for AI Risk Management & Alignment. Hon är också medgrundare och styrelseordförande för nätverket Turvallisen tekoälyn keskus. Wisakantos forskning rör sig i gränslandet mellan teknik och samhälle och fokuserar särskilt på hur risker med AI kan förstås, mätas och hanteras som stöd för beslutsfattande.

Virpi Hotti är ledande expert vid Statskontoret, där hon arbetar med att utnyttja data och analys samt utveckla AI-lösningar. Hon är med och driver användningen av AI inom offentlig förvaltning, särskilt som stöd för expertarbete. I hennes arbete betonas AI:s praktiska tillämpningar, arbetslivets förändring samt frågor om expertis och ansvar.

Lue edellinen artikkeli

Framsida