Hopp til hovedinnhold

Hva er kunstig intelligens?

Kunstig intelligens er et vidt begrep som i dag brukes om mange former for algoritmer, maskinlæring, modeller og statistiske metoder. Like viktig som begrepsdefinisjoner er det å forstå hvordan det vi kaller kunstig intelligens kan brukes i offentlig sektor.

Hvordan vil vi definere kunstig intelligens (KI)?

Kunstig intelligens er et vidt begrep som i dag brukes om mange former for algoritmer, maskinlæring, modeller og statistiske metoder. EU-kommisjonen har i forslag til regulering av kunstig intelligens (KI-forordningen) fra april 2021 foreslått en dynamisk definisjon som vi har valgt å bruke:

«artificial intelligence system» (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with.

Annex I definerer settet av KI teknikker og tilnærminger som:

(a) Machine learning approaches, including supervised, unsupervised and reinforcement learning, using a wide variety of methods including deep learning;

(b) Logic- and knowledge-based approaches, including knowledge representation, inductive (logic) programming, knowledge bases, inference and deductive engines, (symbolic) reasoning and expert systems;

(c) Statistical approaches, Bayesian estimation, search and optimization methods.

Hvordan kan KI forbedre offentlig sektor?

Gode eksempler på bruksområder inkluderer personifisert og situasjonsbetinget utdanning og velferd. Dette for å sikre at statens ressurser brukes optimalt og ytelser går til de som har størst nytte og behov for det. Sykdom kan diagnostiseres og behandles mer nøyaktig. Det kan legges til rette for autonome kjøretøy for å redusere trafikkbelastningen og effektivisere kollektivtransporten. Offentlig kontroll og svindeldeteksjon kan forbedres betydelig gjennom bruk av KI. Raskere varsel om og fyldigere data om hendelser under utvikling. Slik at for eksempel naturkatastrofer kan forutses og terrorangrep kan forhindres.

Hvorfor trenger KI ekstra oppmerksomhet ved adopsjon i offentlig sektor?

Offentlig sektor har en unik og krevende rolle innenfor svært varierte og komplekse politiske, kulturelle og sosiale økosystemer. Offentlige forvaltninger skiller seg fra private organisasjoner i en rekke grunnleggende egenskaper som underbygger deres verdier, bestemmer deres mål, virkemidler, roller og forhold til andre aktører. Derfor kan innføringen og implementeringen av KI-teknologi, dens bruk og formål i offentlig sektor, ikke direkte modelleres etter private foretaks tilnærming til adopsjon av KI.

Offentlig sektors bruk av teknologi retter seg mot de mest kritiske delene av samfunnet, og skaper verdi fremfor profitt. Drevet av loven, tar offentlig sektor sikte på å tjene allmennheten i et mangfoldige samfunn. Mandatet er altså å beskytte innbyggerne og fremme velvære for øvrig. Offentlig sektor yter ikke bare tjenester, den regulerer også innbyggernes aktiviteter og bruk av offentlig makt (f.eks. skatt, lisensiering, rettshåndhevelse, former for forvaring osv.). Det er i utøvelsen av funksjoner som disse, som direkte påvirker folks juridiske status, rettigheter og interesser, at administrative beslutningsprinsipper reiser spesielle spørsmål som er unike for offentlig sektor.

Gitt denne unike rollen til offentlig sektor, må den doble naturen til AI når det gjelder å frembringe fordeler og muligheter sammen med potensielt høy effekt og risiko, tas svært nøye i betraktning når det gjelder bruken.

Noen utvalgte eksempler på uheldige bruk av KI i offentlig sektor

Det har vært en rekke dokumenterte tilfeller hvor KI har hatt betydelige uforutsette og uheldige konsekvenser. Noen eksempler på dette er feil i kreftscreening i Storbritannia. Studenter som gjennomførte International Baccalaureate i 2020 ble tildelt feil karakterer. Prediktivt politiarbeid i USA resulterte i rasemålrettet oppfølging av svarte nabolag på grunn av uheldig bias i data, og lærere har blitt urettmessig blitt avskjediget og deres kompetanse undervurdert på grunn av algoritmescoring i skolene. Broomfield & Lintvedt går i detalj inn på saker fra Nederland som viser hvorfor bruken av KI i velferdsstaten kan være problematisk.

En sak som har fått stor oppmerksomhet, er en dom hvor statens bruk av KI krenket menneskerettighetene. Denne saken gjaldt en prediktiv modell som vurderte risikoen for om personer ville jukse med trygd og skatt. Systemet fattet ingen vedtak, men pekte ut personer som skulle kontrolleres. Ordningen var lovregulert med hvilke datakilder som kunne brukes, og hvilke sakstyper algoritmen kunne anvendes på. Likevel kom domstolen til at loven og bruken av algoritmen blant annet var i strid med Den europeiske menneskerettighetskonvensjon (EMK) artikkel 8 om retten til respekt for privatliv og familieliv.

Modellen ga utslag som særlig rammet personer med minoritetsbakgrunn i områder med mye fattigdom og arbeidsløshet, og forsterket dermed sosioøkonomiske ulikheter. Staten argumenterte med at modellen ikke førte til endelige vedtak, men bare var prediksjoner. Domstolen vurderte imidlertid at selv om det bare var utplukk til kontroll, er det i seg selv stigmatiserende og belastende. Selv om avdekking av misbruk av velferdsmidler er et legitimt formål, var det i dette tilfellet ikke en tilstrekkelig balanse mellom statens behov og borgernes rettigheter. I tillegg vurderte domstolen at bruken av SyRI ikke var transparent, ved at det hverken var kjent hvilke data som ble brukt, hvilke risikofaktorer som ble vektlagt, og hvordan algoritmen fungerte.

I denne saken utgjorde bruken av KI bare en liten del av sakskomplekset, men det bidro til å forsterke og forverre konsekvensene for enkeltpersonene som ble rammet. Saken gjelder en ordning for refusjon av utgifter til barnepass som blir administrert av skattemyndighetene. For å forhindre juks med ordningen var det i loven innført strenge vilkår for tildeling av støtte. Hvis det ble oppdaget feil i søknaden, kunne hele beløpet kreves tilbakebetalt. Det ble brukt en prediktiv modell som beslutningsstøtte i saksbehandlingen. En av variablene som ble brukt som risikofaktor i algoritmen, var nasjonalitet, en annen var lav inntekt. Personer med utenlandsk statsborgerskap ble derfor oftere mistenkt for svindel. Den videre saksbehandlingen var summarisk, og feilen ble heller ikke fanget opp av domstolene. Mellom 25 000 og 35 000 personer ble feilaktig beskyldt for juks med svært alvorlige økonomiske og personlige konsekvenser. Det er estimert at 94 % av sakene var grunnløse.

Selv om KI-systemet som ble brukt, kun var ment som beslutningsstøtte, hadde ikke saksbehandlere grunnlag for å stille spørsmål ved utplukket. De la derfor til grunn at personene som algoritmen pekte ut, var skyldige. Den enkelte fikk ikke svar på hvorfor hen ble anklaget for juks, og hadde ingen mulighet til å tilbakevise dette. Bruken av algoritmen bidro derfor til å akselerere og forsterke en ordning som anses å være i strid med grunnleggende rettsstatsprinsipper. Det nederlandske datatilsynet har konkludert med at algoritmen var diskriminerende, og har utstedt en bot på 2,75 millioner euro for brudd på personvernregelverket. Mange av feilene ville skjedd også uten algoritmen, men bruken av algoritmen bidro til å passivisere saksbehandlere. I tillegg var det ingen åpenhet om bruken av algoritmen, hverken om hvorvidt en algoritme ble brukt, og hvilke variabler som ble brukt. Det tok derfor svært lang tid før det var mulig å påvise at både selve ordningen og algoritmen var diskriminerende.