Hopp til hovedinnhold

Bruk av generativ kunstig intelligens i offentlig sektor

Generativ kunstig intelligens har aldri vært mer tilgjengelig enn nå. Som med all kunstig intelligens, må denne typen teknologi benyttes med varsomhet. Her foreslår vi spesifikke retningslinjer som kan bidra til å synliggjøre og adressere de utfordringene som særlig gjelder for generativ kunstig intelligens.

Åpen beta

Denne siden er i «åpen beta». I tiden fremover ønsker vi tilbakemeldinger og innspill til innholdet som presenteres her. Det betyr at rådene du finner på denne siden kan bli endret. Har du innspill til oss vil vi gjerne høre fra deg! Ta kontakt med oss på Datalandsbyen så sikrer vi at innholdet her blir best mulig.

    Generelle retningslinjer

    • Risikovurdering: Før generativ KI tas i bruk i en virksomhet, må det gjøres en risikovurdering. Denne bør sees i sammenheng med virksomhetens øvrige arbeid for informasjonssikkerhet. Det kan være greit å kjenne til de særlige rammeverkene for risikovurdering av kunstig intelligens, som vi beskriver nærmere på siden Hvordan vurderer jeg risiko ved bruk av kunstig intelligens?
    • Riktig opplæring for brukere: Brukere av generativ KI bør ha tilstrekkelig opplæring og forståelse for å bruke teknologien ansvarlig og effektivt. Dette inkluderer kunnskap om risikoer, samt beste praksis for bruk.
    • Vær særlig varsom ved samhandling med innbyggere: I dag er vi i en tidlig fase med generativ KI. Hvis et generativt KI-verktøy skal brukes for samhandling mellom forvaltningen og innbyggerne, vær særlig grundig i risikovurderinger og juridiske vurderinger. Det bør alltid kjøres et pilotprosjekt. Videre vil det være viktig at innbyggeren forstår at det er en KI de samhandler med.
    • Ikke bruk sensitiv informasjon i «prompts»: Personopplysninger, taushetsbelagt informasjon, gradert informasjon, informasjon unntatt offentlighet, sikkerhetssensitiv informasjon eller immaterialrettslig vernet informasjon skal ikke brukes til å gi instruksjoner til generative KI-verktøy. Som utgangspunkt må det legges til grunn at informasjonen i et «prompt» blir sendt til selskapet bak verktøyet og vil bli lagret og brukt til videre trening av den underliggende maskinlæringsmodellen. Unntak gjelder dersom du har tilstrekkelig rettslige grunnlag, herunder nødvendig behandlingsgrunnlag og eventuelt overføringsgrunnlag for å behandle denne informasjonen til dette formålet. Det aktuelle selskapets vilkår og personvernerklæring vil kunne si noe mer nøyaktig om hvordan informasjonen behandles.
    • Tidskritiske prosesser: De generative KI-systemene har tidvis vært ustabile. Det skyldes blant annet svært høy trafikk til deres servere. Generativ kunstig intelligens bør derfor ikke brukes for tidskritiske prosesser.
    • Korrelasjon, ikke kausalitet: Som annen kunstig intelligens, finner generativ KI sammenhenger mellom ulike faktorer i en stor mengde data. Store språkmodeller forstår sammenhenger i språk. En sammenheng betyr imidlertid ikke at det er et årsak-virkning-forhold. Ved bruk av generativ kunstig må en ha et bevisst forhold at det er korrelasjoner som presenteres. Hvorfor presenteres akkurat denne korrelasjonen, og bør en være kritisk til denne? Dette gjelder særlig der en eventuell korrelasjon er knyttet til faktorer som kan lede til diskriminering eller ulovlig forskjellsbehandling. Les mer om dette under punktet "Ansvarlig utvikling og bruk av kunstig intelligens" på siden Råd for ansvarlig utvikling og bruk av kunstig intelligens i offentlig sektor | Digdir.
    • Ha et bevisst forhold til ulike grensesnitt for generativ KI: Når en interagerer med en stor språkmodell gjør en ikke dette direkte, men via et grensesnitt. Eksempelvis er ChatGPT et grensesnitt for å interagere med GPT-modellene. Det finnes flere ulike grensesnitt. Noen er offisielle, slik som ChatGPT. Andre er utviklet av tredjeparter. Det finnes flere sikkerhetsrisikoer knyttet til grensesnittene. Eksempelvis kan «promt injection» gjøre at «promptet» blir manipulert. Ved valg av grensesnitt for generativt KI må en derfor ha et kritisk blikk. Er dette fra en aktør jeg kan stole på, og kan «promptet» mitt misbrukes?

    Når vi snakker om å "prompte" en generativ kunstig intelligens, refererer vi til prosessen med å gi den en eller annen form for input («inndata»), slik at KI-en kan generere en respons eller output («utdata») basert på inputen. "Prompts" er i denne sammenhengen de spesifikke inputene vi gir til KI-en.

    I tilfellet med tekstbasert kunstig intelligens, som eksempelvis ChatGPT, kan en prompt være en setning, et spørsmål, eller en hvilken som helst form for tekst. KI-en bruker deretter denne teksten som utgangspunkt for å generere et svar eller en videre tekst.

    Eksempler:

    1. Fortellingsgenerering: Hvis du gir KI-en en prompt som "Det var en gang en robot som drømte om å bli menneske", kan KI-en generere en hel fortelling basert på denne setningen.
    2. Spørsmål og svar: Hvis du gir en prompt som "Hva er fotosyntese?", vil KI-en generere et svar som forklarer fenomenet fotosyntese.

    I tilfellet med visuell kunstig intelligens, som for eksempel DALL-E eller Midjourney kan en prompt være en tekstlig beskrivelse, og KI-en genererer et bilde basert på denne beskrivelsen. For eksempel, hvis du gir DALL-E en prompt som "en to-hodet papegøye", kan det generere et bilde av en papegøye med to hoder.

    Det er viktig å være klar over at kvaliteten på responsen som genereres av KI-en ofte er avhengig av hvor klart og presist prompten er formulert, samt mulighetene og begrensningene for den spesifikke KI-modellen som blir brukt.

    Ordliste for kunstig intelligens

    Det er mange begreper rundt kunstig intelligens. Teknologirådet har samlet de viktigste i en ordliste for kunstig intelligens.

    Generering av tekst

    Særlig om generering av tekst med verktøy slik som ChatGPT, Microsoft Bing Chat og Google Bard.

    • Bruk på eksisterende tekst kan være greit: Offentlig sektor bruker mye tid på å behandle tekst. Dette er de store språkmodellene særlig gode på. Bruk de gjerne til å korte ned, lage sammendrag, kulepunkter eller lignende av eksisterende tekst. Et eksempel på dette er å kopiere inn en tekst som er tung å lese og deretter spørre en stor språkmodell om å gjøre den til klarspråk. Husk imidlertid at teksten ikke må inneholde sensitiv informasjon, som pekt på i punkt over.
    • Vær varsom ved bruk som oppslagsverk: Store språkmodeller er trent på en enorm mengde tekst. Dette har gitt dem oversikt over strukturer i språk. Treningsdataen inneholder imidlertid også mye faktainformasjon som språkmodellen kan uttrykke. Faktainformasjonen er sånn sett «en bonus», for fokuset for de store språkmodellene er strukturer i språk. Modellene er ikke optimalisert for å gi helt presis faktainformasjon, selv om resultatene tidvis kan være svært imponerende. Bruk modellene derfor med stor varsomhet ved bruk som oppslagsverk. Til dette kommer også at flere språkmodeller ikke har faktainformasjon som er nyere enn for tidspunktet for trening av modellen.
    • Husk at svarene ikke nødvendigvis er tilpasset våre verdier: Store språkmodeller og grensesnittene for å interagere med disse (eksempelvis ChatGPT) vil være tilpasset og reflektere verdiene til menneskene som har utviklet disse modellene og verktøyene. Det er ikke gitt at disse verdiene samsvarer med verdiene vi har i vårt samfunn og dette kan reflekteres i svaret.
    • Bruk ytterligere verktøy som kan identifisere plagiat: Det finnes flere verktøy som kan bidra til å vurdere om tekstmaterialet som er produsert av en stor språkmodell kan være plagiat. Eksempelvis har enkelte skrivebehandlingsverktøy en «redaktør-funksjon» som kan bidra til å vurdere om tekstmaterialet er plagiert.
    • Kvalitetssikre alltid innhold fra store språkmodeller: I tillegg til å påse at materialet ikke er plagiert, bør du alltid lese over og kvalitetssikre. Ikke bruk materialet direkte. Det er du som til slutt er avsender av teksten og skal stå for innholdet!

    Prompts som definerer konteksten:

    • Gjør språket i denne teksten enklere og lettere å forstå: «[sett inn tekst her]»
    • Lag et sammendrag av denne teksten: «[sett inn tekst her]»
    • Gjør denne teksten passende for [velg målgruppe]: «[sett inn tekst her]»

    Ved å spesifisere hvilken tekst som skal være grunnlaget for svaret, reduserer vi sjansen for at tekstgenereringsverktøyet lager innhold som ikke er riktig. På denne måten kan vi dra nytte av verktøyets evne til å gjenkjenne språkstrukturer, samtidig som vi begrenser dets potensiale til å lage innhold som ikke er basert på virkeligheten (ofte kalt "hallusinering").

    Prompts for å lage vanlige utkast:

    • Skriv et utkast til en pressemelding om [tekst her]. Teksten skal fokusere på [tekst her]

    • Skriv et innlegg til sosiale medier om [tekst her]. Teksten skal fokusere på [tekst her]

    • Skriv en tekst som forklarer problemet med «bias» knyttet til kunstig intelligens.

    • Skriv en møteinnkalling om [tekst her] til en bestemt dato.

    Disse eksemplene representerer situasjoner der det er sannsynlig at det finnes mange lignende tekster. Enkelt sagt, hvis vi søkte etter en slik tekst på internett, ville vi trolig finne mange eksempler. I slike tilfeller antar vi at en stor språkmodell har blitt trent med mye tekst som kan danne grunnlag for gode svar.

    Det er viktig å merke seg at svaret fra tekstgenereringsverktøyet kan inneholde meninger og gi uttrykk for verdier som ikke nødvendigvis er i tråd med våre egne. Svaret kan også inneholde faktafeil. Svaret fra tekstgenereringsverktøyet bør ses på som utkast, og det er viktig at de gjennomgås og redigeres før bruk.

    Innspill?

    «Promptene» vi peker på her er basert på våre egne erfaringer. De er ingen fasit. Har du innspill til våre eksempler her eller har du forslag til andre eksempler, ta kontakt med oss i Datalandsbyen.

    Generering av bilder

    Særlig om generering av bilder med modeller som Midjourney og Dall-E i:

    • Rettigheten til inputen: Du må ha tilstrekkelige rettigheter til informasjonen du bruker i «promptet». Rettighetene må blant annet omfatte det å laste opp materialet til serverne til den respektive generative tjenesten. Avhengig av vilkårene til den respektive generative tjenesten, kan dette bety at informasjonen blir lagret et sted og/eller benyttet til ytterligere trene den underliggende maskinlæringsmodellen. I praksis er dette særlig aktuelt der bilder benyttes som input. Flere bildegenereringsverktøy kan benytte både tekst og bilde som input. Eksempelvis tilbyr flere verktøy muligheten for å laste opp et bilde og be om variasjoner av dette.
    • Rettighetene til det genererte bildet: Situasjonen rundt rettigheter til genererte bilder er usikker. Det kan stilles spørsmål ved om rettighetene skal tilfalle den som har utviklet KI-systemet ettersom det er systemet som genererer bildet, eller om det er den som har «promptet» systemet. Vilkårene til den aktuelle tjenesten kan gi mer veiledning, men på nåværende tidspunkt bør offentlige virksomheter som benytter KI-generert materiale være bevisst at rettighetssituasjonen er usikker.
    • Opplys om at bildene er generert: La mottakeren av bildene forstå at bildene er generert ved hjelp av kunstig intelligens. Dette er særlig viktig der bildene er realistiske, ettersom realistiske bilder kan gi uttrykk for en forståelse av verden, og dermed kan gi bekymring eller kan påvirke meninger på manipulerende måte.
    • Husk universell utforming: Dersom KI-genererte bilder benyttes på en nettside, må du, som ved alle andre bilder huske å bruke alt-tekst for å sikre at materialet er tilgjengelig for alle. Dersom det er generert basert på en tekstprompt, vil dette promptet gi et godt utgangspunkt for alt-tekst.

    Generering av kode

    Særlig om generering av kode med verktøy som GitHub Copilot og ChatGPT:

    • Ha et bevisst forhold til at det brukes kodegenerering: KI-assistert kodegenerering behøver ikke å være problematisk, men sørg for at utviklerne har rutiner og opplæring for hvordan verktøyene skal brukes. Det kan være flere sikkerhetsrisikoer. Forskning fra Stanford har vist at utviklere som skriver kode med KI-assistert kodegenerering skriver mindre sikker kode. Den viser også at utviklere som har støttet seg på slike verktøy har større tro på at koden som er skrevet er sikker. Samtidig viser den at utviklere som bruker KI-assisterte verktøy på en kritisk måte produserer kode med færre sårbarheter.
    • Ha et bevisst forhold til hvilken språkmodell som benyttes: Det er stor forskjell på hvor bra de ulike store språkmodellene presterer ved kode-generering.
    • Skriv i «pull requesten» at du har brukt KI-assistert kodegenerering: La den som skal gjennomgå koden få vite at den er skrevet med KI-assistert kodegenerering. Dette kan bidra til større oppmerksomhet og mer nyanserte tilbakemeldinger. Opplys også om navn og versjon på språkmodellen som er benyttet.
    • Husk at sensitiv informasjon ikke må brukes som «prompts»: Som for generativ KI generelt, bør ikke sensitiv informasjon brukes i «prompts». Med sensitiv informasjon mener vi blant annet personopplysninger, taushetsbelagt informasjon, informasjon du ikke har tilstrekkelig rettigheter til og gradert informasjon. For utviklere vil sensitiv informasjon også kunne omfatte ting som API-nøkler og annen sikkerhetsinformasjon.
    • Vær bevisst «konteksten»: Populære verktøy som f.eks. Github Copilot mangler muligheten til å ekskludere bestemte filer, slik som miljøvariabler, «security tokens» og testdata. Sørg derfor at slik informasjon er plassert på en slik måte at det ikke utilsiktet blir en del av promptingen/inputen til den KI-assisterte kodegenereringsverktøyet.
    • «Prompting» kan være annerledes ved KI-assistert utvikling: KI-verktøy som er bygget inn i et integrert utviklingsmiljø («IDE») eller andre typer koderedigeringsverktøy har potensialet til å kontinuerlig overvåke koden som skrives. Dette krever en større oppmerksomhet enn for verktøy som ChatGPT, hvor du i større grad har kontroll på når «promptingen» skjer.

    Trening av grunnmodeller på egen data

    En grunnmodell (på engelsk «foundation model») er en forhåndstrent KI-modell som fungerer som et fundament, eller utgangspunkt, for videre tilpasning og trening på spesifikke oppgaver. Store språkmodeller kan regnes som en type grunnmodell. Slike grunnmodeller kan trenes på egen data gjennom såkalt «finjustering», hvor man tar en forhåndstrent grunnmodell og trener den for spesifikke formål eller oppgaver. For eksempel er ChatGPT et grensesnitt for og en finjustering av grunnmodellene GPT-3.5 og GPT-4.

    En bedrift kan eksempelvis benytte en grunnmodell som utgangspunkt for en chatbot, og foreta finjusteringer ved hjelp av egne data. På denne måten kan den justerte modellen besvare spørsmål ved hjelp av informasjon som er relevant for den spesifikke virksomheten. En virksomheten som driver med bilsalg, vil eksempelvis kunne tilpasse grunnmodellen slik at den har mer detaljert kunnskap om biler. Modellen kan også trenes til å kommunisere på en måte som er skreddersydd for bedriftens målgruppe. En slik finjustering av en grunnmodell vil som regel gi bedre ytelse, for eksempel i form av nøyaktighet eller generaliseringsevne, enn hvis virksomheten selv skulle trent en modell fra bunnen.

    Hvis du tar i bruk slike grunnmodeller og finjusterer på egen/lokal data bør du være oppmerksom på følgende:

    • Fordi den endelige modellen vil bruke grunnmodellen som utgangspunkt vil skjevheter som eksisterer i grunnmodellens treningsdata kunne forplante seg videre. Dermed vil risikoen for skjevheter gjenstå selv etter finjustering på det nye datasettet.
    • Når man finjusterer grunnmodellen med egen data er det en risiko for at man kan miste grunnmodellens evne til å generalisere eller til å utføre oppgaver som grunnmodellen tidligere var god til, dette fenomenet kalles “catastrophic forgetting”.
    • Ofte vil ikke individer eller mindre virksomheter ha store nok datasett til å oppnå en veldig god generell finjustering. Dette kan føre til at modellen overspesialiseres på din data og ikke generaliserer seg godt på data som avviker fra treningsdataen.
    • Noen grunnmodeller vil sende din data tilbake til leverandørene av grunnmodellen. Du må derfor være ekstra oppmerksom på de rettslige begrensningene knyttet til din treningsdata.
    • Den kommende KI-forordningen foreslår en rekke krav til grunnmodeller. Det kan derfor være nyttig å kjenne til hva utkastene sier i dag, samt å følge forhandlingene i EU, slik at eventuelle krav til bruk og tilpassing av grunnmodeller ikke kommer som en overraskelse.

    UiOs GPT-modell

    Flere av risikomomentene ved bruk av generativ KI, oppstår som følge av at brukerdata behandles og lagres på serverne til kommersielle aktører uten at det foreligger en avtale med brukerens virksomhet. Ofte er også serverne plassert i tredjeland, hvilket kan være utfordrende i henhold til personvernforordningens kapittel V.

    Universitetet i Oslo (UiO) har planer om å introdusere en ny chatbot-tjeneste kalt GPT UiO. Denne tjenesten utvikles for å operere i samsvar med kravene i personvernforordningen, og har som mål å sikre brukernes data. Tjenesten, utviklet av et tverrfaglig team av personvernjurister, designere og utviklere, er en respons på personvernproblemene knyttet til bruken av OpenAI's ChatGPT.

    GPT UiO vil bruke OpenAI's GPT-modeller gjennom Microsofts Azure OpenAI Service. Alt dette vil skje gjennom et API som er satt opp til å kjøre på et datasenter i Europa. UiO har en avtale med Microsoft som sikrer at brukernes forespørsler («prompts») ikke lagres på Microsofts servere. I tillegg vil chat-logger kun lagres på UiO's servere.

    Den nye tjenesten vil bli tilgjengelig for UiO-brukere til høsten via et selvutviklet webgrensesnitt. I fremtiden planlegger universitetet å utforske mulighetene for å etablere en helt lokal modell som kan kjøre på UiO's egne servere, særlig for håndtering av mer sensitive data til forskningsformål.

    Om denne siden

    Den første versjonen av disse rådene ble publisert på Datalandsbyen i forbindelse med lanseringen av Digitaliseringsdirektoratets veiledning tirsdag 6. juni 2023. Der fikk vi innspill som vi har tatt hensyn til i retningslinjene på denne siden. Retningslinjer for generativ kunstig intelligens vil være nødvendig å diskutere også i tiden fremover. Samtidig ser vi at det allerede nå er viktig å komme ut med noen grunnleggende utgangspunkter for bruk av generativ kunstig intelligens i offentlig sektor.

    Vi ønsker fremdeles tilbakemeldinger på retningslinjene. Ta derfor gjerne kontakt med oss på Datalandsbyen med innspill og kommentarer.