Bruk av generativ KI
Enten du skal lage retningslinjer og opplæring for din virksomhet, eller du skal bruke et verktøy, kan disse rådene hjelpe deg med å sikre ansvarlig generativ kunstig intelligens. Rådene er basert på hvordan generativ teknologi fungerer, relevant regelverk og Digitaliseringsdirektoratets erfaringer og dialog med andre virksomheter. Rådene er ikke uttømmende.
Åpen beta
Denne siden er i «åpen beta». I tiden fremover ønsker vi tilbakemeldinger og innspill til innholdet som presenteres her. Det betyr at rådene du finner på denne siden kan bli endret. Har du innspill til oss vil vi gjerne høre fra deg! Ta kontakt med oss på Datalandsbyen så sikrer vi at innholdet her blir best mulig.
Verktøy levert av virksomheten vs. verktøy som ansatte bruker på eget initiativ
Ved bruk av generativ KI har det svært stor betydning om dette er et verktøy som virksomheten din har anskaffet for deg og/eller andre ansatte, eller om dette er et verktøy du som ansatt tar i bruk på eget initiativ. Dette får betydning for både valg av verktøy og prosessen knyttet til anskaffelsen.
Når virksomheten anskaffer et verktøy, skal det skje i tråd med interne rutiner og juridiske forpliktelser. Før bruk skal nødvendige sikkerhetsvurderinger og relevante juridiske vurderinger være gjennomført.
Normalt vil verktøy som anskaffes av en virksomhet være tilpasset bedriftskunder. Det kan være et verktøy særskilt utviklet for virksomheter, eller et vanlig produkt, for eksempel et regneark, som er tilpasset gjennom lisens- og avtaleendringer. Slike bedriftsverktøy tar normalt høyde for at kjøperen har rettslige forpliktelser som begrenser hvordan verktøyet kan brukes. For visse generativ KI-verktøy fremgår det eksempelvis eksplisitt ting som «leverandør X benytter ikke dine data til trening av systemet e.l.»
Verktøy tilpasset bedriftskunder har ofte en høyere lisenskostnad enn verktøy for forbrukere. Dette kan blant annet skyldes ekstra sikkerhetsfunksjoner. Det kan også være fordi leverandøren av bedriftsverktøy i mindre grad kan bruke dataene til egne formål, så de kompenserer for dette med høyere lisenskostnader. Litt enkelt sagt så betaler en med penger fremfor å betale med data.
Verktøy som ansatte tar i bruk på eget initiativ er normalt rettet mot enkeltpersoner som forbrukere, ikke virksomheter. Vilkårene er tilpasset dette. Når ansatte bruker slike verktøy på eget initiativ, skjer bruken utenfor virksomhetens rutiner. Dette kalles ofte skygge-IT. Bruken er ikke kvalitetssikret av virksomheten.
Forbrukerrettede verktøy tar i mindre grad hensyn til rettslige forpliktelser virksomhetene har. Dette gjelder særlig ved deling av informasjon. Leverandørene forbeholder seg i mange tilfeller retten til å bruke informasjonen som deles med systemet. Dersom den ansatte ikke er oppmerksom på dette, risikerer den ansatte gjennom bruken av verktøyet å dele informasjon med leverandøren på en måte som ikke er lovlig.
De forbrukerrettede verktøyene som ansatte tar i bruk på eget initiativ vil ofte være rimeligere enn det de bedriftstilpassede verktøyene er. For slike verktøy tilbys det færre bedriftsrettede sikkerhetstiltak. I tillegg er det også færre begrensninger på hva leverandøren forbeholder seg retten til å benytte dataen til, noe som bidrar til å holde kostnadsnivået lavt. Litt enkelt sagt, betaler en i større grad med data enn med penger.
Generelle råd for bruk av KI-verktøy
Bruk godkjente verktøy
Ikke ta i bruk verktøy på eget initiativ uten at dette er avklart med IT-avdelingen i din virksomhet, såkalt «skygge-IT». IT-avdelingen har normalt rutiner for anskaffelser av verktøy som sikrer at dette skjer i henhold til rettslige krav, interne retningslinjer og sikkerhetsarbeid, og økonomiske prioriteringer. Ved å ta verktøy i bruk på eget initiativ, risikerer du at dette ikke blir fulgt.
Bruk verktøyet i tråd med interne rutiner
Anskaffelsen av et IT-verktøy kan lede til at det oppstilles interne retningslinjer for bruken av verktøyet og/eller at de ansatte blir tilbudt opplæring for å sørge for at verktøyet brukes på riktig måte. Følg dette!
Vær nysgjerrig og bruk KI-verktøyet
Når du har tilgang til et godkjent KI-verktøy bør dette utforskes og du bør se om det finnes nye måter å løse arbeidsoppgavene dine på. Så lenge virksomheten har vurdert verktøyet og du bruker det i tråd med interne retningslinjer og opplæring, behøver du ikke å være redd for å gjøre feil i selve verktøyet. Du må likevel være bevisst hva du bruker resultatet fra verktøyet til.
Vurder å opplyse om KI-bruk
Det kan være at du skal opplyse om at du har brukt KI. Hvor åpen du skal være kan du vurdere i lys av formål, målgruppe og hvor mye teksten bygger på KI. Det kan eksempelvis være riktig å opplyse dersom store deler av en tekst er KI-generert og lite omarbeidet. Derimot er det kanskje ikke nødvendig å opplyse om KI-bruk for utkast og interne e-poster som du har skrevet om og kvalitetssikret. For bilder og video har vi egne råd.
Kvalitetssikre alltid innhold fra KI-verktøy
Behandle svar fra KI-verktøyet som forslag som må kontrolleres. Åpne lenker som verktøyet foreslår og sammenlign innholdet med primærkilder. Det er du som til slutt er avsender og skal stå for innholdet!
Vær varsom uten tilstrekkelig fagkompetanse
Dersom en fagekspert på et område bruker et generativt KI-verktøy, så vil det være lettere å se hvor innholdet er feil og det er lettere å være kildekritisk. Uten tilstrekkelig kompetanse, kan det derimot være er lett å akseptere tekst som ser riktig ut, men som er feil. Vær varsom ved bruk av en språkmodell til faglig innhold du ikke kan kontrollere.
Bruk ytterligere verktøy som din IT-avdeling tilbyr
Det finnes verktøy som kan redusere noen av risikoene som kan oppstå når offentlig sektor produserer og konsumerer KI-innhold. Eksempler er verktøy for å vurdere plagiat av tekst og kode, verktøy for å vurdere om det finnes kodelisenser som begrenser bruk og til en viss grad verktøy for å vurdere om innhold er KI-generert. Dersom IT-avdelingen i din virksomhet har gjort slike verktøy tilgjengelig, må du ta disse i bruk!
Bruk av forbrukerrettede KI-verktøy i arbeid
Det klare utgangspunktet er at du ikke skal ta i bruk forbrukerrettede generative KI-løsninger i arbeidssammenheng. Et unntak fra dette er imidlertid dersom din arbeidsgiver har godkjent bruken av et slikt verktøy. Videre må vi anta at flere arbeidstakere, tross utgangspunktet, bruker forbrukerrettede generative KI-løsninger i arbeidssammenheng også der det ikke er godkjent fra arbeidsgiver.
Uansett bakgrunnen for at du bruker forbrukerrettede KI-verktøy er følgende anbefalinger viktige:
- Ikke bruk sensitiv informasjon i «prompts»: Personopplysninger, taushetsbelagt informasjon, gradert informasjon, informasjon unntatt offentlighet, sikkerhetssensitiv informasjon eller immaterialrettslig vernet informasjon skal ikke brukes til å gi instruksjoner til generative KI-verktøy. For åpne modeller må det som utgangspunkt legges til grunn at informasjonen i et «prompt» blir sendt til selskapet bak verktøyet og vil bli lagret og brukt til videre trening av den underliggende maskinlæringsmodellen. Ved bruk av modeller for kodegenerering vil sensitiv informasjon også kunne omfatte ting som API-nøkler og annen sikkerhetsinformasjon.
- Ha et bevisst forhold til ulike grensesnitt for generativ KI: Når en interagerer med en stor språkmodell gjør en ikke dette direkte, men via et grensesnitt. Eksempelvis er ChatGPT et grensesnitt for å interagere med GPT-modellene. Det finnes flere ulike grensesnitt. Noen er offisielle, slik som ChatGPT. Andre er utviklet av tredjeparter. Det finnes flere sikkerhetsrisikoer knyttet til grensesnittene. Eksempelvis kan «prompt injection» gjøre at «promptet» blir manipulert. Ved valg av grensesnitt for generativt KI må en derfor ha et kritisk blikk. Er dette fra en aktør jeg kan stole på, og kan «promptet» mitt misbrukes?
Generering av tekst
Generative KI-verktøy kan «hallusinere»
Generative KI-verktøy bygger på store språkmodeller som er trent på enorme mengder tekst. Dette har gitt dem oversikt over strukturer i språk og gjør det mulig å gjette det neste sannsynlige ordet (mer presist «token») basert på det som kom tidligere. Litt forenklet kan en si at språkmodellens eneste oppgave er å gjette hva som er det neste sannsynlige ordet. Den forholder seg som utgangspunkt ikke til om det neste sannsynlige ordet er sant eller ikke. Hvis vi sier «hovedstaden i Norge er» er det sannsynlig at det neste ordet er «Oslo». Men det finnes også en viss sannsynlighet for at ordet er «Stockholm», fordi Stockholm og Sverige ofte har blitt omtalt i forbindelse med Oslo og Norge i datasettene som språkmodellen er trent på. Når språkmodellen gjetter det neste ordet og dette er oppdiktet kalles det ofte «hallusinering».
Vær varsom ved bruk som oppslagsverk
Siden modellen kan hallusinere, finnes det ingen garanti for at «faktaopplysninger» er korrekte. Noen generative KI-verktøy kan gjøre nettsøk og vise kilder, men svaret er fortsatt generert. Verktøyet kan feiltolke innhold, blande flere kilder eller oppgi informasjon som ikke finnes i kilden. Det kan også foreslå henvisninger som ser riktige ut, men som ikke lar seg bekrefte.
Påvirk konteksten
Språkmodellen skriver videre fra det den får se. Dersom du legger inn kontekst, bidrar til å sette en ramme for svaret. Jo tydeligere rammen er, jo mindre må modellen gjette. Slik kan du bidra til å redusere sannsynligheten for at språkmodellen «hallusinerer». Kontekst kan være en eksisterende tekst, en mal, en sjekkliste, en begrepsliste eller instruksjoner om formål og målgruppe. Slike elementer styrer ordvalg, struktur og innhold. Modellen holder seg da nærmere det du allerede vet er riktig.
Her er noen konkrete forslag til hvordan du kan påvirke konteksten.
- Start med en tekst du stoler på. Lim den inn.
- Si hva du vil oppnå. Be om kortere tekst, klarspråk eller bedre struktur.
- Oppgi målgruppe og formål. Skriv hvem som skal lese og hva de skal få ut av teksten.
- Gi rammer for form og lengde. Be om et antall ord, avsnitt eller punktlister.
- List fakta som må bli med. Ta med riktige navn, tall, datoer og lovhenvisninger.
- Be modellen holde seg til teksten du la inn. Be om ingen nye fakta.
- Legg ved maler og ordlister. Be modellen følge dem.
- Be om konkrete leveranser. Be om sammendrag, overskrifter og kulepunkter.
- Be om at uklare punkter listes opp. Da ser du hva som mangler.
- Be gjerne om to til tre varianter. Velg den som passer best.
Eksempel på instruks:
«Gjør denne teksten kortere. Behold alle tall og henvisninger. Skriv i klarspråk for ansatte i kommunen. Lag tre kulepunkter som oppsummerer hovedpoengene.»
Husk at svarene ikke nødvendigvis er tilpasset våre verdier
Store språkmodeller reflekterer verdiene i dataene som systemet er trent på og til en viss grad også verdiene til menneskene som har utviklet disse systemene. Det er ikke gitt at disse verdiene samsvarer med verdiene vi har i vårt samfunn og dette kan reflekteres i svaret. Du kan forsøke å styre svaret i riktig retning ved å nevne føringer i prompten, for eksempel “skriv i tråd med offentlig språkprofil” eller “unngå stereotypier”. Likevel må du lese kritisk og sørge for at resultatet ikke inneholder noe upassende. Hvis svaret eksempelvis bare omtaler ett kjønn eller en bestemt gruppe, bør du justere prompt for bedre balanse.
Generering av bilder, video og lyd
Opplys om at mediene er generert
La mottakeren av mediene forstå at bildene er generert ved hjelp av kunstig intelligens. Dette er særlig viktig der mediene er realistiske, ettersom realistiske dette kan gi uttrykk for en forståelse av verden, og dermed kan gi bekymring eller kan påvirke meninger på manipulerende måte.
Ingen «deepfakes» uten tillatelse
Ikke lag syntetiske fremstillinger, «såkalte deepfakes», av faktiske personer uten uttrykkelig samtykke.
Unngå stereotyper og utilsiktet skjevhet
Sørg for balansert representasjon av kjønn, alder, etnisitet og roller. Justér prompten dersom motivene blir ensidige eller stereotypiske.
Generering av kode
Ikke bruk kode du ikke forstår
Som utvikler er det viktig å alltid vurdere, teste og sikre egnetheten til kodeforslag fra KI-verktøy.
Vær bevisst «konteksten» – og virksomhetens oppsett
Virksomheten din kan ha satt regler på organisasjons- eller teamnivå for hva KI-verktøy får se (for eksempel ekskludering av mapper/filer og begrensning av datadeling). Da arver du disse innstillingene. Hvis dette ikke er satt opp, kan du likevel lokalt begrense konteksten ved å utelukke nøkler, miljøvariabler, testdata og andre sensitive filer. Del aldri hemmeligheter i klartekst, og varsle behov for sentral konfigurasjon dersom du oppdager hull. Her finner du informasjon om oppsett for noen populære verktøy:
- GitHub Copilot: Excluding content from Copilot
Android Studio (Gemini): Configure context sharing with .aiexclude files
JetBrains IDE-er: Restrict or disable AI Assistant features
Flere studier har undersøkt hvordan bruk av KI-baserte kodeassistenter påvirker kvaliteten og sikkerheten i kode.
Studien "Lost at C: A User Study on the Security Implications of Large Language Model Code Assistants" (2022) undersøkte hvordan studentprogrammerere som brukte KI-assistenter påvirkes i deres arbeid med lavnivå-programmering i C. Resultatene viste at KI-assisterte brukere produserte kritiske sikkerhetsfeil i koden med en frekvens som ikke oversteg 10 % høyere enn kontrollgruppen. Studien konkluderer med at bruken av KI-assistenter i denne konteksten ikke introduserer nye sikkerhetsrisikoer.
""Do Users Write More Insecure Code with AI Assistants?"" (2022) gjennomførte en brukerundersøkelse for å undersøke hvordan AI-assistenter basert på OpenAIs Codex-davinci-002 påvirker utviklere. Studien fant at deltakere som brukte en KI-assistent, skrev mindre sikker kode enn de uten assistenten. Disse brukerne overvurderte også sikkerheten i egen kode. Studien fremhevet at mer kritisk interaksjon med verktøyene, som omformulering av prompts, kan føre til sikrere kode.
Studien "An Empirical Study of Code Smells in Transformer-based Code Generation Techniques" (2022) analyserte forekomsten av "code smells" (karakteristiker i kildekoden som kan indikere dypere problemer) og sikkerhetsfeil i data brukt til å trene transformer-baserte modeller og i koden disse modellene genererer. Studien fant at treningsdatasett som CodeXGlue, APPS og Code Clippy inneholder betydelige mengder "code smells" og sikkerhetsfeil. Dette "lekket" inn i koden generert av modellene, inkludert GitHub Copilot, som genererte 18 ulike typer "code smells" herunder to typer sikkerhetsfeil.
Studien Asleep at the Keyboard? Assessing the Security of GitHub Copilot's Code Contributions (2022) undersøkte sikkerheten i koden generert av GitHub Copilot. Ved å bruke 89 ulike scenarier relatert til høyrisiko-sårbarheter, fant forskerne at omtrent 40 % av programmene generert av Copilot inneholdt sikkerhetsproblemer.
Disse studiene fokuserer på spesifikke språkmodeller, og det er derfor usikkert om funnene kan generaliseres til andre modeller. Videre kan nyere og mer avanserte språkmodeller levere bedre resultater, og nyere forskning vil kunne gi andre konklusjoner. Likevel er det et godt prinsipp for å redusere mulige sårbarheter å unngå ukritisk bruk av kodeforslag, spesielt hvis man ikke fullt ut forstår hvordan koden fungerer.