Hopp til hovedinnhold

KI-ressurser

Her finner du tips til ressurser for å lære mer om KI og ressurser som skal bidra til ansvarlig bruk av kunstig intelligens i offentlig sektor.

Åpen beta

Denne siden er i «åpen beta». I tiden fremover ønsker vi tilbakemeldinger og innspill til innholdet som presenteres her. Det betyr at rådene du finner på denne siden kan bli endret. Har du innspill til oss vil vi gjerne høre fra deg! Ta kontakt med oss på Datalandsbyen så sikrer vi at innholdet her blir best mulig.

Hvor kan jeg lære om kunstig intelligens?

Med kunnskap om hva kunstig intelligens (KI) er, blir det lettere å forstå hvordan KI kan brukes, gevinstene ved KI, men også de samfunnsutfordringen denne typen løsninger kan skape.

Det finnes svært mange ressurser for å lære om kunstig intelligens. Et godt sted å starte er "Elements of AI". Dette er et gratis nettkurs utviklet av Reaktor, Helsingfors Universitet og Feed. NTNU tilbyr kurset på norsk. Kurset passer for deg som vil lære om hva KI er, hvordan KI utvikles, og hva teknologien kan (og ikke kan) brukes til. Kurset er tekstbasert og kombinerer teori med praktiske oppgaver. Gjennomsnittlig tid for å fullføre kurset er 25 timer, og du kan ta det i ditt eget tempo.

Digital Norway tilbyr også ulike kurs om kunstig intelligens. Kursene er digitale og gratis. Flere av disse er mikrokurs og introkurs og kan dermed gi deg en rask innføring i disse temaene.

Dersom du foretrekker videokurs har PBS kursserien "Crash Course: Artificial Intelligence". Kurset er på engelsk og går grundig igjennom mange ulike sider ved kunstig intelligens på en pedagogisk måte.

Det finnes mange gode ressurser for å fordype deg enda mer om kunstig intelligens:

  • 3Blue1Brown er hovedsaklig en YouTube-kanal som går i dybden på ulike emner spørsmål på en interaktiv og pedagogisk måte. Kanalen har særlig en serie om nevrale nett som kan være interessant for deg som ønsker å lære om grunnleggende deler av nevrale nett slik som "gradient descent" og "backpropagation".
  • TwoMinutePapers er en YouTube-kanal som gjennomgår sentral forskning på Kunstig Intelligens. Kanalen tar for seg ulike artikler på en effektiv og interaktiv måte. Kanalen har flere videoer som går gjennom ChatGPT og den underliggende teknologien, GPT.
  • AI-forskeren Robert Miles har laget en YouTube-kanal for "Artificial Intelligence Safety Research". Dette kan nok oversettes til "trygg bruk og utvikling av kunstig intelligens", men det handler ikke først og fremst om tradisjonell informasjonssikkerhet. På kanalen går Robert Miles gjennom spørsmål knyttet til å sørge for at målene og interessene til AI samsvarer med våre mål og interesser, såkalt "AI alignment".
  • Computerphile er en YouTube-kanal tilknyttet Universitetet i Nottingham. Her går ulike forskere gjennom sentrale spørsmål og problemstillinger innenfor informatikk. Flere av videoene knytter seg til kunstig intelligens. Det er blant annet en serie om dataanalyse som kan være nyttig grunnkunnskap for å bedre forstå kunstig intelligens. Kanalen har i tillegg videoer om den ChatGPT, både om hvordan den virker og hvordan avdekke at AI har produsert en tekst.

Tekniske og sikkerhetsfaglige ressurser

Her peker vi på ulike ressurser som kan være nokså tekniske. Flere av dem er hovedsaklig rettet mot teknologer og personer som jobber med informasjonssikkerhet. Under punktet, "Strategi og regelverk", finner du flere strategier som ikke er så tett knyttet til teknologien.

Tekniske verktøy

OECD har laget en katalog med oversikt over verktøy og metrikker for trygg og pålitelig kunstig intelligens. Katalogen gjør det lettere å finne verktøy og metrikker som kan bidra til å utvikle og distribuere trygge og pålitelige KI-systemer.

Kunstig intelligens og informasjonssikkerhet

NCSC retningslinjer for sikker systemutvikling av KI

Myndigheter fra 18 land, inkludert Norge, har utarbeidet et sett med retningslinjer for sikker utvikling av KI-systemer. som ble offentliggjort den 27. november. Initiativet ble ledet av Storbritannias nasjonale cybersikkerhetssenter (NCSC). Retningslinjene tilbyr praktiske metoder for hvordan KI-systemer kan utvikles for å sikre deres funksjonalitet, beskytte sensitive data, og motstå informasjonssikkerhetsangrep. Disse inkluderer utfordringer som datapoisoning og prompt injection attacks, og skisserer frivillige standarder for utvikling, distribusjon og vedlikehold av KI-systemer med informasjonssikkerhet i fokus.

OWASP veiledning for spesifikke KI-sikkerhetsutfordringer

OWASP er kjent for sin topp 10-liste over de største sikkerhetsrisikoene i programvare. De har også laget en veiledning for AI-sikkerhet og personvern. Veiledningen gjennomgår ulike sikkerhetsrisikoer ved bruk av AI, samt noen spørsmål knyttet til personvern. Spørsmålene knyttet til personvern er noe mer teknisk og sikkerhetsfaglig rettet enn typiske personvernveiledere.

Strategi og regelverk

Nasjonale ressurser

  • Veileder for innebygd diskrimineringsvern: Likestillings- og diskrimineringsombudet (LDO) lanserte den 8. november 2023 en veileder for innebygd diskrimineringsvern. Denne gir råd for å avdekke og forebygge diskriminering i utvikling og bruk av kunstig intelligens.
  • Regjeringens strategi for kunstig intelligens (KI-strategien): Strategien fra 2020 er fortsatt sentral for dagens KI-arbeid.
  • Datatilsynets regulatoriske sandkasse: Kunstig intelligens er en fagdisiplin som berører mange ulike rettsområder og samfunnsområder. Der hvor kunstig intelligens brukes på eller i tilknytning til personopplysninger kan det oppstå ulike personvernspørsmål. Personvernregelverket kan imidlertid være vanskelig å navigere i ved bruk av nye løsninger som kunstig intelligens. Datatilsynets regulatoriske sandkasse skal hjelpe enkeltaktører med å følge regelverket og utvikle personvernvennlige løsninger.
  • Rapport om kunstig intelligens og diskriminering: Det er varierende grad av kunnskap om risiko for diskriminering ved bruk av kunstig intelligens hos flere offentlige virksomheter. Det viser en ny rapport bestilt på oppdrag fra Barne-, ungdoms- og familiedirektoratet (Bufdir).

EU og Europarådet

Den europeiske tilnærmingen til kunstig intelligens er basert på beste praksis og tillit. Den er rettet mot å fremme forskning og industri, og samtidig sikre sikkerheten og grunnleggende rettigheter. Det har kommet en rekke initiativer fra EU, men den mest sentrale er forslaget til en ny forordning for kunstig intelligens. Den skal legge til rette for innovasjon og bruk av kunstig intelligens samtidig som man møter risikoer som kan følge av denne typen teknologi. Reglene vil gjelde for de som utvikler, tilbyr og bruker kunstig intelligens.

AI Watch er et initiativ fra EU-kommisjonen (EC) i fellesskap utviklet av EC Joint Research Centre (JRC) og Generaldirektoratet for kommunikasjonsnettverk, innhold og teknologi (DG CONNECT).

AI watch følger utviklingen, opptakten og innvirkningen av kunstig intelligens for Europakommisjonen. De har produsert en rekke rapporter som er relevant for bruk av KI i offentlig sektor. Disse er som følger:

Europarådets Committee on Artificial Intelligence (CAI) jobber med å skape et passende rettslig instrument innen utvikling, design og bruk av KI- systemer. Det skal baserest på Europarådets standarder vedrørende menneskerettighet, demokrati og rettsikkerhet, og bidra til innovasjon. Dette skal leveres innen utgangen av 2023, og Norge er representert ved Justis- og beredskapsdepartementet.

Et av de viktigste bakgrunnsdokumentene for dette arbeidet er Feasibility study on a legal framework on AI design, development and application.

Europeiske land

På grunn av EU/EØS har flere europeiske land regelverk som tilsvarer eller likner på vårt. Flere offentlige organer i europeiske land har utarbeidet dokumenter og retningslinjer som kan være av interesse:

  • Fundamental rights and algorithm impact assessment (FRAIA): Nederlandske myndigheter har utviklet FRAIA for å hjelpe til med å kartlegge risiko for menneskerettigheter ved bruk av algoritmer og iverksette tiltak for å håndtere disse risikoene.

  • AI and data protection risk toolkit: Den britiske myndigheten som tilsvarer Datatilsynet her i Norge har laget et verktøy for risiko knyttet til personvern som kan gi oversikt over en del bestemmelser i personvernforordningen (GDPR)

Andre internasjonale ressurser

Spørsmål om regulering av kunstig intelligens er ikke begrenset til Norge og Europa. Også på et globalt nivå og i andre store land er det flere initiativer.

Organisasjonen for økonomisk samarbeid og utvikling (OECD) er en internasjonal organisasjon som jobber for å utforme politikk som fremmer velstand, likhet, muligheter og velvære for alle. Det er flere relevante ressurser fra OECD knyttet til AI:

Selv om reguleringen i USA ikke er direkte relevant for Norge, er det interessant å se at USA har lansert en Blueprint for an AI Bill of Rights.

Ressurser fra ikke-offentlige organer

I tillegg til nasjonale og internasjonale initiativer er det også ulike organisasjoner som er aktive i feltet for regulering av kunstig intelligens.

Algorithm Watch er en non-profit forsknings- og beslutningsorganisasjon. De har flere publikasjoner, men det er særlig grunn til å trekke frem en nylig lansert guidebook om hvordan man kan håndtere diskriminering i algoritmer.