Hopp til hovedinnhold

Veiledning for ansvarlig bruk og utvikling av kunstig intelligens

Veiledningen vår gir deg noen råd som kan hjelpe deg med å utvikle og bruke kunstig intelligens i tråd med eksisterende og kommende regelverk. På denne siden finner du informasjon om denne veiledningen. I sidemenyen og i lenkene under finner du sidene som utgjør selve rådene i veiledningen.

Åpen beta

Denne veiledningen er i «åpen beta». I tiden fremover ønsker vi tilbakemeldinger og innspill til innholdet som presenteres her. Det betyr at rådene du finner i veiledningen kan bli endret. Har du innspill til oss vil vi gjerne høre fra deg! Ta kontakt med oss på Datalandsbyen så sikrer vi at innholdet her blir best mulig.

    Om veiledningen

    Informasjonen du finner her er ikke uttømmende veiledning til KI-feltet. Vi presenterer en rekke konkrete råd for å hjelpe virksomheter med å utvikle og bruke kunstig intelligens i henhold til eksisterende og kommende regelverk. Rådene er ikke bindende, men skal peke på beste praksis.

    Bakgrunnen for en slik innretning er behovet for konkrete råd på digitaliseringsfeltet, nødvendigheten av tilpasning til andre ressurser og hastigheten på KI-feltet. Dette beskriver vi nærmere i punktene under:

    Behov for konkrete råd

    Digdir erfarer at det på digitaliseringsfeltet er et stort behov for konkret rådgivning. Det er mange store spørsmål og sammensatte spørsmål. Kunstig intelligens er i dag indirekte regulert gjennom eksisterende regelverk, slik som Grunnloven, Menneskerettighetsloven, Forvaltningsloven, Likestilling- og diskrimineringsloven og Personvernforordningen. I tillegg vil kunstig intelligens også bli mer direkte regulert av den kommende KI-forordningen. Utfordringen er imidlertid ofte «hvordan» en skal sikre kravene i regelverket.

    Vi ser det slik at det har relativt liten verdi å gi overordnede føringer som at «Kunstig intelligens skal brukes rettferdig». Slike føringer vil i stor grad være mulig finne i eksisterende regelverk. Det er imidlertid et stort behov for å konkrete råd for å nettopp bidra til å ivareta krav som følger av eksisterende og kommende regelverk.

    Tilpasning til andre ressurser

    Kunstig intelligens er et globalt fenomen. Problemstillingene rundt kunstig intelligens diskuteres i mange forskjellige internasjonale fora.

    For regulering av kunstig intelligens er regelverksarbeidet EU med KI-forordningen helt sentralt. Tett knyttet til denne forordningen er det et omfattende standardiseringsarbeid hos aktører som CEN-CENELEC og ISO. Den kommende KI-forordningen med tilhørende standarder vil etter all sannsynlighet gjelde for Norge. Dette betyr at retningslinjer og veiledning i Norge må ta høyde for og tilpasses den kommende reguleringen og standardiseringen.

    Videre ser vi at mange lands myndigheter og internasjonale organer utvikler veiledninger og råd om kunstig intelligens. Flere av disse adresserer generelle spørsmål knyttet til KI som ikke er geografisk begrenset. Slik veiledning vil være av verdi for aktører i Norge, og det vil være hensiktsmessig å knytte Digdirs veiledningsarbeid mot dette for å unngå unødig dobbeltbehandling.

    Hastighet på KI-feltet

    Kunstig intelligens er et område som beveger seg svært raskt. Det vil være behov for at veiledning og retningslinjer kan holdes oppdatert i tråd med den teknologiske utviklingen.

    Åpen beta

    For å gi gode råd om kunstig intelligens er det viktig at vi enkelt kan oppdatere dem i tråd med at vi får ny kunnskap. Kommende oppdateringer kan skyldes at det skjer endringer på KI-feltet. Det kan også skyldes at vi får gode innspill fra akademia, andre offentlige virksomheter eller næringslivet. Svært mange som jobber med kunstig intelligens, både nasjonalt og internasjonalt. Vi ønsker å knytte vår veiledning til andre nyttige ressurser, og å motta innspill med forslag til forbedring.

    Veiledningsmaterialet lanseres på Digdirs nettsider derfor som en åpen beta. I tiden fremover ønsker vi tilbakemeldinger og innspill til innholdet som presenteres på våre sider for kunstig intelligens. Det betyr at rådene du finner i veiledningen kan bli endret. Har du innspill til oss vil vi gjerne høre fra deg! Ta kontakt med oss på Datalandsbyen så sikrer vi at innholdet her blir best mulig.

    Oversikt over kunstig intelligens i offentlig sektor

    En viktig ressurs som henger sammen med denne veiledningen er Oversikt over kunstig intelligens i offentlig sektor. Oversikten er utviklet i samarbeid med NORA.ai og gir en unik oversikt over hvordan kunstig intelligens brukes i offentlig sektor.

    Oversikten bidrar til en åpen offentlig sektor. Kunstig intelligens kan fremstå som fremmed for mange og oversikten gjør at offentlig sektor vi kan vise innbyggerne hvordan kunstig intelligens brukes.

    Videre er oversikten viktig for å sikre gode vurderinger og god ressursbruk. Ved å bruke oversikten kan offentlige virksomheter komme i kontakt med andre som har tilsvarende prosjekter. I stedet for da å gjøre dobbelt arbeid, kan offentlige virksomheter utveksle erfaringer og sikre at resultatet får høyest mulig kvalitet. Dette bidrar også til ansvarlig bruk av kunstig intelligens og understøtter dermed formålet med denne veiledningen.

    Sidene i veiledningen

    Hovedsider i KI-veiledningen

    Andre relevante sider i veiledningen

    For privat sektor så langt den passer

    Veiledningen er utformet med tanke på utvikling og bruk av kunstig intelligens offentlig sektor. Mange av spørsmålene og utfordringene knyttet til ansvarlig bruk av kunstig intelligens er imidlertid også de samme for privat sektor. Denne veiledningen kan også benyttes for privat sektor så langt den passer. Da er det i såfall grunn til å være oppmerksom på at visse hensyn kan vektes annerledes offentlig og privat sektor. Et eksempel på dette er hensynet til åpenhet, hvor flere regler stiller særlige krav til offentlig sektor.

    Vi har brukt generativ KI i arbeidet

    Under utarbeidelsen av denne veiledningen har vi aktivt benyttet ChatGPT, en avansert språkmodell utviklet av OpenAI. Vi har brukt ChatGPT i samsvar med våre egne retningslinjer for generativ KI. Dette innebærer at vi i veldig liten grad har brukt ChatGPT til å generere nytt innhold. Vi har først og fremst brukt det for å kvalitetssikre eksisterende tekst, komme med forslag til forbedringer og bidra til bedre språk.

    Endringslogg

    • Fjerne deler av siden for generativ KI i påvente av oppdateringer

    • Avpublisere side knyttet til KI-forordningen i påvente av oppdatering

    Uke 49 (4-8. desember):

    • La til henvisning til NCSC retningslinjer for sikker systemutvikling av KI på siden for råd for utvikling og bruk under delen for informasjonssikkerhet

    Uke 50 (11-15. desember):

    • Gjort noen raske endringer på informasjonssiden for å reflektere enighet i triloguen. Siden vil bli ytterligere oppdatert når Digdir får tilgang til nyeste tilgjengelige utkast til forordningen.

    Uke 45 (6-10. november):

    • Lagt til et avsnitt på denne siden om at vi har benyttet ChatGPT i utarbeidelsen av veiledningen.

    Uke 46 (13-17. november):

    • Oppdatert punktet om likebehandling etter LDOs veileder som ble lansert den 8. november 2023. Har også lagt til henvisning til LDOs veileder under samlesiden for ressurser.

    Uke 40 (2.-6. oktober):

    • Utvidet informasjonen om håndhevelsen av KI-forordningen på vår side om KI-forordningen.

    Uke 33 (14.-18. august):

    • Lagt til avsnitt om digital inkludering
    • Tilføyd avsnitt om trening av grunnmodeller på egen data i forbindelse med råd for bruken av generativ kunstig intelligens i offentlig sektor. Informasjon om UiOs GPT-prosjekt er også integrert på denne siden.

    Uke 34 (21.-25. august):

    • Lenket til Teknologirådets ordliste under siden for retningslinjer for generativ KI.
    • Endringer i tekst om "likebehandling" under råd for utvikling og bruk. Presisert begrepbruk rundt "bias"

    Uke 28 (10.-14. juli):

    • Oppdatert tekst på AIA side om grunnmodeller - småjusteringer
    • Løsnet kobling til NIST-rammeverk (fjernet trekkspillbokser) på risikovurderingssiden under punktet om "Hvordan vurderer jeg risiko ved utvikling og bruk av kunstig intelligens". Vi ønsker å bevare en kort innføring. Brukere som vil grave dypere, går heller selv til NIST AI RMF.
    • Oppdatert tekster om hvorfor åpenhet er viktig på åpenhetssiden for å sikre bedre samsvar mellom tekstene og videoene til Inga Strümke.