Ansvarlig anskaffelse og bruk av generativ kunstig intelligens i offentlig sektor
Generativ kunstig intelligens har aldri vært mer tilgjengelig enn nå. Som med all teknologi, må generativ KI brukes ansvarlig. På denne siden finner du som skal anskaffe eller ta i bruk generativ KI noen råd for å hjelpe deg med dette.
Åpen beta
Denne siden er i «åpen beta». I tiden fremover ønsker vi tilbakemeldinger og innspill til innholdet som presenteres her. Det betyr at rådene du finner på denne siden kan bli endret. Har du innspill til oss vil vi gjerne høre fra deg! Ta kontakt med oss på Datalandsbyen så sikrer vi at innholdet her blir best mulig.
Viktigheten av utforsking og læring
Utforsking og læring er et viktig mål ved bruk av generativ KI. Mange håper på å se store effektivitetsgevinster allerede nå, men opplevelsene vil variere i begynnelsen. For noen åpner teknologien nye måter å løse oppgaver på og skaper rom for forbedring. Generative verktøy kan i slike tilfeller bidra til økt effektivitet og bedre løsninger. Samtidig vil mange bli skuffet fordi resultatene ofte ikke står i stil til forventningene. Mange har lest om potensielle effektiviseringsgevinster, men opplever at verktøyene ikke fungerer så godt som antatt. I Norge kan dette i noen tilfeller skyldes at de store språkmodellene ikke er tilpasset norsk språk og norske forhold, noe som gjør at arbeid på norsk kanskje ikke gir de ønskede resultatene.
Selv om vi ikke skulle se store effektiviseringsgevinster på kort sikt, er det sannsynlig at slike gevinster vil komme på lengre sikt. De generative KI-verktøyene kan i dag brukes på oppgaver som mennesker bruker mye tid på. Forutsatt at verktøyene blir bedre, vil det i et lengre perspektiv sannsynligvis gi betydelige gevinster, selv om vi nå befinner oss i en tidlig fase. Potensialet for gevinster gjør det nødvendig å utforske og forstå denne teknologien. Selve utforskingen vil i tillegg bidra til at effektiviseringsgevinstene kan oppnås raskere. En sammenligning kan gjøres med introduksjonen av biler – de første bilene var kanskje ikke raskere enn hestene på sin tid, men det var nødvendig å utforske teknologien for å legge grunnlaget for en fremtidig effekt. Hvis alle gikk og ventet på den første bilen som kunne utkonkurrere hestene på alle tenkelige måter ville ingenting hendt.
En viktig del av denne utforskningen er å lære hvordan vi kan bruke KI-verktøyene på en trygg og ansvarlig måte. Det er mulig å gi enkelte overordnede råd om dette, og disse kan du lese mer om lengre ned på denne siden. Det er imidlertid ikke mulig å gi en uttømmende oversikt over hvordan en kan bruke de generative KI-verktøyene riktig. Virksomheter er ulike, og vurderingene vil derfor variere. Ved å forstå hva KI-verktøyene er gode på, hva de ikke egner seg til, og på hvilke områder de blir bedre med tiden, blir grunnlaget for å gjøre disse vurderingene for din virksomhet best mulig.
Forskjellen på verktøy levert av virksomhet og forbrukerrettede verktøy
Ved bruk av generativ KI har det stor betydning om dette er et verktøy som virksomheten din har anskaffet for deg og/eller andre ansatte, eller om dette er et verktøy du som ansatt tar i bruk på eget initiativ. Dette får betydning for både valg av verktøy og prosessen knyttet til anskaffelsen.
Dersom det er virksomheten som er ansvarlig for anskaffelsen av verktøyet skal dette være gjort i tråd med virksomhetens rutiner. Dette innebærer at nødvendige sikkerhetsvurderinger og andre relevante juridiske vurderinger skal være gjennomført.
Normalt vil verktøyet som anskaffes av en virksomhet være tilpasset bedriftskunder. Det kan bety at det er et verktøy som er særlig utviklet for bedriftskunder eller at det er et vanlige verktøy, eksempelvis et verktøy for å lage regneark, men hvor det er gjort tilpasninger i lisenser og avtaleforhold. Slike bedriftsverktøy er som utgangspunkt laget med tanke på at kjøperen, for eksempel en offentlig myndighet, har rettslige forpliktelser som begrenser hvordan verktøyet kan brukes. For visse generativ KI-verktøy fremgår det eksempelvis eksplisitt ting som «leverandør X benytter ikke dine data til trening av systemet e.l.»
Verktøyene som er tilpasset bedriftskunder har ofte en høyere lisenskostnad enn verktøy for forbrukere. Dette kan blant annet skyldes ekstra sikkerhetsfunksjoner. Det kan også være fordi leverandøren av bedriftsverktøy i mindre grad kan bruke dataene til egne formål, så de kompenserer for dette med høyere lisenskostnader. Litt enkelt sagt så betaler en med penger fremfor å betale med data.
Dersom ansatte tar i bruk verktøyene på eget initiativ, vil dette normalt ikke skje i tråd med virksomhetens rutiner. Dermed er det ikke gitt at nødvendige sikkerhetsvurderinger og juridiske vurderinger er gjennomført.
Verktøyene som ansatte tar i bruk på egenhånd er normalt ikke tilpasset bedriftskunder, men vil være tilpasset forbrukere som benytter verktøyet i privat sammenheng. Det innebærer at verktøyet i mindre grad tar høyde for rettslige forpliktelser som virksomheten den ansatte jobber i har. Dette kommer særlig til uttrykk ved deling av informasjon. Fordi verktøyet ikke er tilpasset bedrifter, forbeholder leverandørene seg i mange tilfeller retten til å bruke informasjonen en deler med systemet. Dersom den ansatte ikke er oppmerksom på dette, risikerer den ansatte gjennom bruken av verktøyet å dele informasjon med leverandøren på en måte som ikke er lovlig.
De forbrukerrettede verktøyene som ansatte tar i bruk på eget initiativ vil ofte være rimeligere enn det de bedriftstilpassede verktøyene er. For slike verktøy tilbys det færre bedriftsrettede sikkerhetstiltak. I tillegg er det også færre begrensninger på hva leverandøren forbeholder seg retten til å benytte dataen til, noe som bidrar til å holde kostnadsnivået lavt. Litt enkelt sagt, betaler en i større grad med data enn med penger.
Ansvarlighet for deg som skal anskaffe et KI-verktøy
- Bruk verktøy tilpasset bedriftskunder: Generelt bør en velge verktøy tilpasset bedriftskunder, fremfor verktøy som retter seg mot forbrukere. Bedriftsrettede verktøy og den tilknyttede lisensen reflekterer normalt at profesjonelle aktører har andre krav til sikkerhet, regelverksetterlevelse og kontroll enn det forbrukere har.
- Sørg for tilstrekkelig opplæring: God opplæring bidrar til at verktøyet brukes riktig, i samsvar med interne rutiner, retningslinjer og aktuelt regelverk. Sørg for at opplæringen er tilpasset din virksomhet, eksempelvis er det visse typer informasjon eller visse områder i din virksomhet hvor en ikke bør bruke generativ KI i dag? Det er ikke nødvendig med et finpusset opplæringsopplegg, og dere kan godt vektlegge rask og effektiv informasjon. For KI-verktøy for kodegenerering mener vi Statens vegvesen har gjort dette på en svært god måte med sin interne opplæringsvideo laget av utviklere for utviklere.
- Vær konsekvent i vurderingene: Digdir erfarer at det noen ganger legges til grunn en strengere terskel for KI-baserte verktøy enn andre verktøy uten at dette har god sammenheng med hvordan de underliggende tekniske løsningene fungerer. Vær konsekvent dersom det oppstår spørsmål knyttet til KI-verktøyet som tilsvarer spørsmål ved tradisjonell teknologi.
- Tenk en trinnvis innføring av verktøyet: Hvorvidt en skal anskaffe et generativt KI-verktøy behøver ikke å være et binært spørsmål hvor svaret enten er ja eller nei, at alle ansatte får tilgang eller ingen ansatte får tilgang, det er forsvarlig eller det er ikke forsvarlig. Vurder en trinnvis tilnærming. Kanskje det er mulig å gi noen ansatte tilgang? Kanskje det er mulig å bruke verktøyet på visse områder og visse typer informasjon, men ikke på andre? En mer trinnvis tilnærming gjør det mulig å få erfaring og kunnskap slik at man kan foreta best mulig vurderinger.
- Et viktig formål er læring og utforsking: Effektiviseringsgevinstene ved generative KI-verktøy varierer. Et viktig formål med å ta i bruk generative KI-verktøy i dag bør derfor være å lære seg hva verktøyet er egnet til og hva det ikke er egnet til i din virksomhet.
Hvordan sikrer vi at verktøyet er i henhold til relevant regelverk og sikkerhetskrav?
Det finnes dessverre ikke et klart svar på hvordan KI-verktøy kan i brukes i henhold til relevant regelverk og sikkerhetskrav. Det avhenger i stor grad av den enkelte virksomhet og det aktuelle verktøyet.
Det kan være nyttig å se hen til hvilke vurderinger andre virksomheter har gjort, men husk at dette bør være til inspirasjon. Hva andre har gjort behøver ikke å bestemme hva dere skal gjøre. Virksomhetene gjør vurderinger basert på sine konkrete forhold, og disse er ikke nødvendigvis allmenngyldige.
Relevante vurderinger, dokumenter og rapporter for generativ KI:
- NTNUs rapport “Pilotere Copilot for Microsoft 365”
- Datatilsynets sluttrapport for NTNU-prosjektet i sandkassen: Copilot med personvernbriller på
Digitaliseringsdirektoratet ønsker å utvide denne listen og arbeider med å innhente flere vurderinger av generative KI-verktøy. Når vi får avklart med de aktuelle virksomhetene at vi kan offentliggjøre dem, vil vi publisere dem her. Dersom du har innspill til vurderinger som er gjort og som kan gjøres tilgjengelig for alle, ta gjerne kontakt med oss på Datalandsbyen.
Ansvarlighet for deg som skal bruke et KI-verktøy
- Unngå skygge-IT: Ikke ta i bruk verktøy på eget initiativ uten at dette er avklart med IT-avdelingen i din virksomhet. IT-avdelingen har normalt rutiner for anskaffelser av verktøy som sikrer at dette skjer i henhold til rettslige krav, interne retningslinjer og sikkerhetsarbeid, og økonomiske prioriteringer. Ved å ta verktøy i bruk på eget initiativ, risikerer du at dette ikke blir fulgt.
- Bruk verktøyet i tråd med interne rutiner: Anskaffelsen av et IT-verktøy kan lede til at det oppstilles interne retningslinjer for bruken av verktøyet og/eller at de ansatte blir tilbudt opplæring for å sørge for at verktøyet brukes på riktig måte. Følg dette!
- Vær nysgjerrig og bruk KI-verktøyet: Dersom du først har fått tilgang til KI-verktøyet bør dette utforskes og du bør se om det finnes nye måter å løse arbeidsoppgavene dine på. Så lenge virksomheten har vurdert verktøyet og du bruker det i tråd med interne retningslinjer og opplæring, behøver du ikke å være redd for å gjøre feil.
Bruk av forbrukerrettede KI-verktøy i arbeid
Det klare utgangspunktet er at du ikke skal ta i bruk forbrukerrettede generative KI-løsninger i arbeidssammenheng. Et unntak fra dette er imidlertid dersom din arbeidsgiver har godkjent bruken av et slikt verktøy. Videre må vi anta at flere arbeidstakere, tross utgangspunktet, bruker forbrukerrettede generative KI-løsninger i arbeidssammenheng også der det ikke er godkjent fra arbeidsgiver.
Uansett bakgrunnen for at du bruker forbrukerrettede KI-verktøy er følgende anbefalinger viktige:
- Ikke bruk sensitiv informasjon i «prompts»: Personopplysninger, taushetsbelagt informasjon, gradert informasjon, informasjon unntatt offentlighet, sikkerhetssensitiv informasjon eller immaterialrettslig vernet informasjon skal ikke brukes til å gi instruksjoner til generative KI-verktøy. For åpne modeller må det som utgangspunkt legges til grunn at informasjonen i et «prompt» blir sendt til selskapet bak verktøyet og vil bli lagret og brukt til videre trening av den underliggende maskinlæringsmodellen. Ved bruk av modeller for kodegenerering vil sensitiv informasjon også kunne omfatte ting som API-nøkler og annen sikkerhetsinformasjon.
- Ha et bevisst forhold til ulike grensesnitt for generativ KI: Når en interagerer med en stor språkmodell gjør en ikke dette direkte, men via et grensesnitt. Eksempelvis er ChatGPT et grensesnitt for å interagere med GPT-modellene. Det finnes flere ulike grensesnitt. Noen er offisielle, slik som ChatGPT. Andre er utviklet av tredjeparter. Det finnes flere sikkerhetsrisikoer knyttet til grensesnittene. Eksempelvis kan «prompt injection» gjøre at «promptet» blir manipulert. Ved valg av grensesnitt for generativt KI må en derfor ha et kritisk blikk. Er dette fra en aktør jeg kan stole på, og kan «promptet» mitt misbrukes?
Råd for ansvarlig generativ kunstig intelligens
I tillegg til rådene som gjelder ved bruk og anskaffelse, har vi i samlet noen råd knyttet til ulike kategorier av generative KI-verktøy. Enten du skal lage retningslinjer og opplæring for din virksomhet, eller du skal bruke et verktøy, kan disse rådene hjelpe deg med å sikre ansvarlig generativ kunstig intelligens. Rådene er basert på hvordan generativ teknologi fungerer, relevant regelverk og Digitaliseringsdirektoratets erfaringer og dialog med andre virksomheter. Rådene er ikke uttømmende.
Generering av tekst
- Vær bevisst hva en språkmodell gjør: Store språkmodeller er trent på en enorm mengde tekst. Dette har gitt dem oversikt over strukturer i språk og gjør det mulig å gjette det neste sannsynlige ordet (mer presist «token») basert på det som kom tidligere. Litt forenklet kan en si at språkmodellens eneste oppgave er å gjette hva som er det neste sannsynlige ordet. Den forholder seg som utgangspunkt ikke til om det neste sannsynlige ordet er sant eller ikke. Hvis vi sier «hovedstaden i Norge er» er det sannsynlig at det neste ordet er «Oslo». Men det finnes også en viss sannsynlighet for at ordet er «Stockholm», fordi Stockholm og Sverige ofte har blitt omtalt i forbindelse med Oslo og Norge i datasettene som språkmodellen er trent på. Når språkmodellen gjetter det neste ordet og dette er oppdiktet kalles det ofte «hallusinering».
- Vær varsom ved bruk som oppslagsverk: Fordi språkmodellens jobb er å gjette det neste sannsynlige ordet, vil den ofte kunne gi uttrykk for fakta. Selv om resultatene tidvis kan være svært imponerende, er ikke modellene optimalisert for å gi presis faktainformasjon. Vær derfor varsom ved bruk av modellene som oppslagsverk. Til dette kommer også at flere språkmodeller ikke har faktainformasjon som er nyere enn for tidspunktet for trening av modellen.
- Bruk på eksisterende tekst fungerer ofte bra: Tar du utgangspunkt i eksisterende tekst, kan du bidra til å redusere sannsynligheten for at språkmodellen «hallusinerer». Bruk modellene gjerne til å korte ned, lage sammendrag, kulepunkter eller lignende av eksisterende tekst. Et eksempel på dette er å kopiere inn en tekst som er tung å lese og deretter spørre en stor språkmodell om å gjøre den til klarspråk.
- Husk at svarene ikke nødvendigvis er tilpasset våre verdier: Store språkmodeller vil reflektere verdiene i dataene som systemet er trent på og til en viss grad også reflektere verdiene til menneskene som har utviklet disse modellene og verktøyene. Det er ikke gitt at disse verdiene samsvarer med verdiene vi har i vårt samfunn og dette kan reflekteres i svaret.
- Bruk ytterligere verktøy som kan identifisere plagiat: Det finnes flere verktøy som kan bidra til å vurdere om tekstmaterialet som er produsert av en stor språkmodell kan være plagiat. Eksempelvis har enkelte skrivebehandlingsverktøy en «redaktør-funksjon» som kan bidra til å vurdere om tekstmaterialet er plagiert.
- Kvalitetssikre alltid innhold fra store språkmodeller: I tillegg til å påse at materialet ikke er plagiert, bør du alltid lese over og kvalitetssikre. Ikke bruk materialet direkte. Det er du som til slutt er avsender av teksten og skal stå for innholdet!
Generering av bilder
- Opplys om at bildene er generert: La mottakeren av bildene forstå at bildene er generert ved hjelp av kunstig intelligens. Dette er særlig viktig der bildene er realistiske, ettersom realistiske bilder kan gi uttrykk for en forståelse av verden, og dermed kan gi bekymring eller kan påvirke meninger på manipulerende måte.
- Husk universell utforming: Dersom KI-genererte bilder benyttes på en nettside, må du, som ved alle andre bilder huske å bruke alt-tekst for å sikre at materialet er tilgjengelig for alle. Dersom det er generert basert på en tekstprompt, vil dette promptet gi et godt utgangspunkt for alt-tekst.
Generering av kode
- Ikke bruk kode du ikke forstår: Som utvikler er det viktig å alltid vurdere, teste og sikre egnetheten til kodeforslag fra KI-verktøy.
Flere studier har undersøkt hvordan bruk av KI-baserte kodeassistenter påvirker kvaliteten og sikkerheten i kode.
Studien "Lost at C: A User Study on the Security Implications of Large Language Model Code Assistants" (2022) undersøkte hvordan studentprogrammerere som brukte KI-assistenter påvirkes i deres arbeid med lavnivå-programmering i C. Resultatene viste at KI-assisterte brukere produserte kritiske sikkerhetsfeil i koden med en frekvens som ikke oversteg 10 % høyere enn kontrollgruppen. Studien konkluderer med at bruken av KI-assistenter i denne konteksten ikke introduserer nye sikkerhetsrisikoer.
""Do Users Write More Insecure Code with AI Assistants?"" (2022) gjennomførte en brukerundersøkelse for å undersøke hvordan AI-assistenter basert på OpenAIs Codex-davinci-002 påvirker utviklere. Studien fant at deltakere som brukte en KI-assistent, skrev mindre sikker kode enn de uten assistenten. Disse brukerne overvurderte også sikkerheten i egen kode. Studien fremhevet at mer kritisk interaksjon med verktøyene, som omformulering av prompts, kan føre til sikrere kode.
Studien "An Empirical Study of Code Smells in Transformer-based Code Generation Techniques" (2022) analyserte forekomsten av "code smells" (karakteristiker i kildekoden som kan indikere dypere problemer) og sikkerhetsfeil i data brukt til å trene transformer-baserte modeller og i koden disse modellene genererer. Studien fant at treningsdatasett som CodeXGlue, APPS og Code Clippy inneholder betydelige mengder "code smells" og sikkerhetsfeil. Dette "lekket" inn i koden generert av modellene, inkludert GitHub Copilot, som genererte 18 ulike typer "code smells" herunder to typer sikkerhetsfeil.
Studien Asleep at the Keyboard? Assessing the Security of GitHub Copilot's Code Contributions (2022) undersøkte sikkerheten i koden generert av GitHub Copilot. Ved å bruke 89 ulike scenarier relatert til høyrisiko-sårbarheter, fant forskerne at omtrent 40 % av programmene generert av Copilot inneholdt sikkerhetsproblemer.
Disse studiene fokuserer på spesifikke språkmodeller, og det er derfor usikkert om funnene kan generaliseres til andre modeller. Videre kan nyere og mer avanserte språkmodeller levere bedre resultater, og nyere forskning vil kunne gi andre konklusjoner. Likevel er det et godt prinsipp for å redusere mulige sårbarheter å unngå ukritisk bruk av kodeforslag, spesielt hvis man ikke fullt ut forstår hvordan koden fungerer.
- Vær bevisst «konteksten»: Populære verktøy som f.eks. Android Studio og Github Copilot har muligheten til å ekskludere visse filer fra konteksten for den KI-assisterte kodegenereringen, slik som miljøvariabler, «security tokens» og testdata. Det er noe variasjon i hvordan de ulike tilnærmingene for å utelukke visse typer innhold fungerer. For Android Studio kan du lese nærmere om dette på Configure context sharing with .aiexclude files og for Github Copilot kan du lese nærmere om dette på Excluding content from Github Copilot. Funksjonene, særlig for Github Copilot ser ut til å være på betastadiet. Vær derfor bevisst på endringer på dette området.
Om denne siden
Den første versjonen av disse rådene ble publisert på Datalandsbyen i forbindelse med lanseringen av Digitaliseringsdirektoratets veiledning tirsdag 6. juni 2023. Der fikk vi innspill som vi har tatt hensyn til i retningslinjene på denne siden. Retningslinjer for generativ kunstig intelligens vil være nødvendig å diskutere også i tiden fremover. Samtidig ser vi at det allerede nå er viktig å komme ut med noen grunnleggende utgangspunkter for bruk av generativ kunstig intelligens i offentlig sektor.
Høsten 2024 har vi gjort oppdateringer i teksten på denne siden. Vi takker Statens vegvesen for gode innspill knyttet til KI-assistert kodegenerering og for deling av opplæringsvideo.
Vi ønsker fremdeles tilbakemeldinger på retningslinjene. Ta derfor gjerne kontakt med oss på Datalandsbyen med innspill og kommentarer.