Utdannets logo

Slik fungerer ansvarlig KI i praksis

Slik bygger dere ansvarlig KI inn fra start: forklarbarhet, menneske i loopen, KI-forordningen og høyrisikosystemer for norske bedrifter.

Publisert

Utdrag fra nettkurset «KI-adopsjon for bedrifter: Fra ledelse til ansatte»Av

Bedriften har kjøpt Copilot-lisenser. Folk bruker den til å summere opp kalenderen sin og finne ostekakeoppskrifter. Samtidig sitter ledelsen og lurer på hvorfor produktiviteten ikke har skutt i været. Dette er ikke et verktøyproblem. Det er et ansvarlig KI-problem. Når du ikke har en plan for hva KI skal brukes til, hvordan det skal styres, og hvor menneskene skal være involvert, blir resultatet både dårlig forretning og dårlig forvaltning.

Hva ansvarlig KI egentlig betyr

Ansvarlig KI er ikke en sertifisering du henger på veggen. Det er et stempel som sier at KI-verktøyet er bygget på en forsvarlig måte. Praktisk betyr det at fem ting er på plass: systemet er sikret mot lekkasjer og hackerangrep, datakvaliteten er kontrollert, algoritmene tar ikke skjeve beslutninger som diskriminerer brukere, resultatene er forklarbare for de som faktisk bruker systemet, og det finnes alltid et menneske i loopen som kan overstyre eller godkjenne.

Den siste står ofte ubesvart. Et KI-system som tar beslutninger uten menneskelig kontroll, er et system som lager problemer raskere enn dere kan rydde opp i dem. Et menneske i loopen handler ikke om at noen sitter og dobbeltsjekker hver eneste output. Det handler om at det finnes en person eller funksjon som har ansvar for å fange opp avvik og korrigere dem.

KI er mye mer enn ChatGPT og Copilot

Mange bedrifter mener de "har innført KI" fordi alle ansatte har en Copilot-lisens. Det er en misforståelse. KI er et stort fagområde som dekker dataanalyse, automatisering, optimalisering og store språkmodeller. Skattemeldingen din er KI. HR-systemet som plukker ut CV-er er KI. Verktøyet som flagger transaksjoner for hvitvasking er KI.

Dette er viktig fordi de fleste KI-systemer dere har, kom inn i bedriften før noen kalte det KI. Når dere skal lage en adopsjonsplan, må første øvelse være å kartlegge: hvilke KI-systemer har vi allerede, og hvem er ansvarlig for dem?

KI-forordningen og høyrisikosystemer

EUs KI-forordning klassifiserer systemer etter risiko. Det norske næringslivet har stort sett ignorert dette med argumentet "vi har ingen høyrisikosystemer". Det er ofte feil. Et HR-system som scorer kandidater, et rekrutteringsverktøy som filtrerer søknader, et system som vurderer kredittverdighet, et planleggingsverktøy som fordeler vakter, alt dette havner som regel i høyrisikoklassen.

Konsekvensen er at dere må kunne dokumentere hvordan systemet er bygget, hvilke data det er trent på, og hva som skjer hvis det tar feil. Hvis dere ikke har den oversikten, må arbeidet starte før dere kjøper nye løsninger. Det er enklere å rydde i tre systemer dere har, enn å rydde i ti systemer på tvers av leverandører.

Bruk KI når det faktisk gir verdi

Hver gang et KI-verktøy genererer et svar, koster det energi. Det koster strøm, og det koster CO₂. Når noen ber Copilot lese opp kalenderen, eller ber ChatGPT om en ostekakeoppskrift, lager dere miljøpåvirkning uten å hente ut noen reell verdi. Den oppskriften kan du google. Kalenderen kan du åpne selv.

Bruk KI når oppgaven faktisk er noe modellen er god til, og som du selv hadde brukt lang tid på. Finne et notat i hundrevis av møtereferater. Skrive førsteutkast av en rapport basert på et brief. Oppsummere lange tråder med innspill fra flere avdelinger. Da går du fra halvannen times bla-jobb til tre minutters resultat, og energiforbruket er rettferdiggjort.

Dette er også en governance-sak. Hvis bedriften sier "bruk KI så mye som mulig", ender dere opp med en lang regning og lite effektivitet. Hvis dere derimot definerer hvilke arbeidsprosesser KI faktisk skal støtte, kan dere måle effekten og styre forbruket.

Hvor blir det av tilliten?

Et KI-verktøy som ansatte ikke stoler på, blir ikke brukt. Tillit bygges på tre ting: at systemet er forklarbart, at det er forutsigbart, og at folk vet hva det gjør med dataene deres.

Forklarbart betyr at brukeren forstår hvorfor systemet ga akkurat det svaret. Et chatbot-svar uten kilde er ikke forklarbart. Et HR-system som rangerer kandidater uten å vise hvilke kriterier som ble vektet, er ikke forklarbart. Folk slutter å bruke systemer de ikke forstår, eller verre, de bruker dem feil fordi de gjetter på hvordan de fungerer.

Forutsigbart betyr at samme input gir samme type output. Hvis verktøyet svarer "ja" i dag og "kanskje" på samme spørsmål i morgen, vil ingen bygge arbeidsflyt rundt det.

Slik bygger dere ansvarlig KI inn i prosjektet fra start

Når dere planlegger en KI-innføring, skal disse spørsmålene besvares før dere ruller ut:

  1. Hvilken konkret forretningsverdi skal systemet gi, og hvem er sluttbruker?
  2. Hvor i prosessen sitter et menneske som kan overstyre eller validere?
  3. Hvilke data trener systemet på, og hvem har kvalitetssikret dem?
  4. Kan brukeren forstå hvorfor systemet ga akkurat det svaret?
  5. Faller systemet i en høyrisikoklasse, og er det dokumentert?
  6. Hvem rapporterer avvik, og hvem har myndighet til å stoppe systemet?

Hvis dere ikke har gode svar på disse, er det her arbeidet skal begynne. Et KI-prosjekt som ikke har ansvarlig KI som premiss, blir sjelden et KI-prosjekt som lykkes med adopsjon.

Hvor kobler dette seg på resten?

Ansvarlig KI er fundamentet. Når det er på plass, blir de andre delene av en KI-innføring mer overkommelige. De fleste prosjekter snubler likevel i de samme fellene, og 7 vanlige barrierer for KI-adopsjon i bedrifter går gjennom hva som typisk går galt. Vil du forstå hvordan KI-modeller faktisk fungerer under panseret, gir Slik fungerer KI en god innføring.

Denne videoen er hentet fra kurset KI-adopsjon for bedrifter: Fra ledelse til ansatte på Utdannet.no. Kurset går grundigere på KI-forordningen, prinsipper for ansvarlig KI, og hvordan dere bygger governance som faktisk fungerer i en norsk bedrift.

Om kursholderen

Neda Maria Kaizumi kursholder hos Utdannet.no

Cybersikkerhets- og KI-ekspert

Internasjonalt anerkjent ekspert på digital sikkerhet, kunstig intelligens og strategisk teknologiledelse med over 15 års erfaring fra offentlig og privat sektor. Leder arbeidet med ansvarlig AI i Advania Norge, med utdanning fra Harvard Business School og sertifisering som auditor i sikkerhetsstandarder. Har hjulpet alt fra oppstartsbedrifter til store konsern med å navigere i en digital hverdag. Brenner for å gjøre teknologi trygg, etisk og tilgjengelig for alle.