Har du noen gang tenkt på hva som skjer bak kulissene når en AI gir deg et svar, skriver en tekst eller lager et bilde? Det er ikke bare kode og data - det er valg. Valg om hvilke data som ble brukt, hvilke feil som ble glemt, og hvem som ble tatt hensyn til. I dag er transparens ikke lenger bare en god idé. Den er en nødvendighet. Og tre verktøy står i sentrum av denne bevegelsen: modellkort, datauttalelser og brukshenvisninger.
Hva er modellkort, og hvorfor er de viktige?
Tenk på modellkort som ernæringsetiketter for kunstig intelligens. Ikke noe mystisk. Ikke noe teknisk jargon. Bare en klar oversikt: hvem laget modellen, med hvilke data den ble trent, hvordan den presterer, og hvilke begrensninger den har. Google bruker modellkort for å dokumentere hvordan sine store modeller ble testet. Esri, som lager kartprogramvare, bruker dem for å vise hvordan AI-funksjonene i ArcGIS fungerer - og hvilke data de bruker. Red Hat gikk en steg lenger og laget AI System Cards - ikke bare en oversikt, men en åpen kildekode for hele systemet. Du kan se hvilke modeller som er i bruk, hvilke data de ble trent på, og selv hvordan sikkerhetsoppdateringer har blitt gjort.Det er ikke bare for utviklere. Et sykehus som bruker en AI for å hjelpe med diagnose må vite: Er modellen testet på pasienter med samme alder og etnisitet som mine? Har den blitt feil i tidligere tester? Hva skjer hvis den gir et feil svar? Modellkort gir svarene. De sier: "Denne modellen har 92 % nøyaktighet for voksne over 65, men bare 78 % for unge voksne med diabetes." Uten dette, er du bare på tillit.
Datauttalelser: Hva var i "ingredienslisten"?
Modellkort forteller deg hvordan modellen presterer. Datauttalelser forteller deg hva den vet. Og det er ofte der problemene ligger. Hva hvis modellen ble trent på data fra sosiale medier - data som ble samlet inn uten samtykke? Hva hvis den inneholdt bilder av folk fra et bestemt land, men ikke fra et annet? Hva hvis den brukte kun kunstig genererte data som ikke reflekterer virkeligheten?En god datauttalelse sier:
- Hvor dataene kom fra (f.eks. offentlige arkiv, kliniske journaler, brukerinnhold)
- Hvor sensitive dataene er (f.eks. helsedata, geolokasjon, rasisme-sensitiv tekst)
- Hva slags data det var (f.eks. tekst, bilder, lyd, eller kun simulerte data)
- Hvor komplette dataene var - og om det manglet viktige grupper
En studie fra 2024 viste at over 60 % av AI-modeller som ble brukt i helsevesenet hadde trent på data som ikke inkluderte eldre mennesker med flere sykdommer. Det betyr at modellen ikke var god til å hjelpe dem. Datauttalelser gjør det mulig å se dette før du bruker systemet - ikke etter at noen har fått feil behandling.
Brukshenvisninger: Hva skal du ikke bruke det til?
Det er ikke nok å si hva modellen kan gjøre. Du må også vite hva den ikke skal brukes til. En AI som kan skrive en oppsummering av en medisinsk journal, bør ikke brukes til å diagnostisere kreft. En modell som gjenkjenner ansikter, bør ikke brukes til å overvåke studenter i klasserommet. Men hvordan vet du det? Her kommer brukshenvisningene inn.Disse er ofte enkle listeformater. For eksempel:
- Ikke bruk denne modellen til å vurdere ansøkere om jobb.
- Ikke bruk den uten manuell kontroll av en fagperson.
- Den er ikke godkjent for bruk i kliniske beslutninger.
- Den kan ha fordommer mot språk med mindre representasjon i treningsdata.
Autodesk bruker brukshenvisninger i sine CAD-verktøy for AI. De sier klart: "Denne AI-funksjonen hjelper deg med å foreslå designalternativer - men du må selv vurdere sikkerhet og byggestandarder." Det er ikke en "smart løsning". Det er et verktøy. Og som alle verktøy, har det grenser.
Hvorfor fungerer ikke alltid disse verktøyene?
Det er ikke bare om du har modellkort. Det er om de er meningsfulle. En modellkort kan si: "Dataene kom fra offentlige kilder." Men hva hvis disse "offentlige" dataene var en samling av personopplysninger som ble stjålet i en datainnsamling i 2018? Eller hvis de kom fra et forum der folk ikke visste at dataene ble brukt til å trene en AI? Da er modellkortet ikke et verktøy for transparens - det er en løgn.En annen utfordring: Hva om du er pasient, ikke en utvikler? Da trenger du ikke en liste med nøyaktighetsprosent. Du trenger en enkel graf. Noen forskere i Europa tester nå "ernæringsetiketter" som viser en rød, gul eller grønn farge basert på risiko. Grønn = trygg å bruke. Rød = unngå. Det er ikke perfekt, men det er mer forståelig enn en 12-siders dokument.
Det er også et problem med ansvar. Hvis en helseklinikk bruker en AI som ble laget av en stor teknologiselskap, men ikke har tilgang til modellkortet - hvem er ansvarlig hvis noe går galt? EU’s AI-lov sier nå: Utviklere av store modeller må levere informasjon til de som bruker dem. Det betyr at Google, Meta og andre nå er lovpålagt til å gi ut disse dokumentene. Ikke som en god idé. Som en lov.
Hva ser fremtiden ut som?
I 2026 er det ikke lenger bare et spørsmål om å ha modellkort. Det er et spørsmål om å ha automatiserte modellkort. Red Hat og andre arbeider med systemer som genererer disse dokumentene automatisk når en modell blir lagt ut. Når du laster ned en AI, får du også en modellkort - som oppdateres når modellen blir endret.I helsesektoren tester forskere hvordan man kombinerer modellkort med personlige pasientprofiler. Hvis du har en sjelden sykdom, bør AI-en du bruker ha spesiell data om deg - og du bør vite det. Det er ikke bare transparens. Det er rettighet.
Det store bildet er enkelt: AI blir ikke mer etisk fordi den er avansert. Den blir mer etisk fordi vi kan se hva den gjør. Og vi kan spørre: "Hvorfor?" Modellkort, datauttalelser og brukshenvisninger er ikke bare dokumenter. De er våre verktøy for å si: "Vi skal ikke bare gjøre ting som er mulige. Vi skal gjøre ting som er riktige."
Hva er forskjellen mellom modellkort og datauttalelser?
Modellkort fokuserer på hvordan AI-modellen fungerer: dens nøyaktighet, begrensninger, testresultater og hvem den er laget for. Datauttalelser fokuserer på hva som ble brukt for å trene modellen: hvilke datakilder, om dataene var etiske, om de var representativt utvalgt, og om de inneholdt følsomme informasjon. Modellkort sier: "Hvordan presterer den?" Datauttalelser sier: "Hva vet den?"
Er modellkort juridisk påkrevd i Norge?
I Norge er det ikke en egen lov som krever modellkort, men EU’s AI-lov gjelder for alle som selger eller bruker AI i EU - og Norge er med i EØS-avtalen. Det betyr at enhver AI som brukes i Norge fra en utvikler i EU, må ha modellkort og datauttalelser. Dette gjelder også for norske helseinstitusjoner og offentlige myndigheter som bruker AI fra utenlandske selskaper.
Kan jeg bruke modellkort til å avvise en AI-løsning jeg ikke stoler på?
Ja. Hvis en modell mangler et modellkort, eller hvis kortet viser store begrensninger - f.eks. dårlig representasjon av en gruppe - kan du med rette avvise den. I helsevesenet og offentlig forvaltning er det nå standard å kreve modellkort før en AI kan godkjennes. Det er ikke bare en teknisk detalj - det er en del av risikovurderingen.
Hvorfor bruker ikke alle modellkort, selv om de er gode?
Noen selskaper frykter å avsløre fordommer eller svakheter. Andre mener det er for tidkrevende. Men det største problemet er at det ikke er en standard. Hver organisasjon lager sine egne kort - noen er 2 sider, andre er 50. Det gjør det vanskelig å sammenligne. Derfor arbeider EU og open source-samfunnet med å lage en felles standard - slik at alle modellkort kan leses og sjekkes på samme måte.
Hvordan vet jeg om en AI har et gyldig modellkort?
Et gyldig modellkort skal være lett tilgjengelig - ofte på selve produktets nettside eller i brukermanualen. Det skal ha en tydelig overskrift som "Modellkort" og inneholde minst fire deler: datakilder, yteevne, begrensninger og brukshenvisninger. Hvis du ikke finner det, spør produsenten. Hvis de ikke kan gi deg det, er det en rød flagg. En AI som ikke vil vise deg sine grunnlag, burde ikke brukes.
Transparens i AI er ikke et valg. Det er en forutsetning. Og de som vil bruke AI ansvarlig - i helse, skole, offentlig tjeneste eller privat sektor - må kreve det. Ikke bare fordi det er riktig. Men fordi det er nødvendig for å unngå skade, fordommer og mistillit.