Har du noen gang tenkt på hva som skjer bak kulissene når en AI gir deg et svar, skriver en tekst eller lager et bilde? Det er ikke bare kode og data - det er valg. Valg om hvilke data som ble brukt, hvilke feil som ble glemt, og hvem som ble tatt hensyn til. I dag er transparens ikke lenger bare en god idé. Den er en nødvendighet. Og tre verktøy står i sentrum av denne bevegelsen: modellkort, datauttalelser og brukshenvisninger.
Hva er modellkort, og hvorfor er de viktige?
Tenk på modellkort som ernæringsetiketter for kunstig intelligens. Ikke noe mystisk. Ikke noe teknisk jargon. Bare en klar oversikt: hvem laget modellen, med hvilke data den ble trent, hvordan den presterer, og hvilke begrensninger den har. Google bruker modellkort for å dokumentere hvordan sine store modeller ble testet. Esri, som lager kartprogramvare, bruker dem for å vise hvordan AI-funksjonene i ArcGIS fungerer - og hvilke data de bruker. Red Hat gikk en steg lenger og laget AI System Cards - ikke bare en oversikt, men en åpen kildekode for hele systemet. Du kan se hvilke modeller som er i bruk, hvilke data de ble trent på, og selv hvordan sikkerhetsoppdateringer har blitt gjort.Det er ikke bare for utviklere. Et sykehus som bruker en AI for å hjelpe med diagnose må vite: Er modellen testet på pasienter med samme alder og etnisitet som mine? Har den blitt feil i tidligere tester? Hva skjer hvis den gir et feil svar? Modellkort gir svarene. De sier: "Denne modellen har 92 % nøyaktighet for voksne over 65, men bare 78 % for unge voksne med diabetes." Uten dette, er du bare på tillit.
Datauttalelser: Hva var i "ingredienslisten"?
Modellkort forteller deg hvordan modellen presterer. Datauttalelser forteller deg hva den vet. Og det er ofte der problemene ligger. Hva hvis modellen ble trent på data fra sosiale medier - data som ble samlet inn uten samtykke? Hva hvis den inneholdt bilder av folk fra et bestemt land, men ikke fra et annet? Hva hvis den brukte kun kunstig genererte data som ikke reflekterer virkeligheten?En god datauttalelse sier:
- Hvor dataene kom fra (f.eks. offentlige arkiv, kliniske journaler, brukerinnhold)
- Hvor sensitive dataene er (f.eks. helsedata, geolokasjon, rasisme-sensitiv tekst)
- Hva slags data det var (f.eks. tekst, bilder, lyd, eller kun simulerte data)
- Hvor komplette dataene var - og om det manglet viktige grupper
En studie fra 2024 viste at over 60 % av AI-modeller som ble brukt i helsevesenet hadde trent på data som ikke inkluderte eldre mennesker med flere sykdommer. Det betyr at modellen ikke var god til å hjelpe dem. Datauttalelser gjør det mulig å se dette før du bruker systemet - ikke etter at noen har fått feil behandling.
Brukshenvisninger: Hva skal du ikke bruke det til?
Det er ikke nok å si hva modellen kan gjøre. Du må også vite hva den ikke skal brukes til. En AI som kan skrive en oppsummering av en medisinsk journal, bør ikke brukes til å diagnostisere kreft. En modell som gjenkjenner ansikter, bør ikke brukes til å overvåke studenter i klasserommet. Men hvordan vet du det? Her kommer brukshenvisningene inn.Disse er ofte enkle listeformater. For eksempel:
- Ikke bruk denne modellen til å vurdere ansøkere om jobb.
- Ikke bruk den uten manuell kontroll av en fagperson.
- Den er ikke godkjent for bruk i kliniske beslutninger.
- Den kan ha fordommer mot språk med mindre representasjon i treningsdata.
Autodesk bruker brukshenvisninger i sine CAD-verktøy for AI. De sier klart: "Denne AI-funksjonen hjelper deg med å foreslå designalternativer - men du må selv vurdere sikkerhet og byggestandarder." Det er ikke en "smart løsning". Det er et verktøy. Og som alle verktøy, har det grenser.
Hvorfor fungerer ikke alltid disse verktøyene?
Det er ikke bare om du har modellkort. Det er om de er meningsfulle. En modellkort kan si: "Dataene kom fra offentlige kilder." Men hva hvis disse "offentlige" dataene var en samling av personopplysninger som ble stjålet i en datainnsamling i 2018? Eller hvis de kom fra et forum der folk ikke visste at dataene ble brukt til å trene en AI? Da er modellkortet ikke et verktøy for transparens - det er en løgn.En annen utfordring: Hva om du er pasient, ikke en utvikler? Da trenger du ikke en liste med nøyaktighetsprosent. Du trenger en enkel graf. Noen forskere i Europa tester nå "ernæringsetiketter" som viser en rød, gul eller grønn farge basert på risiko. Grønn = trygg å bruke. Rød = unngå. Det er ikke perfekt, men det er mer forståelig enn en 12-siders dokument.
Det er også et problem med ansvar. Hvis en helseklinikk bruker en AI som ble laget av en stor teknologiselskap, men ikke har tilgang til modellkortet - hvem er ansvarlig hvis noe går galt? EU’s AI-lov sier nå: Utviklere av store modeller må levere informasjon til de som bruker dem. Det betyr at Google, Meta og andre nå er lovpålagt til å gi ut disse dokumentene. Ikke som en god idé. Som en lov.
Hva ser fremtiden ut som?
I 2026 er det ikke lenger bare et spørsmål om å ha modellkort. Det er et spørsmål om å ha automatiserte modellkort. Red Hat og andre arbeider med systemer som genererer disse dokumentene automatisk når en modell blir lagt ut. Når du laster ned en AI, får du også en modellkort - som oppdateres når modellen blir endret.I helsesektoren tester forskere hvordan man kombinerer modellkort med personlige pasientprofiler. Hvis du har en sjelden sykdom, bør AI-en du bruker ha spesiell data om deg - og du bør vite det. Det er ikke bare transparens. Det er rettighet.
Det store bildet er enkelt: AI blir ikke mer etisk fordi den er avansert. Den blir mer etisk fordi vi kan se hva den gjør. Og vi kan spørre: "Hvorfor?" Modellkort, datauttalelser og brukshenvisninger er ikke bare dokumenter. De er våre verktøy for å si: "Vi skal ikke bare gjøre ting som er mulige. Vi skal gjøre ting som er riktige."
Hva er forskjellen mellom modellkort og datauttalelser?
Modellkort fokuserer på hvordan AI-modellen fungerer: dens nøyaktighet, begrensninger, testresultater og hvem den er laget for. Datauttalelser fokuserer på hva som ble brukt for å trene modellen: hvilke datakilder, om dataene var etiske, om de var representativt utvalgt, og om de inneholdt følsomme informasjon. Modellkort sier: "Hvordan presterer den?" Datauttalelser sier: "Hva vet den?"
Er modellkort juridisk påkrevd i Norge?
I Norge er det ikke en egen lov som krever modellkort, men EU’s AI-lov gjelder for alle som selger eller bruker AI i EU - og Norge er med i EØS-avtalen. Det betyr at enhver AI som brukes i Norge fra en utvikler i EU, må ha modellkort og datauttalelser. Dette gjelder også for norske helseinstitusjoner og offentlige myndigheter som bruker AI fra utenlandske selskaper.
Kan jeg bruke modellkort til å avvise en AI-løsning jeg ikke stoler på?
Ja. Hvis en modell mangler et modellkort, eller hvis kortet viser store begrensninger - f.eks. dårlig representasjon av en gruppe - kan du med rette avvise den. I helsevesenet og offentlig forvaltning er det nå standard å kreve modellkort før en AI kan godkjennes. Det er ikke bare en teknisk detalj - det er en del av risikovurderingen.
Hvorfor bruker ikke alle modellkort, selv om de er gode?
Noen selskaper frykter å avsløre fordommer eller svakheter. Andre mener det er for tidkrevende. Men det største problemet er at det ikke er en standard. Hver organisasjon lager sine egne kort - noen er 2 sider, andre er 50. Det gjør det vanskelig å sammenligne. Derfor arbeider EU og open source-samfunnet med å lage en felles standard - slik at alle modellkort kan leses og sjekkes på samme måte.
Hvordan vet jeg om en AI har et gyldig modellkort?
Et gyldig modellkort skal være lett tilgjengelig - ofte på selve produktets nettside eller i brukermanualen. Det skal ha en tydelig overskrift som "Modellkort" og inneholde minst fire deler: datakilder, yteevne, begrensninger og brukshenvisninger. Hvis du ikke finner det, spør produsenten. Hvis de ikke kan gi deg det, er det en rød flagg. En AI som ikke vil vise deg sine grunnlag, burde ikke brukes.
Transparens i AI er ikke et valg. Det er en forutsetning. Og de som vil bruke AI ansvarlig - i helse, skole, offentlig tjeneste eller privat sektor - må kreve det. Ikke bare fordi det er riktig. Men fordi det er nødvendig for å unngå skade, fordommer og mistillit.
Post Comments (7)
OMG this is SO needed 😍 I’ve been screaming into the void about AI transparency for years, and finally someone’s putting it in terms non-techies can actually use. Modellkort = AI’s nutrition label. Datauttalelser = ingredient list. Brukshenvisninger = ‘DO NOT USE FOR X’ warnings. Why isn’t this on every product page?? 🤯
Also, I just checked my hospital’s AI diagnostic tool - no model card. Zero. Nada. I’m filing a formal complaint tomorrow. This isn’t just unethical - it’s dangerous. #TransparencyOrBust
Transparency isn’t optional. It’s the baseline. If you can’t explain how your AI works, you shouldn’t be allowed to deploy it. Period.
Thank you for this thoughtful and meticulously structured analysis. The analogy of model cards as nutritional labels is both accessible and profoundly accurate. In healthcare contexts, where decisions directly impact human lives, the absence of documented data provenance and performance metrics constitutes a breach of professional duty. The EU AI Act’s requirements are not merely regulatory - they are ethical imperatives. I urge all institutions, public and private, to adopt these standards not as compliance checkboxes, but as foundational principles of care.
Furthermore, the proposed color-coded risk indicators (red/yellow/green) merit serious pilot testing. Simplification without dilution of meaning is a rare and valuable achievement.
hi i just read this and i think its so important!! i work in a school and we just got an ai tool for grading essays and we had no idea what data it was trained on 😅 like… what if it hates regional dialects?? or just gives bad grades to non-native speakers??
we asked for a model card and they said ‘its proprietary’… which is just… no. like, we’re not asking for the secret sauce, we just want to know if it’s safe for kids. please someone make this standard!!
The premise of this article is fundamentally flawed. Transparency does not equate to accountability. The existence of model cards does not prevent bias - it merely documents it. Organizations will continue to deploy systems with known flaws because the liability is externalized. The real issue is not documentation - it is enforcement. Without criminal liability for developers who knowingly deploy flawed models, these cards are performative virtue signaling.
Additionally, the EU AI Act’s extraterritorial reach is legally dubious. Norway’s inclusion via EEA does not override constitutional sovereignty. This is regulatory overreach disguised as ethics.
They’re not trying to make AI transparent - they’re trying to control it. Model cards? Data statements? Please. This is how they lock you out. You think hospitals use these tools because they’re better? No. They’re forced to. The real AI is the one that decides who gets access to the cards. The elite. The tech bros. The bureaucrats. They want you to think you’re safe - but you’re just being watched. And when the system fails? You’ll be blamed. Not them.
They’re building a cage… and giving you a brochure to read while you’re inside. 🤡
Oh honey, you’re so sweet for believing in model cards like they’re some kind of moral magic wand. 🫠 Let me break it to you gently - the ‘open’ model cards from Google and Red Hat? They’re curated. Edited. Watered down. The real data? The biased, scraped, stolen datasets? That’s locked behind NDAs and corporate black boxes.
And don’t get me started on ‘color-coded risk’ - that’s just PR fluff for people who can’t read past the first sentence. The real danger isn’t the AI. It’s the fact that we’ve outsourced ethical judgment to a system that doesn’t care if you live or die - as long as the metrics look good on the quarterly report.
PS: I’ve seen the internal docs. The ‘92% accuracy’? That’s for white, middle-class adults. For everyone else? It’s a coin flip. And they’re still selling it to hospitals. 😘