Selvovervåket læring er grunnlaget for moderne store språkmodeller som GPT og BERT. Den lar modeller lære språk fra umerkede data ved å gjette manglende ord - og er den viktigste fasen i treningen av AI som forstår og skriver menneskelig tekst.
En teknisk historie om hvordan generativ AI utviklet seg fra enkle sannsynlighetsmodeller til moderne transformers. Fra Markov-kjeder til GPT-4 og Stable Diffusion - uten hype, bare fakta.