Lær hvordan LLM-er beholder generell kunnskap etter finjustering. Vi utforsker benchmark transfer, LoRA og strategier mot katastrofal glemming for bedre generalisering.
LoRA og adapter-lag lar deg tilpasse store språkmodeller med bare 1% av minnet. Lær hvordan disse teknikkene fungerer, når du skal velge dem, og hvordan du kommer i gang med en RTX 4090.