Gevir KI
Gevir KI
Gevir KI

Category: Teknologi og kunstig intelligens - Page 9

Skaleringlover i praksis: Når skal du stoppe trening av store språkmodeller?
  • August 29, 2025
  • Comments 8
  • Teknologi og kunstig intelligens

Skaleringlover i praksis: Når skal du stoppe trening av store språkmodeller?

Skaleringlover sier når du skal stoppe trening av store språkmodeller. Men virkeligheten er annerledes. Her får du en praktisk veileder for å velge mellom teori og produksjonsbehov.
Read More
Prompt Chaining i generativ AI: Del opp komplekse oppgaver i pålitelige trinn
  • August 12, 2025
  • Comments 5
  • Teknologi og kunstig intelligens

Prompt Chaining i generativ AI: Del opp komplekse oppgaver i pålitelige trinn

Prompt chaining er en pålitelig måte å bruke generativ AI på for komplekse oppgaver. Ved å dele opp oppgaver i trinn, reduseres feil med over 60 % og øker nøyaktigheten betydelig. Her er hvordan det fungerer og hvordan du begynner.
Read More
Long-Context Transformers for Large Language Models: Utvide kontekstvinduer uten drift
  • August 11, 2025
  • Comments 7
  • Teknologi og kunstig intelligens

Long-Context Transformers for Large Language Models: Utvide kontekstvinduer uten drift

Long-context transformers lar store språkmodeller forstå dokumenter på flere tusen ord uten å tape nøyaktighet. Lær hvordan du unngår drift, hvilke teknologier som fungerer i 2025, og hvilke løsninger som er praktiske for deg.
Read More
Undervisning med Vibe Coding: Lære arkitektur ved å analysere AI-kode
  • August 9, 2025
  • Comments 8
  • Teknologi og kunstig intelligens

Undervisning med Vibe Coding: Lære arkitektur ved å analysere AI-kode

Vibe coding er en ny metode for å lære programvarearkitektur ved å analysere AI-generert kode før man skriver den selv. Studier viser at studentene forstår arkitektur 42 % raskere og bygger bedre systemer. Denne metoden endrer hvordan vi lærer programmering.
Read More
Residual Connections og Layer Normalization i Store Språkmodeller: Grunnleggende for stabil trening
  • August 1, 2025
  • Comments 9
  • Teknologi og kunstig intelligens

Residual Connections og Layer Normalization i Store Språkmodeller: Grunnleggende for stabil trening

Residual connections og layer normalization er nøkkelen til å trene dype store språkmodeller. Uten dem ville GPT, BERT og Llama ikke eksistert. Her forklarer vi hvordan de fungerer, hva som skiller Pre-LN fra Post-LN, og hvilke praktiske valg du må treffe.
Read More
Vendor Risk Assessments for AI Coding Platforms
  • July 21, 2025
  • Comments 10
  • Teknologi og kunstig intelligens

Vendor Risk Assessments for AI Coding Platforms

AI-kodingstøtter som GitHub Copilot og CodeWhisperer reduserer utviklingstid, men fører til alvorlige sikkerhets- og juridiske risikoer. Denne artikkelen viser hvordan du vurderer leverandører, unngår datalekkasjer og setter opp en effektiv risikostyring.
Read More
Brukerfeedbackløkker for å korrigere hallucinasjoner i generativ kunstig intelligens i produksjon
  • July 10, 2025
  • Comments 5
  • Teknologi og kunstig intelligens

Brukerfeedbackløkker for å korrigere hallucinasjoner i generativ kunstig intelligens i produksjon

Brukerfeedbackløkker er nøkkelen til å redusere hallucinasjoner i generativ AI. Lær hvordan du bygger en effektiv løkke, hva som skiller gode fra dårlige, og hvorfor menneskelig innblanding ikke kan erstattes - selv med de nyeste modellene.
Read More
Design og godkjenning av sikkerhetsgrenser for enterprise LLM-applikasjoner
  • July 8, 2025
  • Comments 9
  • Teknologi og kunstig intelligens

Design og godkjenning av sikkerhetsgrenser for enterprise LLM-applikasjoner

Lær hvordan du design og godkjenner LLM-grenser for enterprise-bruk. Forstå tekniske lag, valg mellom løsninger, falske positive, og hvordan du oppfyller EU AI-loven og andre regelverk.
Read More
  • 1
  • …
  • 6
  • 7
  • 8
  • 9

Categories

  • Teknologi og kunstig intelligens (104)
  • Verktøy og plattformer (6)
  • Teknologi (1)

recent Posts

Selvsupervisert læring for Generativ AI: Fra pretraining til finjustering
Selvsupervisert læring for Generativ AI: Fra pretraining til finjustering
By Marvin Belen
Kostnadene ved intern deliberasjon i resonnerende språkmodeller
Kostnadene ved intern deliberasjon i resonnerende språkmodeller
By Marvin Belen
Zero-Trust Arkitektur for LLM-integrasjoner: Slik sikrer du AI-systemene dine
Zero-Trust Arkitektur for LLM-integrasjoner: Slik sikrer du AI-systemene dine
By Marvin Belen
Vurdering av konsekvenser for generativ AI: Guide til DPIA og AI Act
Vurdering av konsekvenser for generativ AI: Guide til DPIA og AI Act
By Marvin Belen
Anonymisering vs. pseudonymisering i LLM-arbeidsflyter: Hva bør du velge?
Anonymisering vs. pseudonymisering i LLM-arbeidsflyter: Hva bør du velge?
By Marvin Belen

Popular Tags

generativ AI store språkmodeller LLM vibe coding RAG GitHub Copilot prompt engineering kunstig intelligens språkmodeller kvantisering hallucinasjoner maskinlæring fine-tuning sikkerhet AI-koding generative AI LLM-sikkerhet attention mekanisme AI-regulering Cursor
Gevir KI

Recent Projects

Hvorfor store språkmodeller presterer så bra på mange oppgaver: Overføring, generalisering og fremkomne evner
Vision-Language Transformers: Slik forener AI bilder og tekst
Skaleringlover i praksis: Når skal du stoppe trening av store språkmodeller?
Adapter-lag og LoRA for effektiv tilpasning av store språkmodeller
Modell-distillasjon for Generativ AI: Små Modeller med Store Evner

©2026 hjorthen.org. All rights reserved