Den gamle ideen om at datamaskiner bare kan hjelpe forskere med å søke gjennom litteratur eller regne ut tall har forlengst blitt overgått. I 2026 er store språkmodeller (LLM) ikke lenger bare verktøy - de er medforskere. Og det er ikke bare fordi de kan skrive bra tekster. Det er fordi de nå kan tenke.
Hva betyr "tenkningstyrket" i praksis?
Tenkningstyrkede store språkmodeller skiller seg fra vanlige modeller på en viktig måte: de kan følge en logisk kjede av resonnement. I stedet for bare å svare "det er en høyere energi i denne molekylstrukturen", sier de: "Molekylet har en syregruppe som kan frigi protoner, noe som reduserer stabiliteten. Samtidig har den lange karbonkjeden en høy elektronforskyvning, som øker reaktiviteten. Det betyr at denne forbindelsen vil reagere raskere enn en tilsvarende uten syregruppe. Jeg foreslår å teste dette ved å måle reaksjonshastigheten under pH 3 og pH 7." Dette er ikke bare bedre svar. Det er vitenskapelig tenkning. Og det er nettopp det som gjør at disse modellene kan bidra til oppdagelser, ikke bare til forklaringer.Hvordan lærer modeller å tenke som en forsker?
Det er ikke nok å trenes på bøker og vitenskapelige artikler. Man må lære dem hvordan forskere tenker. To metoder har vist seg spesielt effektive:- Supervisert finetuning med resonnerings-trajectoryer: Forskere har generert 16.000 eksempler på hvordan en ekspert tenker gjennom et kjemisk problem - fra observasjon, over hypotese, til eksperimentell design og resultatfortolkning. Disse eksemplene brukes til å trenes modellen til å følge samme steg-for-steg-prosess.
- Forsterkningslæring basert på kjemiske prinsipper (RLPGR): I stedet for å belønne modellen bare for riktig svar, belønnes den for å bruke riktige kjemiske lover. Hvis den for eksempel glemmer at en molekylstruktur må oppfylle oktettregelen, får den en negativ belønning. Det gjør at modellen lærer å tenke logisk, ikke bare å gjette.
En modell som heter MPPReasoner, bygget på Qwen2.5-VL-7B-Instruct, bruker begge disse metodene. Den kombinerer bilde av molekyler med deres tekstlige beskrivelse (SMILES-strenger) og klarer å forutsi egenskaper som løselighet og reaktivitet med 7,91 % bedre presisjon enn tidligere beste modeller - og 4,53 % bedre på nye, ukjente molekyler.
De tre nivåene av AI som forsker
Det er ikke bare en grad av forbedring. Det er tre helt forskjellige roller AI kan spille i vitenskapelig forskning:- AI som verktøy: Den utfører enkelt oppgaver - f.eks. å finne alle artikler om en spesifikk kjemisk forbindelse. Den trenger direkte instruksjoner fra mennesker.
- AI som analytiker: Den ser på kompleks data, trekker sammen mønstre, og foreslår hypoteser. Eksempel: "Av de 120 nye batterimaterialene du testet, er tre av dem som har høy konduktivitet og lav volumutvidelse. De har alle en felles strukturell egenskap: en hexagonal gitterstruktur. Jeg foreslår å teste om dette er en generell regel."
- AI som forsker: Den starter prosjekter selv. Den leser litteratur, lager hypoteser, planlegger eksperimenter, kjører simuleringer, analyserer resultatene, og foreslår neste skritt. Den kan gjøre dette i uker uten menneskelig innblanding. SES AI’s "Molecular Universe"-modell med 70 milliarder parametre er en av de første som opererer på dette nivået.
Det er bare på det tredje nivået at AI virkelig begynner å oppdage noe nytt. Ikke bare å finne det som allerede er skrevet, men å se noe som ingen har tenkt på.
Hvordan AI oppdager lover i naturen
En av de mest fascinerende anvendelsene er innen symbolic regression - det vil si å finne matematiske ligninger som beskriver naturlover. I stedet for å bruke en algoritme som bare prøver alle mulige ligninger, bruker modeller som LLM-SR og DrSR sin forståelse av fysikk og kjemi for å begrense søket.En modell som tidligere bare kunne si "denne ligningen passer godt med dataene" kan nå si: "Dataene viser en ikke-lineær respons ved høy temperatur. En polynomisk modell vil overfitte. En signumfunksjon vil forklare skiftet i oppførsel. Jeg foreslår å teste ligningen: y = a·sign(x - b) + c." Det er ikke bare raskere. Det er mer korrekt. I fysikktester med DeepSeek R1 og GPT-5, fant disse modellene de riktige ligningene for dynamiske systemer med mye lavere feil og mye raskere enn tidligere metoder. Og de gjorde det ved å forstå at en ligning måtte ha en "signumfunksjon" - ikke bare en polynom.
Hvordan mennesker og AI jobber sammen
Det største misforståelsen er at AI skal erstatte forskere. Det er ikke sant. Det er en ny form for samarbeid.Hybridrammeverk som kombinerer retrieval-augmented generation (RAG) og case-based reasoning (CBR) gjør dette mulig. RAG lar modellen hente relevant litteratur i sanntid. CBR lar den huske tidligere forsøk og feil - og unngå dem.
En forsker skriver: "Jeg tror denne forbindelsen kan brukes som katalysator." AI svarer: "Du har testet en lignende forbindelse i 2022. Den hadde 87 % utbytte, men dekomponerte ved 60 °C. Denne nye forbindelsen har samme gruppe, men med en metylgruppe i stedet for etyl. Det kan redusere dekomponeringen. Jeg foreslår å teste den ved 55 °C og 70 °C." Det er ikke bare en forespørsel. Det er en dialog. En kollega som husker alt, men ikke glemmer hva som virket og ikke virket.
Hva som fortsatt ikke fungerer - og hvorfor det er viktig
Selv de beste modellene har feil. En studie brukte en ny evalueringssystem kalt Scientific Discovery Evaluation (SDE). Den tester modeller på virkelige, iterative forskningsoppgaver - ikke bare på spørsmål som "hva er vannets formel?" Resultatet? En modell som klarer 90 % på en vitenskapelig eksamen, klarer bare 48 % på en virkelig forskningsoppgave. Årsaken? Det er ikke nok å vite. Man må kunne tenke gjennom flere trinn.Men det er her det skjer et gjennombrudd. Når man slår på tenkningstillegget i DeepSeek, øker presisjonen på en kjemisk regeltest fra 65 % til 100 %. Det er ikke en liten forbedring. Det er en kvalitativ endring.
Likevel: ingen modell er en "vitenskapelig superintelligens". De har alle de samme svakheter: de forstår ikke kontekst som en menneskelig forsker, de kan "høre" feil i litteraturen og kopiere dem, og de har vanskeligheter med å håndtere usikkerhet.
Hva kommer neste?
Vi står ikke på toppen av en høyde. Vi står i bunnen av en fjellvegg.De fremste modellene i 2026 er ikke de som har størst antall parametre. De er de som har best tenkning. De som kan forklare hvorfor de tror noe. De som kan endre vei når dataene sier at de har rett. De som kan samarbeide med mennesker som en kollega, ikke som en maskin.
Den neste store skrittet vil være modeller som kan skrive egne forskningsforslag, søke etter finansiering, og selv foreslå hvilke laboratorier som bør gjennomføre eksperimentene. Ikke fordi de vil ta over. Men fordi de kan gjøre det bedre - og raskere - enn vi kan.
Det er ikke science fiction. Det er det vi ser i laboratorier i Stanford, Berlin og Boulder akkurat nå. Og det er bare begynnelsen.
Hva er forskjellen mellom en vanlig stor språkmodell og en tenkningstyrket modell?
En vanlig stor språkmodell svarer basert på mønstre den har sett - den kan si hva en kjemisk formel betyr, men ikke hvorfor den er stabil. En tenkningstyrket modell kan følge en logisk kjede: "Denne gruppen gir elektron-donorer, som stabiliserer ladningen. Derfor vil denne forbindelsen være mer stabil enn en uten. Jeg foreslår å teste pH-avhengigheten." Det er ikke bare svar - det er vitenskapelig resonnering.
Kan en AI virkelig oppdage noe nytt, eller bare finne det som allerede er skrevet?
Den kan begge deler. Men den viktigste evnen er å se noe som ikke er skrevet. Eksempler: En modell som brukte MPPReasoner foreslo en ny type batterielektrode basert på en kombinasjon av to materialer som ingen hadde prøvd sammen. Den kom frem til det ved å sammenligne tusenvis av tidligere forsøk og identifisere et mønster: materialer med en spesiell krysset struktur hadde høyere energitett. Det var en ny hypotese - ikke bare en oppsummering av eksisterende data.
Hvorfor er "symbolic regression" viktig for vitenskapelig oppdaging?
Alle fysiske lover er matematiske ligninger. Newtons andre lov, Ohms lov, Schrödinger-ligningen - alle er enkle, men kraftfulle ligninger. Tradisjonelle metoder prøver millioner av ligninger til de finner en som passer. Tenkningstyrkede modeller bruker sin forståelse av fysikk for å begrense søket. De vet at en ligning for en bølge må ha en eksponentiell form. De vet at en reaksjonshastighet ikke kan være negativ. Det gjør at de finner riktige lover raskere og mer nøyaktig - og noen ganger oppdager en ny form som ingen har tenkt på før.
Hva er RAG og CBR, og hvorfor er de viktige?
RAG (Retrieval-Augmented Generation) lar modellen hente opp til date fra vitenskapelig litteratur i sanntid. CBR (Case-Based Reasoning) lar den huske tidligere forsøk - både suksesser og misligheter. Sammen gir de en modell som ikke bare vet noe, men også kan lære av erfaring. Det er som om du har en kollega som har lest alle artiklene og husker alle eksperimentene du har gjort de siste 10 årene - og kan si: "Du prøvde det før. Det virket ikke fordi du brukte for høy temperatur. Prøv igjen med 40 °C."
Er det trygt å la AI lede forskning?
Ikke alene. Men sammen med mennesker? Ja. Den største risikoen er at AI "hører" feil informasjon og tror den er riktig. Derfor er det viktig at mennesker alltid sjekker hypoteser, kontrollerer eksperimentdesign, og godkjenner resultater. AI er ikke en oracle - den er en kollega som er veldig god til å huske, regne og se mønstre. Men den trenger en menneskelig sjef som vet når noe virker som en ide, og når det virkelig er en oppdagelse.