Vad händer när AI börjar tänka som vi? Nya modeller redogör för sina tankegångar, vilket kan få stor betydelse i känsliga sammanhang som vård och forskning.
När AI-boomen tog fart matades språkmodeller med i princip hela det öppna internet. Men nu börjar innehållet ta slut. I en artikel i DN, april 2025, berättar forskare att AI-företagen nu letar efter nya vägar att träna sina modeller. Tidigare har man fokuserat på att göra dem större och snabbare, men det räcker inte längre. Nu växer en ny typ fram: resonemangsmodeller.
Till skillnad från tidigare AI-modeller som bara ”gissar” nästa ord, försöker dessa nya modeller bryta ner frågan i flera steg. Datavetarprofessorn Melanie Mitchell ger ett exempel i tidningen Science:
”Julia har två systrar och en bror. Hur många systrar har hennes bror Martin?” GPT 4 svarar fel: ”Martin har två systrar, samma antal som Julia har.”
En resonemangsmodell däremot resonerar stegvis, som en människa skulle göra: Julia har två systrar = tre flickor totalt. Hon har en bror, Martin = fyra syskon totalt. Martins systrar är alla tre flickor. Alltså: Martin har tre systrar.
”Det är verkligen ett paradigmskifte.”
Birger Moëll, doktorand på KTH.
Birger Moëll, doktorand på KTH, kallar detta ett paradigmskifte: ”Att kunna se hur modellen tänker är viktigt för explainability”. Ett begrepp som AI-forskningen använder för att förstå hur en modell når sina slutsatser.
Det kinesiska AI-labbet Deepseek har lett utvecklingen med sin resonemangsmodell R1 som visar exakt hur den resonerar. Detta kunde vara en lösning på det så kallades black box-problemet, det fenomen där vi inte vet hur AI kommer fram till sina svar.
Moëll tror att det är särskilt viktigt om systemen ska kunna användas inom känsliga områden som sjukvården, där experter måste kunna granska resonemanget bakom ett AI-förslag. Studier i tidigt skede indikerar lovande resultat på området.