OpenAI introducerer ny metode til at måle AI-modellers gennemsigtighed
OpenAI har offentliggjort en ny forskningsrapport, der introducerer et omfattende framework til at evaluere, hvor godt man kan overvåge AI-modellers tankeprocesser. Forskningen fokuserer på såkaldt “chain-of-thought monitorability” – evnen til at forstå og forudsige, hvordan avancerede AI-modeller når frem til deres konklusioner.
Hvad er monitorability?
Monitorability handler om, hvor godt et overvågningssystem kan forudsige egenskaber ved en AI-agents adfærd. Dette kan omfatte både problematisk adfærd som bedrag eller bias, men også neutrale egenskaber som hvilken ræsonnementsvej modellen har fulgt.
Moderne ræsonneringsmodeller som GPT-5 Thinking genererer en eksplicit tankerække, før de producerer et svar. At overvåge disse tankerækker kan være langt mere effektivt end kun at overvåge modellens handlinger og endelige output.
Nyt evalueringsframework
Forskerne har udviklet en suite af 13 evalueringer fordelt på 24 forskellige miljøer, organiseret i tre kategorier:
Interventionsevalueringer introducerer kontrollerede ændringer i AI’ens miljø og tester, om et overvågningssystem kan opdage, hvorfor adfærden ændrede sig.
Procesevalueringer fokuserer på opgaver med et begrænset antal gyldige løsningsveje, hvor eksperter kan identificere, hvilke trin modellen faktisk tog.
Outcome-property evalueringer måler, om et overvågningssystem kan forudsige egenskaber ved modellens output baseret på dens ræsonnement.
Centrale fund
Undersøgelsen viser, at de fleste frontier-ræsonneringsmodeller er relativt overvågelige, selvom ikke perfekt. I næsten alle testede scenarier var overvågning af tankerækker væsentligt mere effektiv end kun at overvåge handlinger og output.
Forskerne fandt også, at modeller, der “tænker” længere, generelt er lettere at overvåge. Bemærkelsesværdigt viste resultaterne, at reinforcement learning-træning i nuværende skala ikke synes at forringe overvågbarheden betydeligt.
Monitorability tax
Et interessant fund er, at der eksisterer en afvejning mellem modelstørrelse og ræsonneringsindsats. En mindre model, der kører med højere ræsonneringsindsats, kan opnå sammenlignelig kapacitet med en større model, mens den er lettere at overvåge. Dette kommer dog til prisen af øget inference-beregning – det, forskerne kalder en “monitorability tax”.
Fremtidige perspektiver
OpenAI understreger, at chain-of-thought-overvågning bør ses som et supplement til mekanistisk fortolkning, ikke en erstatning. Virksomheden planlægger at udvide disse evalueringer og bruge dem til at informere fremtidige modelleringsbeslutninger.
Forskerne opfordrer hele branchen til at arbejde på at bevare chain-of-thought monitorability, efterhånden som modeller skalerer og implementeres i højere indsatsområder. Som de påpeger: “For at bevare monitorability skal vi kunne måle det.”
Rapporten er tilgængelig som preprint og repræsenterer et vigtigt skridt mod mere gennemsigtige og kontrollerbare AI-systemer.
