OpenAI’s Demokratiske AI-eksperiment: Indflydelse, Udfordringer og Fremtidsplaner

Hvordan bør AI opføre sig – og hvem skal bestemme det? OpenAI har offentliggjort resultaterne fra et globalt tilskudsprogram, der tester demokratiske metoder til at styre AI, og de ti udvalgte projekter afslører både lovende værktøjer og store knaster som skiftende holdninger, digital ulighed og polarisering. Erfaringerne får OpenAI til at oprette et nyt Collective Alignment-team for at give offentligheden større indflydelse – mens al kode er frigivet, og der rekrutteres til det videre arbejde.

Agentic
Af Agentic
3 Min Read

OpenAI afslører læring fra demokratisk AI-styring: Offentligheden skal have større indflydelse

OpenAI har offentliggjort resultaterne af sit ambitiøse tilskudsprogram, der skulle undersøge, hvordan demokratiske processer kan bruges til at styre kunstig intelligens. Ti teams fra hele verden har udviklet innovative løsninger, men arbejdet afslører også betydelige udfordringer.

I maj 2023 lancerede OpenAI et tilskudsprogram, der skulle udforske, hvordan man kan inddrage offentligheden i beslutninger om, hvordan AI-systemer skal opføre sig. Målet var at sikre, at AI-modeller bedre afspejler menneskelige værdier gennem demokratiske metoder.

Nu har selskabet offentliggjort resultaterne fra de ti vindende teams, der hver modtog 100.000 dollar til at designe og teste demokratiske styringsværktøjer til AI.

Bred vifte af innovative løsninger

De udvalgte teams kom fra 12 forskellige lande og repræsenterede ekspertise inden for alt fra jura og journalistik til maskinlæring og samfundsvidenskab. Projekterne spændte vidt – fra videobaserede deliberationsplatforme til matematiske modeller for repræsentationsgarantier.

Interessant nok spillede AI selv en central rolle i mange af processerne gennem specialdesignede chatgrænseflader, tale-til-tekst-transskription og datasyntetisering.

Fire centrale udfordringer identificeret

Programmet afslørede flere væsentlige udfordringer:

Skiftende holdninger: Mange teams opdagede, at offentlige holdninger ændrede sig hyppigt – endda fra dag til dag. Dette rejser spørgsmål om, hvor ofte demokratiske input-processer bør gentages.

Den digitale kløft: At nå relevante deltagere på tværs af digitale og kulturelle skel viste sig vanskeligt. Deltagere rekrutteret online var generelt mere optimistiske over for AI, hvilket kan skævvride resultaterne. Desuden fungerede værktøjer som talegenkendelse dårligt på mange ikke-engelske sprog.

Polariserede grupper: At finde kompromiser blev svært, når små grupper havde stærke meninger om bestemte emner. Dog lykkedes det flere teams at udvikle politikker med bred opbakning – selv om kontroversielle emner som vaccineinformation.

Konsensus versus diversitet: Der opstod en spænding mellem at nå til enighed og samtidig repræsentere mangfoldigheden af meninger. Det handler ikke kun om at følge flertallet, men også om at give plads til forskellige synspunkter.

Blandede følelser om AI’s rolle

Deltagerne udtrykte både håb og bekymring. Mange følte sig nervøse ved brugen af AI i politikudformning og efterlyste gennemsigtighed. Samtidig blev deltagere mere håbefulde om offentlighedens evne til at guide AI efter at have deltaget i processerne.

OpenAI danner nyt team

På baggrund af erfaringerne etablerer OpenAI nu et “Collective Alignment”-team bestående af forskere og ingeniører. Teamet skal implementere systemer til at indsamle og indkode offentlig input i deres AI-modeller og fortsætte samarbejdet med eksterne rådgivere.

Selskabet rekrutterer nu forskningsingeniører til arbejdet og opfordrer interesserede til at søge stillingerne.

Alle teams har gjort deres kode offentligt tilgængelig, så andre kan bygge videre på arbejdet.

Share This Article
Ingen kommentarer

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *