Altman opfordrer til AI-regulering i senatet

OpenAI’s topchef Sam Altman har vidnet for det amerikanske senat om både mulighederne og risiciene ved avanceret AI. Han skitserer OpenAI’s sikkerhedsarbejde, erkendte udfordringer som hallucinationer og desinformation samt de forventede effekter på arbejdsmarkedet—og opfordrer samtidig til klar, fleksibel regulering og internationalt samarbejde. Artiklen giver et overblik over hans centrale budskaber og forslag til, hvordan innovation kan balanceres med ansvarlighed.

Agentic
Af Agentic
4 Min Read

OpenAI’s CEO Sam Altman vidner om AI-sikkerhed og regulering i det amerikanske senat

OpenAI’s administrerende direktør Sam Altman har afgivet omfattende vidnesbyrd for den amerikanske senats juridiske komité om kunstig intelligens, sikkerhed og behovet for regulering. I sin skriftlige vidneforklaring fra juni 2023 fremlagde Altman både de enorme muligheder og potentielle risici ved avanceret AI-teknologi.

OpenAI’s mission og struktur

Altman understregede OpenAI’s usædvanlige virksomhedsstruktur, hvor en nonprofit-organisation fungerer som hovedenhed og kontrollerer alle kommercielle aktiviteter. Denne struktur sikrer, at virksomhedens primære mission – at udvikle sikker og gavnlig kunstig generel intelligens (AGI) til gavn for hele menneskeheden – forbliver i fokus, selv når virksomheden tiltrækker milliardinvesteringer fra partnere som Microsoft.

AI’s positive samfundspåvirkning

I vidnesbyrdet fremhævede Altman talrige eksempler på, hvordan OpenAI’s teknologi allerede forbedrer menneskers liv:

  • Khan Academy bruger GPT-4 til at skabe personlige virtuelle tutorer for studerende
  • Morgan Stanley anvender teknologien til at hjælpe finansielle rådgivere med at søge i omfattende vidensdatabaser
  • Be My Eyes hjælper blinde og svagtseende med AI-drevne beskrivelser af deres omgivelser
  • Islands regering bruger GPT-4 til at bevare det islandske sprog

Altman delte også historien om Ben Whittle, en poolinstallatør med ordblindhed, som ved hjælp af AI-værktøjer baseret på OpenAI’s teknologi har kunnet forbedre sin forretningskommunikation markant og sikre store kontrakter.

Omfattende sikkerhedsforanstaltninger

En stor del af vidnesbyrdet fokuserede på OpenAI’s sikkerhedspraksis. Før lanceringen af GPT-4 brugte virksomheden over seks måneder på test, evaluering og forbedring af systemet. Dette omfattede såkaldt “red teaming”, hvor eksterne sikkerhedseksperter forsøgte at identificere potentielle problemer med modellen.

Altman beskrev flere specifikke sikkerhedstiltag:

  • GPT-4 afviser at generere forbudt indhold i over 99% af tilfældene
  • Modellen er 40% mere faktuel end GPT-3.5
  • Virksomheden bruger både automatiserede systemer og menneskelig gennemgang til at opdage misbrug
  • OpenAI samarbejder med organisationer som Thorn for at opdage og rapportere materiale relateret til seksuel udnyttelse af børn

Udfordringer med nøjagtighed og desinformation

Altman erkendte, at AI-modeller stadig kan generere unøjagtige informationer – såkaldte “hallucinationer” – da de forudsiger svar baseret på statistiske mønstre snarere end at hente faktuel information fra databaser. Han understregede dog, at forbedring af faktuel nøjagtighed er et centralt forskningsfokus.

Vedrørende desinformation fremhævede Altman, at OpenAI har offentliggjort forskning sammen med Stanford og Georgetown University om risici ved misbrug af sprogmodeller til desinformationskampagner og mulige politiske værktøjer til at adressere problemet.

Økonomisk påvirkning og arbejdsmarkedet

Altman anerkendte, at AI vil have “dybtgående påvirkninger på arbejdsmarkedet” og beskrev en blanding af forventede effekter: øget produktivitet, jobskabelse, jobtransformation og jobfortrængning. OpenAI finansierer forskning i politiske værktøjer som modernisering af arbejdsløshedsunderstøttelse og tilpasningsprogrammer for arbejdere påvirket af AI.

Opfordring til regulering

I en bemærkelsesværdig holdning for en tech-CEO opfordrede Altman direkte til regulering af AI. Han foreslog tre konkrete områder for samarbejde mellem regeringer og AI-virksomheder:

  1. Licens- eller registreringskrav for udvikling og lancering af AI-modeller over en kritisk kapacitetsgrænse
  2. Fleksible sikkerhedsstandarder, der kan tilpasses nye tekniske udviklinger gennem multi-interessent processer
  3. International koordinering af AI-sikkerhed og potentielle mellemstatslige tilsynsmekanismer

Altman understregede vigtigheden af, at USA opretholder sit lederskab inden for AI, samtidig med at demokratiske værdier forbliver centrale i udviklingen af teknologien.

Fremadrettet perspektiv

Altman konkluderede sit vidnesbyrd med at anerkende både den enorme spænding og det ansvar, der følger med at udvikle denne teknologi. Han udtrykte tillid til, at regering og industri sammen kan håndtere risiciene, så alle kan nyde de betydelige fordele ved AI.

Vidnesbyrdet repræsenterer et vigtigt øjebliksbillede af, hvordan en af verdens førende AI-virksomheder tænker om balance mellem innovation og sikkerhed på et kritisk tidspunkt i teknologiens udvikling.

Share This Article
Ingen kommentarer

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *