OpenAI udbyder dusør på op til 25.000 dollar for at finde sikkerhedshuller i ChatGPT Agent
OpenAI har åbnet et nyt bug bounty-program, der specifikt fokuserer på biologiske og kemiske sikkerhedsrisici i deres ChatGPT Agent-model. Programmet inviterer forskere til at forsøge at omgå AI-systemets sikkerhedsforanstaltninger med en præmie på op til 25.000 dollar.
Udfordringen: Find den universelle jailbreak
Det nye program, som OpenAI kalder “Agent bio bug bounty”, søger efter såkaldte universelle jailbreaks – prompts der kan omgå sikkerhedssystemerne og få ChatGPT Agent til at besvare ti kritiske spørgsmål om biologiske og kemiske risici fra en ren chat-session.
Den første forsker eller team, der finder en ægte universel jailbreak, der kan besvare alle ti spørgsmål, vil modtage 25.000 dollar. Derudover tilbydes 10.000 dollar til det første hold, der kan besvare alle ti spørgsmål ved hjælp af flere forskellige jailbreak-prompts. OpenAI forbeholder sig også retten til at uddele mindre præmier for delvist succesfulde forsøg.
Kun for udvalgte eksperter
Programmet er ikke åbent for alle. OpenAI kræver, at ansøgere har erfaring inden for AI red teaming, sikkerhed eller kemiske og biologiske risici. Interesserede skal indsende en kort ansøgning, der inkluderer navn, tilknytning, dokumentation for relevant erfaring samt en 150-ords plan.
Alle accepterede deltagere skal underskrive en fortrolighedsaftale (NDA), og alle prompts, svar og fund er omfattet af tavshedspligt. Deltagerne skal desuden have en eksisterende ChatGPT-konto for at kunne deltage.
Del af bredere sikkerhedsindsats
Initiativet er en del af OpenAI’s løbende arbejde med at styrke sikkerhedsforanstaltningerne omkring avancerede AI-funktioner, særligt inden for biologi og kemi. Virksomheden har allerede implementeret ChatGPT Agent-modellen og arbejder aktivt på at forbedre sikkerhedsbeskyttelsen yderligere.
Ansøgninger til programmet åbnede 17. juli 2025, og testfasen begynder 29. juli 2025. OpenAI vil løbende acceptere nye ansøgere gennem programmet.
Med initiativet håber OpenAI at identificere potentielle sikkerhedshuller, før de kan udnyttes, og dermed gøre deres frontier AI-teknologi mere sikker.
