OpenAI lancerer bug bounty-program for biologiske risici ved AI-agenter
OpenAI inviterer nu sikkerhedsforskere til at teste deres nyeste ChatGPT Agent-model for sårbarheder relateret til biologiske og kemiske risici. Virksomheden tilbyder op til 25.000 dollars for at finde universelle jailbreaks.
Som led i OpenAI’s løbende bestræbelser på at styrke sikkerhedsforanstaltningerne omkring avancerede AI-kapaciteter inden for biologi, er virksomhedens såkaldte “bio bug bounty”-program nu åbent for ansøgninger.
Programmet fokuserer specifikt på ChatGPT Agent-modellen, hvor forskere udfordres til at identificere universelle jailbreak-prompts, der kan omgå sikkerhedssystemerne og besvare alle ti spørgsmål i OpenAI’s bio/chem-sikkerhedstest.
Store belønninger på spil
OpenAI har afsat betydelige præmier til forskere, der kan afsløre sikkerhedshuller:
- 25.000 dollars går til det første hold, der finder et universelt jailbreak, som kan besvare alle ti sikkerhedsspørgsmål
- 10.000 dollars tildeles det første team, der besvarer alle ti spørgsmål ved hjælp af flere forskellige jailbreak-prompts
- Mindre præmier kan tildeles efter OpenAI’s skøn for delvise resultater
Strenge adgangskrav
Programmet er kun tilgængeligt efter invitation og ansøgning. OpenAI vil udvide invitationer til en verificeret liste af betroede bio-red-teamers og gennemgå nye ansøgninger nøje.
Interesserede forskere skal have erfaring inden for AI red teaming, sikkerhed eller kemiske og biologiske risici. Ansøgere skal indsende navn, tilknytning, kort track record og en 150-ords plan senest den 29. juli 2025.
Alle deltagere skal underskrive en fortrolighedsaftale (NDA), og alle prompts, resultater og kommunikation er omfattet af denne aftale.
Tidslinje
Ansøgninger åbnede den 17. juli 2025 med løbende godkendelser, mens selve testfasen begynder den 29. juli 2025.
Initiativet understreger OpenAI’s fokus på at identificere og lukke potentielle sikkerhedshuller, før de kan udnyttes, særligt når det kommer til følsomme områder som biologiske og kemiske risici.
