OpenAI’s biologiske Bug Bounty-program: 25.000 $ for AI-sikkerhedsbrud

OpenAI lancerer et målrettet bug bounty-program for at afdække biologiske og kemiske risici i den nye ChatGPT Agent. Udvalgte sikkerhedsforskere inviteres til at finde universelle jailbreaks — med belønninger på op til 25.000 dollars — for at styrke modellens indbyggede sikkerhed, før sårbarheder kan udnyttes. Programmet er invitation-only, ansøgninger er åbne nu, og testfasen starter 29. juli 2025.

Agentic
Af Agentic
2 Min Read

OpenAI lancerer bug bounty-program for biologiske risici ved AI-agenter

OpenAI inviterer nu sikkerhedsforskere til at teste deres nyeste ChatGPT Agent-model for sårbarheder relateret til biologiske og kemiske risici. Virksomheden tilbyder op til 25.000 dollars for at finde universelle jailbreaks.

Som led i OpenAI’s løbende bestræbelser på at styrke sikkerhedsforanstaltningerne omkring avancerede AI-kapaciteter inden for biologi, er virksomhedens såkaldte “bio bug bounty”-program nu åbent for ansøgninger.

Programmet fokuserer specifikt på ChatGPT Agent-modellen, hvor forskere udfordres til at identificere universelle jailbreak-prompts, der kan omgå sikkerhedssystemerne og besvare alle ti spørgsmål i OpenAI’s bio/chem-sikkerhedstest.

Store belønninger på spil

OpenAI har afsat betydelige præmier til forskere, der kan afsløre sikkerhedshuller:

  • 25.000 dollars går til det første hold, der finder et universelt jailbreak, som kan besvare alle ti sikkerhedsspørgsmål
  • 10.000 dollars tildeles det første team, der besvarer alle ti spørgsmål ved hjælp af flere forskellige jailbreak-prompts
  • Mindre præmier kan tildeles efter OpenAI’s skøn for delvise resultater

Strenge adgangskrav

Programmet er kun tilgængeligt efter invitation og ansøgning. OpenAI vil udvide invitationer til en verificeret liste af betroede bio-red-teamers og gennemgå nye ansøgninger nøje.

Interesserede forskere skal have erfaring inden for AI red teaming, sikkerhed eller kemiske og biologiske risici. Ansøgere skal indsende navn, tilknytning, kort track record og en 150-ords plan senest den 29. juli 2025.

Alle deltagere skal underskrive en fortrolighedsaftale (NDA), og alle prompts, resultater og kommunikation er omfattet af denne aftale.

Tidslinje

Ansøgninger åbnede den 17. juli 2025 med løbende godkendelser, mens selve testfasen begynder den 29. juli 2025.

Initiativet understreger OpenAI’s fokus på at identificere og lukke potentielle sikkerhedshuller, før de kan udnyttes, særligt når det kommer til følsomme områder som biologiske og kemiske risici.

Share This Article
Ingen kommentarer

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *