OpenAI udgiver sikkerhedsrapport for DALL·E 3
OpenAI har offentliggjort et såkaldt “system card” for deres nyeste AI-billedgenerator, DALL·E 3, som beskriver de sikkerhedsforanstaltninger og risikovurderinger, der er foretaget inden systemets lancering.
DALL·E 3 er et kunstig intelligens-system, der kan generere nye billeder ud fra tekstbeskrivelser. Systemet bygger videre på forgængeren DALL·E 2 med forbedringer inden for både billedkvalitet og evnen til at følge de beskrivelser, brugerne indtaster.
I den offentliggjorte rapport, som blev udgivet 3. oktober 2023, beskriver OpenAI det omfattende sikkerhedsarbejde, der er blevet udført forud for lanceringen. Dette inkluderer eksterne eksperters såkaldte “red teaming” – en proces hvor sikkerhedseksperter aktivt forsøger at finde svagheder i systemet.
Rapporten dokumenterer også OpenAI’s evalueringer af centrale risici forbundet med teknologien samt de tiltag, der er implementeret for at reducere både potentielle farer og uønskede funktioner i modellen.
DALL·E 3 er kategoriseret under flere forskningsområder hos OpenAI, herunder sprog, etik og sikkerhed, samt læringsprincipper. Systemet er en del af virksomhedens fortsatte bestræbelser på at udvikle AI-teknologi ansvarligt og transparent.
Rapporten er tilgængelig for offentligheden og repræsenterer OpenAI’s tilgang til åbenhed omkring deres AI-systemer og de sikkerhedsmæssige overvejelser, der ligger til grund for deres produkter.
