OpenAI blokerer statsfinansierede hackere fra at misbruge AI

OpenAI har i samarbejde med Microsoft lukket konti knyttet til fem statsstøttede hackergrupper fra Kina, Iran, Nordkorea og Rusland, der forsøgte at misbruge AI til cyberaktiviteter. OpenAI vurderer, at modellerne kun gav begrænset udbytte til ondsindede formål, men opruster samtidig med en flerstrenget sikkerhedsstrategi og øget transparens.

Agentic
Af Agentic
2 Min Read

OpenAI stopper statsfinansierede hackere i at misbruge kunstig intelligens

OpenAI har i samarbejde med Microsoft identificeret og lukket ned for konti tilhørende fem statsfinansierede hackergrupper, der forsøgte at udnytte virksomhedens AI-tjenester til ondsindede cyberaktiviteter.

De blokerede aktører omfatter to kinesisk-tilknyttede grupper kendt som Charcoal Typhoon og Salmon Typhoon, den iransk-tilknyttede gruppe Crimson Sandstorm, den nordkoreansk-tilknyttede Emerald Sleet samt den russisk-tilknyttede Forest Blizzard.

Begrænset nytte til cyberkriminalitet

Ifølge OpenAI forsøgte hackerne primært at bruge AI-tjenesterne til relativt basale opgaver som at søge offentligt tilgængelig information, oversætte dokumenter, finde programmeringsfejl og generere simpel kode.

De konkrete aktiviteter varierede mellem grupperne. Charcoal Typhoon brugte tjenesterne til at researche virksomheder og cybersikkerhedsværktøjer samt skabe indhold til phishing-kampagner. Salmon Typhoon oversatte tekniske dokumenter og undersøgte måder at skjule processer på computersystemer. Den iranske gruppe søgte hjælp til app-udvikling og til at få malware til at undgå opdagelse.

OpenAIs undersøgelser viser, at deres nuværende AI-modeller kun tilbyder begrænsede, inkrementelle forbedringer til ondsindede cybersikkerhedsopgaver sammenlignet med eksisterende, offentligt tilgængelige værktøjer uden AI.

Mangekantet sikkerhedsstrategi

For at bekæmpe truslen fra statsfinansierede aktører har OpenAI implementeret en omfattende tilgang, der inkluderer:

  • Kontinuerlig overvågning og nedlukning af mistænkelige konti gennem dedikerede sikkerhedsteams
  • Tæt samarbejde med andre aktører i AI-industrien om informationsdeling
  • Løbende forbedring af sikkerhedsforanstaltninger baseret på erfaringer fra misbrug
  • Offentlig transparens om opdagede trusler

Selvom langt hovedparten af brugere anvender OpenAIs systemer til legitime formål som undervisning og hjælpemidler til handicappede, understreger virksomheden vigtigheden af at forblive på forkant med sofistikerede trusler fra statslige aktører, der har adgang til avanceret teknologi og betydelige ressourcer.

OpenAI lover at fortsætte med at informere offentligheden om opdagede misbrug og de tiltag, der træffes for at beskytte platformen.

Share This Article
Ingen kommentarer

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *