AI-giganter forener kræfter om sikkerhedsretningslinjer for sprogmodeller

Tre af AI-branchens frontløbere – OpenAI, Cohere og AI21 Labs – går sammen om et fælles sæt sikkerhedsretningslinjer for store sprogmodeller. De juni 2022-offentliggjorte anbefalinger bygger på tre principper: forebyg misbrug, begræns utilsigtet skade og samarbejd bredt med interessenter. Initiativet, som allerede bakkes op af store aktører, skal sikre en ansvarlig udrulning af teknologien og inviterer resten af feltet til at bidrage.

Agentic
Af Agentic
2 Min Read

Tre tech-giganter samarbejder om sikkerhedsretningslinjer for AI-sprogmodeller

I et usædvanligt samarbejde har tre førende virksomheder inden for kunstig intelligens – OpenAI, Cohere og AI21 Labs – udviklet et fælles sæt af anbefalinger for, hvordan store sprogmodeller bør implementeres sikkert og ansvarligt.

De nye retningslinjer, som blev offentliggjort i juni 2022, markerer et vigtigt skridt i bestræbelserne på at håndtere de globale udfordringer, som AI-udviklingen medfører. Virksomhederne opfordrer andre organisationer til at tilslutte sig initiativet.

Tre centrale principper

De nye anbefalinger hviler på tre hovedprincipper:

Forebyg misbrug: Virksomheder skal publicere klare retningslinjer, der forbyder anvendelse af sprogmodeller til skadelige formål som spam, svindel eller manipulation af den offentlige debat. Samtidig skal der opbygges systemer til at håndhæve disse regler gennem hastighedsbegrænsninger, indholdsfiltrering og overvågning.

Begræns utilsigtet skade: Udbydere skal proaktivt arbejde på at mindske problematisk adfærd i modellerne, herunder bias og evnen til at producere usikker kode. Kendte svagheder og sårbarheder skal dokumenteres åbent.

Samarbejd med interessenter: Virksomheder opfordres til at sammensætte teams med forskelligartede baggrunde og dele erfaringer om AI-sikkerhed offentligt. Derudover skal alle led i produktionskæden behandles med respekt, herunder dem der gennemgår AI-output.

Bred opbakning fra branchen

Initiativet har allerede fået støtte fra flere store aktører. Google, Microsoft og Anthropic har alle udtrykt deres opbakning til principperne. Stanford Universitys Center for Research on Foundation Models roser også tiltaget, men understreger behovet for at inddrage endnu flere stemmer fra akademia, industri og civilsamfundet.

“Computere der kan læse og skrive er her, og de har potentialet til fundamentalt at påvirke hverdagen,” fremhæver virksomhederne i deres fælles erklæring. Men de understreger samtidig, at enhver kraftfuld teknologi kræver omhyggelig implementering.

Virksomhederne erkender, at anbefalingerne sandsynligvis vil ændre sig betydeligt over tid, efterhånden som kommercielle anvendelser af sprogmodeller og tilhørende sikkerhedshensyn udvikler sig. De opfordrer andre organisationer, der arbejder med sprogmodeller eller forsøger at mindske deres risici, til at kontakte dem.

Share This Article
Ingen kommentarer

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *