OpenAI lancerer sikkerhedsramme for teenagere
OpenAI har offentliggjort et nyt “Teen Safety Blueprint” – en omfattende plan for, hvordan AI-teknologi skal beskytte og understøtte unge brugere.
Det amerikanske AI-selskab bag ChatGPT præsenterer nu en ramme, der skal fungere som en køreplan for ansvarlig udvikling af AI-værktøjer til teenagere. Planen er samtidig tænkt som et praktisk udgangspunkt for politikere, der arbejder med at fastsætte standarder for unges brug af kunstig intelligens.
“Unge mennesker fortjener teknologi, der udvider muligheder og beskytter deres trivsel,” skriver OpenAI i en meddelelse.
Proaktiv tilgang til sikkerhed
OpenAI understreger, at de ikke venter på, at lovgivningen indhenter teknologien. I stedet implementerer de allerede nu en række sikkerhedsforanstaltninger:
- Styrkede beskyttelsesmekanismer for yngre brugere
- Forældrekontrol med proaktive notifikationer
- Udvikling af et aldersforudsigelsessystem, der kan identificere brugere under 18 år og tilpasse ChatGPT-oplevelsen derefter
Sikkerhedsrammen fokuserer på tre hovedområder: Alderspassende design, meningsfulde produktsikkerhedsforanstaltninger samt løbende forskning og evaluering.
Åben for samarbejde
OpenAI erkender, at der stadig er mere arbejde at gøre. Selskabet fremhæver sit engagement i at udvikle AI ansvarligt og løbende forbedre beskyttelsen i takt med, at de lærer sammen med forældre, eksperter og teenagere selv.
“De beslutninger, der træffes i dag, vil forme, hvordan teenagere bruger og beskyttes af denne teknologi i årene fremover,” lyder det fra OpenAI, der opfordrer andre aktører til at samarbejde om samme mål.
Teen Safety Blueprint er nu tilgængelig som en offentlig ressource for både tech-virksomheder og lovgivere.
