OpenAI advarer: Superintelligens nærmer sig med stormskridt

Er superintelligens tættere på, end vi tror? I en ny rapport advarer OpenAI om, at AI udvikler sig eksplosivt, med faldende omkostninger og systemer, der kan nærme sig videnskabelige gennembrud allerede inden for få år. Samtidig skitserer virksomheden fem konkrete anbefalinger for, hvordan samfundet bør håndtere udviklingen – fra fælles standarder og offentligt tilsyn til et modstandsdygtigt AI-økosystem. Denne artikel gennemgår rapportens vigtigste pointer, potentialer og risici.

Agentic
Af Agentic
4 Min Read

OpenAI advarer: Superintelligens kan være tættere på end de fleste tror

Kunstig intelligens udvikler sig langt hurtigere end de fleste mennesker er klar over. Det fastslår OpenAI i en ny rapport, hvor virksomheden advarer om, at AI-systemer snart kan løse opgaver, der ville tage mennesker århundreder at gennemføre.

Da Turing-testen blev bestået, fortsatte hverdagen stort set uændret, selvom computere pludselig kunne samtale og tænke over komplekse problemer. Men ifølge OpenAI er kløften mellem, hvordan folk bruger AI i dag, og hvad teknologien faktisk er i stand til, enorm.

“I dag har vi systemer, der kan overgå de klogeste mennesker i nogle af vores mest udfordrende intellektuelle konkurrencer,” skriver OpenAI i rapporten. “Selvom AI-systemer stadig har alvorlige svagheder, virker systemer, der kan løse så svære problemer, mere som 80 procent af vejen til en AI-forsker end 20 procent.”

Eksponentiel udvikling

Udviklingen går stærkt. Inden for softwareudvikling er AI på få år gået fra kun at kunne udføre opgaver, der tager et menneske få sekunder, til opgaver der tager over en time. OpenAI forventer snart at have systemer, der kan klare opgaver, som ville tage en person dage eller uger.

Samtidig er prisen pr. intelligens-enhed faldet drastisk – med omkring 40 gange om året de seneste år.

OpenAI forventer, at AI i 2026 vil kunne gøre meget små opdagelser, mens systemer i 2028 og fremefter vil kunne lave mere betydelige videnskabelige gennembrud.

Fem anbefalinger til håndtering af AI

For at sikre en positiv fremtid med AI fremlægger OpenAI fem centrale anbefalinger:

Fælles standarder mellem førende AI-virksomheder: De største AI-laboratorier bør dele sikkerhedsforskning, viden om nye risici og mekanismer til at reducere kapløbsdynamikker.

Offentligt tilsyn tilpasset AI’s kapacitet: OpenAI skelner mellem to scenarier – et hvor AI udvikler sig som “normal teknologi”, og et hvor superintelligens opstår hurtigere end samfundet kan tilpasse sig. I begge tilfælde er tæt samarbejde med myndigheder nødvendigt.

Et AI-modstandsdygtigt økosystem: Ligesom internettet blev beskyttet gennem cybersikkerhed, kryptering og overvågningssystemer, skal der bygges et tilsvarende økosystem omkring AI.

Løbende rapportering og måling: Både AI-virksomheder og regeringer bør kontinuerligt måle og rapportere om AI’s konkrete påvirkning af samfundet.

Individuel myndiggørelse: Voksne bør kunne bruge AI på deres egne præmisser inden for brede samfundsmæssige rammer. Adgang til avanceret AI bør blive en grundlæggende rettighed på linje med elektricitet og rent vand.

Både muligheder og risici

OpenAI understreger, at AI kan hjælpe mennesker med at forstå deres helbred, accelerere fremskridt inden for materialeforskning, lægemiddeludvikling og klimamodellering samt udvide adgangen til personlig undervisning.

Men virksomheden tager også risiciene alvorligt: “Selvom de potentielle fordele er enorme, behandler vi risiciene ved superintelligente systemer som potentielt katastrofale.”

OpenAI advarer om, at ingen bør implementere superintelligente systemer uden at kunne kontrollere dem robust – noget der kræver betydeligt mere teknisk arbejde.

Selvom OpenAI forventer hurtig og betydelig fremgang i AI-kapaciteter de kommende år, mener virksomheden dog, at hverdagen stadig vil føles overraskende konstant. Måden vi lever på har stor inerti, selv med meget bedre værktøjer.

Share This Article
Ingen kommentarer

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *