Kunstig intelligens

Rapport: KI-selskaper «uforberedt» på farene ved å utvikle menneskelige systemer

Institutt advarer om at store KI-selskaper som jobber mot kunstig generell intelligens (AGI), mangler realistiske planer for å sikre en kontrollert og trygg utvikling.

Max Tegmark, professor ved MIT og medstifter av Future of Life Institute, kaller situasjonen «ganske rystende».
Max Tegmark, professor ved MIT og medstifter av Future of Life Institute, kaller situasjonen «ganske rystende». Illustrasjon: Colourbox
Mathias Abildskov, Ingeniøren.dk
17. aug. 2025 - 16:10

OpenAI, Google, DeepMind og andre av verdens største utviklere av kunstig intelligens er langt fra forberedt på risikoene som kan oppstå hvis AI blir like intelligent som mennesker.

Det er konklusjonen i en ny rapport fra den ideelle organisasjonen Future of Life Institute (FLI), som har gransket de sju største AI-utviklerne.

AGI beskriver et utviklingsnivå der kunstig intelligens kan utføre enhver oppgave minst like godt som et menneske.

– Industrien er grunnleggende uforberedt på sine egne uttalte mål. Selskapene hevder at de vil nå kunstig generell intelligens innen et tiår, men ingen fikk bedre karakter enn D i vurderingen av eksistensiell sikkerhetsplanlegging, skriver FLI.

Får karakteren 2

Karakteren D er vurdert etter amerikansk karakterskala og tilsvarer omtrent karakteren 2 etter norsk skala.

Rapporten slår fast at selv om selskapene har som mål å oppnå AGI i løpet av de neste ti årene, har de ingen helhetlige eller operative planer for hvordan slike systemer skal holdes under menneskelig kontroll.

Selskapene OpenAI, Google DeepMind, Anthropic, Meta, xAI, Zhipu AI og DeepSeek er vurdert ut fra seks kriterier, blant annet eksistensiell sikkerhet og nåværende skadevirkninger.

Kritikken støttes av organisasjonen SaferAI, som i en separat rapport omtaler selskapenes risikohåndtering som «svak til svært svak». Tilnærmingen deres betegnes som «uakseptabel».

– Som gigantisk atomkraftverk midt i New York

Max Tegmark, professor ved MIT og medstifter av Future of Life Institute, kaller situasjonen «ganske rystende».

– Det er som om noen bygger et gigantisk atomkraftverk midt i New York City, og det skal åpne neste uke – men det finnes ingen plan for å hindre nedsmelting, sier han til The Guardian.

Google DeepMind avviser deler av kritikken og påpeker at rapporten ikke dekker hele selskapets arbeid med AI-sikkerhet. En talsperson sier at innsatsen deres strekker seg langt utover det rapporten har vurdert.

OpenAI, Anthropic, Meta, xAI, Zhipu AI og DeepSeek er også kontaktet av The Guardian for kommentar, men har foreløpig ikke svart.

Artikkelen ble først publisert på Version 2. 

Open AI håper den nye Chat GPT-modusen kan være til hjelp for studenter på alle nivåer.
Les også:

Open AI fikk hjelp fra lærere: Slik skal Chat GPT gjøre deg til en bedre student

Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.