Kunstig intelligens

Steve Wozniak ber bransjen bremse AI-utviklingen

Sentrale bransjefolk vil sette treningen av AI-modeller som er kraftigere enn GPT-4 på pause i seks måneder, i påvente av bedre sikkerhetsmekanismer.

Apple-gründeren er på  lista over bransjefolk som har signert brevet. Her i Budapest i 2019.
Apple-gründeren er på lista over bransjefolk som har signert brevet. Her i Budapest i 2019. Foto: Marton Monus
Marianne GjessingMarianne Gjessing– Journalist
29. mars 2023 - 13:04

I et åpent brev til alle AI-laboratorier, signert av blant annet Apple-grunnlegger Steve Wozniak, Stability AI-sjef Emad Mostaque og Elon Musk, ber en lang rekke bransjefolk om at bransjen setter på bremsene i utviklingen av AI-modeller.

Det melder Reuters.

Brevet, som er ført i pennen av den frivillige organisasjonen Future of Life Institute, er signert av mer enn 1000 mennesker. På lista finner vi internasjonale AI-storheter som professor ved universitetet i Montreal, Yoshua Bengio og professor og leder for senteret for intelligente systemer ved Berkely, Stuart Russel, og norske forskere som Tor Nordam ved NTNU og Hans Martin Seip ved Universitetet i Oslo.

− Kraftfulle AI-systemer bør ikke utvikles før vi føler oss sikre på at effektene vil være positive og risikoen er mulig å håndtere, heter det i brevet.

Etter at OpenAI slapp sin ChatGPT til publikum i fjor høst, har mange advart mot mulig skadelig bruk, som i cyberkriminalitet, nettfiske og desinformasjon. Likevel, lanseringen satte i gang et kappløp i bransjen. Teknologigigantene kjemper om å være først ute med de kraftigste modellene.

Apple-sjef Tim Cook uttrykker bekymring rundt AI.
Les også:

Apple-sjefen om AI: – Fortsatt bekymringer det må ryddes opp i

Bør ikke delegeres til ikke-valgte ledere

− AI-systemer med intelligens som kan konkurrere mot menneskers intelligens, kan utgjøre en stor risiko mot samfunnet og menneskeheten, heter det i brevet.

Teknologien kan føre til vesentlige endringer i menneskets historie, mener forfatterne. 

− Skal vi la maskiner oversvømme informasjonskanalene våre med propaganda og usannheter? Skal vi automatisere bort alle jobbene, inkludert de vi liker å gjøre? Bør vi utvikle ikke-menneskelige sinn som til slutt kan overstige oss, overliste oss og gjøre oss overflødige? Bør vi risikere å miste kontrollen over sivilisasjonen vår, spør brevet retorisk.

Denne typen spørsmål bør ikke delegeres til ikke-valgte ledere, mener Future og Life Institute.

−  Vi har kommet til et punkt der vi er nødt til å stoppe opp og få en uavhengig vurdering av hvor vi er på vei, mener de.

Ber om pause

− Derfor oppfordrer vi alle AI-laboratorier til umiddelbart å sette på pause, i minst seks måneder, treningen av AI-systemer kraftigere enn GPT-4. Denne pausen skal være offentlig og verifiserbar og inkludere alle sentrale aktører, heter det i brevet.

Pausen bør brukes på å utvikle og implementere et sett felles sikkerhetsmekanismer det blir ført tilsyn med av uavhengige eksperter. Samtidig må utviklere jobbe sammen med politikere og byråkrater for å få fart på arbeidet med regulering, mener blant annet Wozniak.

Aurora-superdatamaskinen er ikke ferdigstilt ennå, men når den er klar, planlegger Intel å bruke den til heftige KI-oppgaver.
Les også:

Stor kunngjøring: Intel skal bruke verdens kraftigste superdatamaskin til å lage ekstremt avansert AI-modell

Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.
Se flere jobber
Tre jobbtilbud 10 måneder før masteravslutning!
Les mer
Tre jobbtilbud 10 måneder før masteravslutning!
Få annonsen din her og nå frem til de beste kandidatene
Lag en bedriftsprofil
En tjeneste fra