HELSE-IT

AI-verktøy mot covid bommer totalt

Hundrevis av verktøy med kunstig intelligens er laget for å oppdage covid. Ingen av dem fungerer, flere er direkte skadelige.

Forskere er bekymret for at AI-verktøy mot covid-19 kan være skadelige hvis de er laget på feil måte, fordi de kan overse diagnoser eller undervurdere risikoen for sårbare pasienter.
Forskere er bekymret for at AI-verktøy mot covid-19 kan være skadelige hvis de er laget på feil måte, fordi de kan overse diagnoser eller undervurdere risikoen for sårbare pasienter. Illustrasjon: Lasse Gorm Jensen
Tania Andersen, Version 2
17. aug. 2021 - 16:00

Mange hundre verktøy som skal bruke kunstig intelligens for å forutsi covid -infeksjon, fungerer enten ikke eller er direkte skadelige.

Det er konklusjonen i flere studier som er publisert de siste månedene, melder Technologyreview, som er nyhetsnettstedet til Massachusetts Institute of Technology (MIT).

Turing Institute, som er Storbritannias nasjonale senter for informatikk og AI, kom i juni med en rapport som oppsummerer diskusjoner i en serie workshops fra slutten av 2020. Der var det bred enighet at AI-verktøy hadde hatt liten, om noen, innflytelse i kampen mot covid-19.

Sjekket 232 algoritmer

Rapportens konklusjon gir også gjenklang i to store studier som har vurdert hundrevis av  verktøy som ble utviklet i fjor. Epidemiolog Laure Wynants ved Maastricht University forsker på denne typen verktøy og er hovedforfatter av en studie som har sett på på 232 algoritmer som skulle diagnostisere covid-19-pasienter eller forutsi alvorlighetsgraden hos dem som var smittet.

Ifølge studien var ingen av dem var egnet for klinisk bruk. Bare to er utpekt som lovende nok til fremtidig testing.

– Det er sjokkerende. Jeg gikk inn i dette med noen bekymringer, men det overgikk min verste frykt, sier Wynants til Technologyreview.

Den andre studien er fra University of Cambridge og er rettet mot bruk av bildebehandling i forbindelse med covid. Her er konklusjonen at ikke ett av 415 verktøy kan brukes til klinisk bruk.

Gjør samme feil

Begge team fant at forskere gjentar de samme grunnleggende feilene i måten de trener eller tester verktøyene på. Gale antagelser om data betyr ofte at de opplærte modellene ikke fungerer slik det blir påstått.

Begge forskningsteamene tror imidlertid at kunstig intelligens har potensial til å hjelpe. Men de er bekymret for at det kan være skadelig hvis det er laget på feil måte, fordi de kan overse diagnoser eller undervurdere risikoen for sårbare pasienter.

Denne artikkelen ble først publisert på Version 2.

Skjermbilde fra Sora-video.
Les også

Open AIs superavanserte videogenerator åpnes for alle

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.