Mange maskinlærings- (ML-) teknologier bygges til alltid å gi et svar, uansett hvor usikre de måtte være. Og det er problematisk og potensielt farlig, mener den danske oppstartsbedriften Desupervised, som jobber med et ML-rammeverk som skal bygge modeller som kan innrømme det hvis de er på gyngende grunn.
KUNSTIG INTELLIGENS
Dansk oppstartsbedrift vil ha maskinlæring som forteller når den er usikker
Mange maskinlærings-systemer er bygget for alltid å komme med et svar, selv om det ikke kan finne noen mening i data-inputen. Og dette er et problem, mener danske Desupervised.

Illustrasjon. Foto: Rock'n Roll Monkey
Les mer om:
Kommentarsystemet er deaktivert
Kommentarsystemet leveres av en ekstern leverandør, og kan ikke lastes inn uten at informasjonskapslene er aktivert. Endre dine Personvern/cookies innstillinger for å aktivere kommentering.
