Slik kan man forvirre selvkjørende biler

Skal ikke så mye til.

Sikkerhetsforsker hevder han kan lure selvkjørende biler med veldig enkle grep, og håper at produsentene følger med.
Sikkerhetsforsker hevder han kan lure selvkjørende biler med veldig enkle grep, og håper at produsentene følger med. Bilde: Google
7. sep. 2015 - 14:15

Selvkjørende biler er et veldig populært tema for tiden, og det virker som om stadig flere teknologiselskaper vil ha en bit av denne kaken, inkluder giganter som Apple.

De fleste selvkjørende biler bruker såkalte Lidar-systemer, det vil si løsninger som bruker lasere som måler avstanden til andre biler og andre objekter som kan befinne seg på veien.

Lidar-løsninger er dyre og kompliserte, og deres funksjon er å tegne et virtuelt, tredimensjonalt kart over objekter rundt bilen, som kjøretøyet kan da forholde seg til.

Ifølge en sikkerhetsforsker er det imidlertid svært enkelt å lure Lidar-systemer til bli forvirret og forsøke å unngå objekter som ikke finnes eller stenge helt ned.

Les mer: Google: Selvkjørende biler har ikke forårsaket ulykker

«Hackere» kan bruke rimelige komponenter til å skape falske ekkoer av forbipasserende, andre kjøretøy eller vegger, skriver forskeren Jonathan Petit i et innlegg (via IEEE Spectrum).

Systemet Petit har bygd består av enkle knøttemaskiner som Raspberry Pi eller Arduino og en enkel lasersender. Det eneste som kreves er egentlig korrekt timing, signalene må sendes slik at de blir synkronisert med lidaren, men utover det er prosessen veldig ukomplisert. Man kan befinne seg opptil 100 meter unna den aktuelle bilen, fra hvilken som helst retning, og laserstrålen trenger ikke å treffe bilen direkte.

«Angrepet» kan vise falske objekter som befinner seg mellom 20 til 350 meter fra bilen, og ifølge Petit kan han skape opptil tusenvis av slike objekter, noe som kan kalles et slags «DDoS»-angrep. Bilen blir nemlig så overveldet av de mange hindringene at den rett og slett stenger ned.

Vil ha bevissthet

Petit påpeker at ønsket hans er ikke å hevde at Lidar-utviklere gjør en dårlig jobb, men å advare dem om potensielle farer. Han tror at de som jobber med selvkjørende biler har rett og slett ikke overveid mulighetene for slike angrep, og at det ikke er for sent til å ta dette i betraktning.

Forskeren vil vise mer av funnene sine på den europeiske Black Hat-konferansen i november.

Les også: Hackere kan ta kontroll over biler

Med stadig flere høyteknologiske løsninger i bilene blir det også en stadig voksende utfordring å holde dem sikre. Tidligere i sommer ble det mye oppstyr rundt sikkerhetseksperter som beviste at det går an å hacke seg inn i underholdningssystemet som brukes i en rekke Chrysler-modeller. Dette førte til omfattende tilbakekalling av Jeep-modeller og andre merker som produseres av selskapet, og senest i dag ble ytterligere 8000 biler tilbakekalt. De to ekspertene som oppdaget sikkerhetshullet fikk interessant nok nylig jobber hos Uber, som også jobber med selvkjørende løsninger for tiden.

Les mer om:
Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.