BEDRIFTSTEKNOLOGI

Slik kan Googles 3D-mobil brukes

Norsk forsker ser store muligheter.

Tango-prosjektet til Googles Advanced Technology and Projects-gruppe skal gi mobile enheter menneskelignende forståelse av rom og bevegelse.
Tango-prosjektet til Googles Advanced Technology and Projects-gruppe skal gi mobile enheter menneskelignende forståelse av rom og bevegelse. Bilde: Google ATAP YouTube-video
Harald BrombachHarald BrombachNyhetsleder
24. feb. 2014 - 14:36

Google avduket i forrige uke Project Tango, et prosjekt som er godt i gang med å utvikle teknologi som skal gjøre mobile enheter mer oppmerksomme på omgivelsene rundt enheten. I praksis dreier det som om dybdesyn og mulighetene dette gir innen en rekke områder, blant annet navigasjon og utvidet virkelighet.

Gjennomprosjektet samarbeider Google med en rekke forskningsinstitusjoner og selskaper. Blant disse er Matterport, som har utviklet et system som ifølge selskapet raskt og konsekvent skaper nøyaktige og visuelt realistiske modeller av innvendige rom. Selskapets nettsted har noen spennende eksempler på dette, inkludert videoen nedenfor.

Sammen med selskapet har teknologinettstedet TechCrunch laget en video som demonstrerer hvordan Project Tango-baserte enheter kan brukes til å lage en 3D-modell av et rom med mye inventar. Videoen har ikke lyd.

Til TechCrunch sier Bill Brown, administrerende direktør i Matterport, at selskapet har bygget egne kameraer for nå den prisen og kvaliteten som selskapet har behov for, men at Project Tango-enheten er mer enn brukbar.

– Vi får den samme maskekvalitet som vi får fra vært eget kamera. Det ser ikke like bra ut, men det skyldes bare at det er en prototype, sier Brown til TechCruch.

En som synes denne utviklingen er spennende, er Gunnar Liestøl, professor ved Institutt for medier og kommunikasjon, Universitetet i Oslo. Liestøl leder SitSim-prosjektet og dets forskning innen mobilbasert, utvidet virkelighet.

Professor Gunnar Liestøl ved Universitetet i Oslo forsker på blant annet mobil-basert utvidet virkelighet. <i>Bilde: Universitetet i Oslo</i>
Professor Gunnar Liestøl ved Universitetet i Oslo forsker på blant annet mobil-basert utvidet virkelighet. Bilde: Universitetet i Oslo

– Ja, dette er spennende, og ikke overraskende at Google ser muligheter her. Sanntids 3D-skanning av objekter og omgivelser har stort potensial for navigering og kommunikasjon med omgivelsene, skriver Liestøl i en e-post til digi.no.

– Tidligere har lasermetoden dominert. Det er tidkrevende, men gir høy oppløsning. Autodesk lanserte allerede i fjor 123D Catch som benytter fotogrammetri, det vil si samme metode som har blitt brukt for å produsere kotekart basert på flyfoto og stereoskopi: forskjellene på bilder av et objekt tatt fra ulike perspektiv omregnes til informasjon om dybde. I Autodesks løsning for iPad må en ta bilder av objektet fra flest mulig posisjoner og deretter sende dem til Autodesk for prosessering før en mottar 3D-modellen med fototeksturer, forklarer Liestøl.

– Googles løsning går lenger. Med to kameraer kan alt prosesseres på telefonen i sanntid, sikkert i ekstrem lav oppløsning – foreløpig. Men likevel, en ser konturene av innovasjoner som vil komme: skanning av bevegelse og endring i tid, ikke bare statiske objekter, det vil si sanntids, dynamisk 3D-film.

– Hva vi kan bruke det til, vil tiden vise. Men det blir i hvert fall noe helt annet enn det vi forbinder med 3D-film i dag. Uansett, dette er interessant og ikke så veldig langt frem i tid siden GPU-ytelsen [grafikkprosessorer, red. anm.] på smarttelefoner øker imponerende raskt. Mer umiddelbart utvider det også smarttelefonen som sensorisk medium og dertil hørende nye applikasjoner og tjenester, avslutter Liestøl.

Videoen nedenfor er den hittil siste fra SitSim-prosjektet.

    Les også:

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.