Project Tango-nettbrett under modellering av en stor bygning. Les om det sveitsiske forskningsarbeidet nedenfor. (Bilde: ETH Zurich/Thomas Schöps)

Project Tango

Googles Project Tango handler om langt mer enn smartmobiler

Like aktuelt i droner og roboter.

Googles Project Tango handler om å gjøre mobile enheter mer oppmerksomme på omgivelsene rundt dem. Selskapet mener at det å gi mobile enheter en større forståelse av bevegelser, dybde og fysiske objekter i nærheten, vil åpne for helt nye bruksområder. Project Tango innebærer derfor å utstyre enheter med en rekke spesielle kameraer og sensorer som kan brukes til skape en 3D-modell av omgivelsene.

Til nå har teknologien bare vært tilgjengelig i flere ulike testenheter for utviklere, men i forrige uke ble det kjent at Lenovo skal levere den første Project Tango-baserte smartmobilen. Den skal lanseres globalt til sommeren og koste under 500 dollar i USA.

Flere formfaktorer

Men smartmobiler og nettbrett er antagelig bare begynnelsen. Under Google-konferansen Ubiquity Developer Summit denne uken fortalte Eitan Marder-Eppstein, en teamleder hos Google som er knyttet til Project Tango, at det helt klart er interesse – både hos Google og andre – at teknologien utvides til helt andre formfaktorer.

Ifølge Marder-Eppstein inkluderer dette blant annet roboter og droner.

– Ja, alle som trenger en lettvekts lokaliseringsløsning på enheten sin. Men vi konsentrerer oss om smartmobilområdet først, for å drive ned prisen på sensorene, og for å gjøre teknologien mer allestedsnærværende, sa Marder-Eppstein under foredraget.

Konseptmodeller av Lenovos kommende Project Tango-smartmobil.
Konseptmodeller av Lenovos kommende Project Tango-smartmobil. Bilde: Lenovo

Utendørs?

Han understreker likevel av bruk av Project Tango-teknologien utendørs kan være et problem, fordi dybdesensorene er basert på oppfattelsen av infrarødt (IR) lys og fordi solen er en så kraftig IR-kilde at den vil forstyrre.

Dette har dog ikke hindret forskere ved ETH Zürich i å bruke Project Tango for å lage et system for sanntids 3D-rekonstruksjon av store utendørsscener. I stedet for å bruke IR-sensoren, sammenligner de bildene som tas med vidvinkelkameraet og skaper 3D-modellen ved å finne igjen korresponderende piksler i bilder tatt fra ulike vinkler, kombinert med informasjon om kameraets posisjon og innsynsvinkel.

Mer informasjon om forskningsprosjektet er tilgjengelig her. Programvaren forskerne har utviklet, er gjort tilgjengelig for Google.

– Vi håper at Google vil gjøre teknologien vår tilgjengelig for sluttbrukere og inkludere den som standard i den neste utgaven av Tango-nettbrettet, sier Torsten Sattler, en postdoktor som har deltatt i prosjektet, i en pressemelding.

Videoen nedenfor viser hvordan forskerne har brukt teknologien til blant annet å modellere store bygninger.

Trenger apper

Google og Lenovo ønsker nå å hjelpe utviklere og selskapet i gang med å lage apper til den kommende smartmobilen. Derfor har de nå lansert et eget App Incubator Program hvor aktører med lidenskap og ideer for denne teknologien kan bli tilbudt finansiering og support.

For selv om Google allerede har lagd noen demo-apper som viser mulighetene den nye teknologien gir, så er dette trolig ikke nok til etablere stor etterspørsel.

Project Tango-katt
Den virtuelle katten på bildet kan ved hjelp av Project Tango-teknologien forholde seg til fysiske objekter i omgivelsene. Her har den hoppet opp på podiet på et bord under foredraget til Marder-Eppstein. Publikummet i salen sees i bakgrunnen. Bilde: Googe/YouTube-video
 

Noe av målet, ifølge Marder-Eppstein, er at enheten skal kunne svare på spørsmål om de fysiske omgivelsene rundt oss – for eksempel hvor mye maling man trenger for å dekke veggen man står og ser på, om sofaen man har lyst på vil passe inn, eller hvordan man kommer seg fra stedet man befinner seg i butikken og fram til stedet hvor butikken har vaskemiddelet man har behov for.

Project Tango-teknologien bygger på Android. App-utviklere tilbys programmeringsgrensesnitt for C og Java, samt integrasjon med spillmotoren Unity og etter hvert også Unreal. All prosessering skjer på selve enheten.

Tre kjerneteknologier

Den ene er bevegelsessporing, slik at enheten med centimeter-nøyaktighet kan vite hvor den befinner seg i omgivelsene.

Den andre er gjenkjenning av steder hvor enheten har vært tidligere. Dette gjøres ved at enheten lagrer visuelle kjennemerker når det er i bruk. Teknologien kan skille mellom hva som er statiske og hva som er dynamiske/bevegelige objekter i omgivelsene.

Den tredje er dybdeoppfattelsen, noe som blant annet kan brukes til å måle avstander med noen få prosents feilmargin. Med dette kan man raskt måle overflaten til et område eller for eksempel få svar på hva som er tykkelsen på en vegg.

Hele foredraget til Marder-Eppstein kan sees i videoen nedenfor.

 

Til toppen