UTVIKLING

Googles nye budskap er kunstig intelligens først og overalt

Skal gjøre teknologiene mye mer tilgjengelig for utviklere.

Hovedbudskapet til Google-sjef Sundar Pichai var klart og tydelig.
Hovedbudskapet til Google-sjef Sundar Pichai var klart og tydelig. Bilde: Google
Harald BrombachHarald BrombachNyhetsleder
18. mai 2017 - 06:45

Den årlige utviklerkonferansen til Google, Google I/O åpnet i går med en hovedtale hvor hovedbudskapet fra Google-sjef Sundar Pichai var at vi nå er inne i et skifte fra en periode hvor «mobile first» har vært det sentrale, og over til «AI first» (Artificial Intelligence – kunstig intelligens). Det er på dette området at det vil skapes helt nye muligheter i årene som kommer. 

Google har de siste årene tatt i bruk kunstig intelligens for å forbedre en del av selskapets produkter, men nå revurderer selskapet alle produktene for å se på hvilke områder kunstig intelligens kan gjøre dem bedre. 

Google Lens

Frontfigur for mye av dette vil være Google Assistant, som i Norge stort sett bare er tilgjengelig gjennom meldingsappen Google Allo, og kun på engelsk. Støtte for flere språk skal komme i løpet av året, men ikke norsk.

Mer spennende er nok derfor Google Lens, et nytt initiativ som handler om «computer vision», datamaskiners evne til å se og gjenkjenne objekter.

Google Lens er teknologi som skal integreres i flere av Googles eksisterende og kommende produkter. Den handler om å forstå hva systemet egentlig ser, for eksempel gjennom et mobilkamera. <i>Bilde: Google</i>
Google Lens er teknologi som skal integreres i flere av Googles eksisterende og kommende produkter. Den handler om å forstå hva systemet egentlig ser, for eksempel gjennom et mobilkamera. Bilde: Google


Med Lens-støtte i Assistant vil den digitale assistenten gjenkjenne det brukeren ser på (via mobilkameraet eller bilder på skjermen) og kunne utføre oppgaver basert på dette – for eksempel fortelle hva slags blomst man ser, fortelle om åpningstidene eller menyen til restauranten brukeren ser logoen til, eller å lese innloggingsdataene til et WiFi-nettverk fra et klistremerke og så koble enheten til dette nettverket uten annet enn en siste godkjennelse fra brukeren. Se bildet over.

Leste du denne? «Intelligent» assistent prøvde å bestille dukkehus etter å ha overhørt samtale på tv-en

Første bruksområde

Det første stedet Google Lens vil bli tilgjengelig for brukerne, er i Google Photos. Her vil teknologien brukes til å gjenkjenne objekter. Ikke generelle objekter som hus, bil og maleri. Programvaren skal for eksempel kunne fortelle brukeren hvilken bygning eller hvilket maleri som er avbildet. Dette skal komme senere i år.

Et annet område der Google Lens vil være involvert, er i videreutviklingen av Project Tango, Google AR-teknologi (Augmented Reality) som nå skal kombineres med Google Maps for å skape det Google kaller for VPS – Visual Positioning Service, en tjeneste som utnytter visuelle detaljer i nærheten, spesielt innendørs, for å hjelpe brukeren med å finne fram – for eksempel til en gitt vare i en butikkhylle. Systemet skal ha centimeternøyaktighet. 

Neste generasjon av Project Tango skal tilby et visuelt posisjoneringssystem, primært for innendørsbruk. <i>Bilde: Google</i>
Neste generasjon av Project Tango skal tilby et visuelt posisjoneringssystem, primært for innendørsbruk. Bilde: Google

Kombinert med tale skal dette også kunne være til stor hjelp for blinde. 

Les også: Google splitter Android i to

Nye spesialprosessorer

For å drive alt dette har Google utviklet en ny generasjon av selskapet Tensor Processing Units (TPU), prosesseringsenheter spesielt beregnet for å trene og kjøre maskinlæringsmodeller på en effektiv måte. I den nye generasjonen har det blant annet blitt fjernet en del flaskehalser. Dette skal ha bidratt til å øke den generelle ytelsen.

Google Cloud TPU-enhet. <i>Bilde: Google</i>
Google Cloud TPU-enhet. Bilde: Google

Som eksempel forteller Google at et system med åtte slike TPU-er i løpet av en ettermiddag kan trenes med samme nøyaktighet som det et system med 32 av de beste GPU-ene på markedet bruker en hel dag på. 

Hver TPU har en flyttallsytelse på 180 teraflops. De vil typisk settes samme i det Google kaller for «TPU pods», som består av 64 TPU-er og kan levere en flyttallsytelse på opptil 11,5 petaflops.

Google skal tilby tilgang til TPU-er som en del av selskapets Cloud Platform. <i>Bilde: Google</i>
Google skal tilby tilgang til TPU-er som en del av selskapets Cloud Platform. Bilde: Google

Nytt er det også at Google skal tilby tilgang slike TPU-er som en del av Google Cloud Platform, i første omgang som en alfatjeneste

Google: «Skynet» er mange tiår unna

Maskinlæring i mobilen

Google skal også komme med det som har fått navnet TensorFlow Lite. TensorFlow er Googles åpen kildekodebaserte programvarebibliotek for maskinlæring. Lite-versjonen er ment å kjøres direkte på Android-enheter. Dette skal komme som et tillegg til Android O-utgaven senere i år og skal gi enhetene lokal maskinlæringskapasitet, noe som skal gjøre dem mindre avhengige av nettskyen. 

Googles Dave Burke introduserte i går kveld TensorFlow Lite. <i>Bilde: Google</i>
Googles Dave Burke introduserte i går kveld TensorFlow Lite. Bilde: Google

Noe av den nye funksjonaliteten i Android O skal fra starten av benytte slike lokale maskinlæringsegenskaper. Dette gjelder blant annet den nye og smartere funksjonen for å markere og kopiere tekst.

Men med TensorFlow Lite skal også app-utviklere kunne tilby funksjonalitet basert på maskinlæring og teknikker som LSTM (Long short-term memory). Dette skal kombineres med en nytt Android-rammeverk for maskinvareakselerasjon av nevrale beregninger. 

Det skal i Android tilbys et nytt Neural Network API som skal gi TensorFlow Lite tilgang til brikkespesifikke akseleratorer. Ifølge Android-teknologisjef Dave Burke regner Google med at det etter hvert vil komme digitale signalprosessorer spesielt designet for trening og inferens av nevrale nettverk.

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.