Hovedbudskapet til Google-sjef Sundar Pichai var klart og tydelig. (Bilde: Google)

Google I/O

Googles nye budskap er kunstig intelligens først og overalt

Skal gjøre teknologiene mye mer tilgjengelig for utviklere.

Den årlige utviklerkonferansen til Google, Google I/O åpnet i går med en hovedtale hvor hovedbudskapet fra Google-sjef Sundar Pichai var at vi nå er inne i et skifte fra en periode hvor «mobile first» har vært det sentrale, og over til «AI first» (Artificial Intelligence – kunstig intelligens). Det er på dette området at det vil skapes helt nye muligheter i årene som kommer. 

Google har de siste årene tatt i bruk kunstig intelligens for å forbedre en del av selskapets produkter, men nå revurderer selskapet alle produktene for å se på hvilke områder kunstig intelligens kan gjøre dem bedre. 

Google Lens

Frontfigur for mye av dette vil være Google Assistant, som i Norge stort sett bare er tilgjengelig gjennom meldingsappen Google Allo, og kun på engelsk. Støtte for flere språk skal komme i løpet av året, men ikke norsk.

Mer spennende er nok derfor Google Lens, et nytt initiativ som handler om «computer vision», datamaskiners evne til å se og gjenkjenne objekter.

Google Sens er teknologi som skal integreres i flere av Googles eksisterende og kommende produkter. Den handler om å forstå hva systemet egentlig ser, for eksempel gjennom et mobilkamera.
Google Sens er teknologi som skal integreres i flere av Googles eksisterende og kommende produkter. Den handler om å forstå hva systemet egentlig ser, for eksempel gjennom et mobilkamera. Bilde: Google


Med Lens-støtte i Assistant vil den digitale assistenten gjenkjenne det brukeren ser på (via mobilkameraet eller bilder på skjermen) og kunne utføre oppgaver basert på dette – for eksempel fortelle hva slags blomst man ser, fortelle om åpningstidene eller menyen til restauranten brukeren ser logoen til, eller å lese innloggingsdataene til et WiFi-nettverk fra et klistremerke og så koble enheten til dette nettverket uten annet enn en siste godkjennelse fra brukeren. Se bildet over.

Leste du denne? «Intelligent» assistent prøvde å bestille dukkehus etter å ha overhørt samtale på tv-en

Første bruksområde

Det første stedet Google Lens vil bli tilgjengelig for brukerne, er i Google Photos. Her vil teknologien brukes til å gjenkjenne objekter. Ikke generelle objekter som hus, bil og maleri. Programvaren skal for eksempel kunne fortelle brukeren hvilken bygning eller hvilket maleri som er avbildet. Dette skal komme senere i år.

Et annet område der Google Lens vil være involvert, er i videreutviklingen av Project Tango, Google AR-teknologi (Augmented Reality) som nå skal kombineres med Google Maps for å skape det Google kaller for VPS – Visual Positioning Service, en tjeneste som utnytter visuelle detaljer i nærheten, spesielt innendørs, for å hjelpe brukeren med å finne fram – for eksempel til en gitt vare i en butikkhylle. Systemet skal ha centimeternøyaktighet. 

Neste generasjon av Project Tango skal tilby et visuelt posisjoneringssystem, primært for innendørsbruk.
Neste generasjon av Project Tango skal tilby et visuelt posisjoneringssystem, primært for innendørsbruk. Bilde: Google

Kombinert med tale skal dette også kunne være til stor hjelp for blinde. 

Les også: Google splitter Android i to

Nye spesialprosessorer

For å drive alt dette har Google utviklet en ny generasjon av selskapet Tensor Processing Units (TPU), prosesseringsenheter spesielt beregnet for å trene og kjøre maskinlæringsmodeller på en effektiv måte. I den nye generasjonen har det blant annet blitt fjernet en del flaskehalser. Dette skal ha bidratt til å øke den generelle ytelsen.

Google Cloud TPU-enhet.
Google Cloud TPU-enhet. Bilde: Google

Som eksempel forteller Google at et system med åtte slike TPU-er i løpet av en ettermiddag kan trenes med samme nøyaktighet som det et system med 32 av de beste GPU-ene på markedet bruker en hel dag på. 

Hver TPU har en flyttallsytelse på 180 teraflops. De vil typisk settes samme i det Google kaller for «TPU pods», som består av 64 TPU-er og kan levere en flyttallsytelse på opptil 11,5 petaflops.

Google skal tilby tilgang til TPU-er som en del av selskapets Cloud Platform.
Google skal tilby tilgang til TPU-er som en del av selskapets Cloud Platform. Bilde: Google

Nytt er det også at Google skal tilby tilgang slike TPU-er som en del av Google Cloud Platform, i første omgang som en alfatjeneste

Google: «Skynet» er mange tiår unna

Maskinlæring i mobilen

Google skal også komme med det som har fått navnet TensorFlow Lite. TensorFlow er Googles åpen kildekodebaserte programvarebibliotek for maskinlæring. Lite-versjonen er ment å kjøres direkte på Android-enheter. Dette skal komme som et tillegg til Android O-utgaven senere i år og skal gi enhetene lokal maskinlæringskapasitet, noe som skal gjøre dem mindre avhengige av nettskyen. 

Googles Dave Burke introduserte i går kveld TensorFlow Lite.
Googles Dave Burke introduserte i går kveld TensorFlow Lite. Bilde: Google

Noe av den nye funksjonaliteten i Android O skal fra starten av benytte slike lokale maskinlæringsegenskaper. Dette gjelder blant annet den nye og smartere funksjonen for å markere og kopiere tekst.

Men med TensorFlow Lite skal også app-utviklere kunne tilby funksjonalitet basert på maskinlæring og teknikker som LSTM (Long short-term memory). Dette skal kombineres med en nytt Android-rammeverk for maskinvareakselerasjon av nevrale beregninger. 

Det skal i Android tilbys et nytt Neural Network API som skal gi TensorFlow Lite tilgang til brikkespesifikke akseleratorer. Ifølge Android-teknologisjef Dave Burke regner Google med at det etter hvert vil komme digitale signalprosessorer spesielt designet for trening og inferens av nevrale nettverk.

Kommentarer (2)

Kommentarer (2)
Til toppen