FORBRUKERTEKNOLOGI

Slik skal dataanimerte ansikter bli mer naturtro

Dataanimerte personer i dataspill skal bli mye mer livaktige med langt mer detaljert mimikk.

Emily, den ekte og den dataanimerte.
Emily, den ekte og den dataanimerte.
Harald BrombachHarald BrombachNyhetsleder
29. aug. 2008 - 14:58

Noe av det som gjør det enklest å skille mellom virkelige ansikter og dataanimerte ansikter på film, detaljrikdommen i mimikken. Når mennesker skifter ansiktsuttrykk, skjer det mengder av små og store endringer i ansiktet. Blant annet har blant annet bevegelsene til ansiktets mange små rynker og timingen av øyebevegelser mye å si for hvorvidt ansikter skal se naturlige og livaktige ut.

Det amerikanske selskapet Image Metrics , som har en rekke kjente spill- og filmselskaper på kundelisten, presenterte under Siggraph-messen tidligere i august «Emily», en dataanimert etterligning av ansiktet til skuespilleren Emily O'Brien. Denne etterligningen ble laget ved hjelp av et ansiktsskanningssystem utviklet University of Southern California Institute for Creative Technologies (ICT) og innfanging, sporing og animering gjort av Image Metrics.

- Målet vårt var i skape et helt overbevisende, animert, datagenerert ansikt, forklarer David Barton, produsent i Image Metrics, i en pressemelding.

- Gitt kaliberet på det kreative arbeidet og talentet i bransjen vår, var en utfordrende målsetning, men vi var sikre på at vi kunne grei det ved å forene vår teknologi med systemet for ansiktsskanning utviklet av Paul Debvec og hans team ved ICT, sier Barton, som mener detaljnivået i ICTs ansiktsskanner er enestående.

Emily, den ekte og den dataanimerte.
Emily, den ekte og den dataanimerte.

Før animasjonen av O'Brien ble laget, ble ansiktsskanneren brukt til å fange 35 av O'Briens ansiktsuttrykk. Dette ble gjort ved at skuespilleren ble plassert inne i en kule med LED-lys som belyste ansiktet hennes med et sett med polariserte, sfæriske belysningsmønstre, mens et par med høyoppløste, digitale kameraer tok omtrent 15 bilder i løpet av tre sekunder.

Disse mønstrene gjør det mulig for glansen i huden å fotograferes uavhengig av hovedtonen til huden, slik at presise farger og karakteristikker kan beregnes ved hjelp av hundrevis av målinger per kvadratmillimeter.

Dette skal kunne skje uten at skuespilleren må utstyres med markører eller spesiell sminke, eller plasseres i et spesielt tilpassede rom eller scene.

Paul Debvec foran kulen med LED-lys
Paul Debvec foran kulen med LED-lys

De resulterende, dataanimerte modellene tilbyr ifølge Image Metrics et uovertruffent detaljnivå med naturlige ansiktsuttrykk. Dette skal gjelde helt ned til porene i huden og til de fine rynkene, hvor perfekt innrettet shading-informasjon skal gjøre det mulig å gjengi fotorealistiske ansikter med enhver belysning og synsvinkel ved hjelp av standard renderingpakker.

- Dette forskningsprosjektet betyr at vi for første gang ser realismen til våre ansiktsmodeller virkelig kommer til live på skjermen, med løsninger som vil være uproblematiske å ta i bruk i forbindelse med framtidige prosjekter, sier Paul Debvec, som er assisterende direktør for grafikkforskning ved ICT.

Image Metrics har utgitt en video på denne siden som beskriver hvordan «Emily» ble skapt. Sluttresultatet kan du se her.

Del
Kommentarer:
Du kan kommentere under fullt navn eller med kallenavn. Bruk BankID for automatisk oppretting av brukerkonto.