Automatisering av animasjon

Dagens digitale filmkarakterer er mer realistiske, interaktive og kjærlige enn noen gang før. Men å lage dem er fortsatt dyrt og arbeidskrevende. De fleste er enten håndtegnede ramme for ramme med digital penn og blekk (og datamaskiner som fyller ut noen hull), eller de er basert på bevegelsesfangstteknikker, som registrerer og digitalt etterligner bevegelsene til levende skuespillere for å lage karakterer på skjermen. Men ettersom filmer og videospill pakker flere og flere digitale skapninger på skjermen, tyr animatører til fysikk og nye kunstig intelligensmetoder for raskere og mer effektive måter å bringe historiene sine til live.




Fysikkligninger veileder NaturalMotions karakterer. (Bilde med tillatelse fra NaturalMotion)

Immobots tar kontroll

Denne historien var en del av utgaven av desember 2002



  • Se resten av saken
  • Abonnere

NaturalMotion, en spinoff fra University of Oxford i Storbritannia, har utviklet programvare for kunstig intelligens som gir digitale karakterer kraften til å animere seg selv. Tilnærmingen: en programmerer spesifiserer en karakters fysiske form og egenskaper og legger til ligninger for å styre bevegelsen til kroppsdelene. Når animatører bruker en simulert kraft som gravitasjon eller et dytt bakfra, reagerer karakteren realistisk uten videre programmering. Det du ser på skjermen er ikke en datagrafikk av karakteren som stumt etterligner registrerte bevegelser, sier administrerende direktør i NaturalMotion, Torsten Reil. Den er den faktiske karakteren. Selskapets mål er å generere interaktive animasjoner i sanntid, slik at animatører kan bruke teknologien i videospill så vel som filmer, sier Reil. Ved Computer Graphics Laboratory ved Stanford University har forskerne Katherine Pullen og Christoph Bregler kombinert automatiseringsteknikker med den tradisjonelle motion-capture-tilnærmingen. Ved å bruke systemet deres kan animatører manuelt tegne de mest aktive delene av en karakter - bena, for eksempel under en gåsekvens - og bruke arkivdata for bevegelsesfangst for å automatisk fullføre kroppen og gi den ekstra tekstur. Innen fem år vil alle avanserte spill bruke metoder som disse, sier Casey Muratori, hovedutvikler hos RAD Game Tools i Kirkland, WA. Å få karakterer til å ikke bare bevege seg, men også føles overbevisende krever et annet nivå av teknologi-programvare som genererer troverdige ansiktsuttrykk og kroppsspråk, sier Ken Perlin, direktør for Media Research Laboratory ved New York University. Perlins gruppe utvikler verktøy som vil gjøre det enkelt for animatører å legge til lag med subtile bevegelser, for eksempel hevet øyenbryn eller hengende skuldre. Slike effekter må tegnes for hånd i dag. Selv om det er lenger unna kommersialisering, er Perlins programvare et skritt nærmere animasjonens større mål - å blende våre hjerter og øyne.



gjemme seg