Hvordan Weta Digital opprettet den steampunk verden av Dødelige Motorer

0
291

Å bringe et prosjekt som Christian Elver’ film Jordiske Motorer til liv var alltid kommer til å kreve en betydelig mengde av visual-effekter arbeid. Basert på Philip Reeve ‘ s roman-serien, historien foregår i en fremtid dystopi hvor byene har blitt massiv, roving maskiner som lusket rundt overflaten av Jorden, med London, den største av dem alle, buldre opp mindre byer og dicing dem i stykker for ressurser. Det var rett og slett ingen måte å forstå verden uten omfattende bruk av digital animasjon. Leder kostnader: Weta Digital, er den gruppen som er kjent for sitt banebrytende arbeid på prosjekter som Peter Jacksons Ringenes Herre-filmene og den Apenes Planet-serien.

Men samtidig bygge opp filmen er stor, mobil monstrosities var den mest åpenbare utfordringen, noen av de mer nyansert arbeid var enda mer spennende. Jeg satte meg ned med visual effects supervisor Ken McGaugh (Godzilla, Vendelrot og Byen Tusen Planeter) og animasjon overordnede Dennis Yoo (Avatar, The Jungle Book) for å snakke om ved hjelp av datasimuleringer for å skape på skjermen ødeleggelse, hvorfor motion capture er ikke alltid den beste ideen, og hva Weta håper å gjøre neste.

Dette intervjuet har blitt redigert og kondensert for klarhet.

Genererte ødeleggelse

I den verden av Dødelige Motorer, er det indre av mobile byen London er et stort prosessanlegg som rips mindre byer i stykker. I en av filmens tidlige chase sekvenser, en ung revolusjonær som heter Hester (Hera Hilmar) er fulgt opp gjennom en av disse mindre byer som det er ned rundt henne. I det siste, scener som dette vil bli håndtert av digitalt bygge skår av ødelagte bygninger, deretter forsiktig montere dem sammen igjen slik at de kunne eksplodere på skjermen. I stedet, Weta valgt å gjøre sekvensen prosedyremessig: lage digitale modeller av hele bygninger, og la en datamaskin simulering avgjøre hvordan de ville splinter fra hverandre.

Kan du gange meg gjennom den gamle prosessen med håndtering av denne type rekkefølge, og hvordan du håndterte det på en annen måte?

Ken McGaugh: Sikker. Så for eksempel, hvis du hadde en seksjon som var tre, du ville ha å pre-bygge alle knust, splintret stykker. Du vil ha en modeler gå i og modell det hele på en måte som passer sammen igjen. Og så når du kjøre simuleringen, du har det bare å animere disse brikkene å åpne opp og flyr rundt. Likeledes for å rive og bøying av metall. Du må ikke bare ha cutting modellert, hvor det tårer, men du er nødt til å ha alle former av den bøyde modellert, så vel. Og da har du til å animere dem i posisjon.

Dennis Yoo: Så for 10 år siden, ser du noe å skjære gjennom noe annet i en scene, og du går “Er du kommer til å holde dette? Fordi vi kommer til å begynne å bygge den.” Så de var låst ned, du kunne faktisk ikke endre den etter, at fordi det var så tidkrevende å skape effekten. Du sitter fast.

KM: Og nå, med dette, har vi lagt mye arbeid i forkant. Det var mye arbeid involvert i å bygge disse tingene, slik at de kunne bli ødelagt. Modellene har laget vanntette, slik at de er nødt til å ha tykkelse. Mange ganger, kan du lage en modell av en tykk murvegg, det er bare falske. Det er svært tynn. Men vi måtte sørge for at det hadde riktig tykkelse, slik at det digitale modeller var ikke krysser hverandre for mye. Og så går du og du tilordne disse bygningsdeler materialegenskaper. Du sier, “Dette er tre.” Så når du treffer den med en sag i datamaskinen, må du komme til å bryte og splintering og alt prosedyremessig.

Hva gjør denne tilnærmingen får du som den andre tilnærmingen gjør ikke det? Er det raskere eller enklere i det lange løp?

KM: Vel, på grunn av den mengden arbeid du trenger å gjøre, er å sette opp noe for å bli utsatt for vilkårlig kuttet opp er ganske intens. Det betyr også at du må være mye mer fysisk baserte. Du kan ikke bare lure ting for øye. Det er litt mer skremmende for en oppgave, men det er en vi visste ville lønne seg.

“Jeg føler at det er mye av jobben min. Tilrettelegging [filmskapere] å være så kreative som mulig.”

Ett eksempel på ett av skuddene der Hester er skyve ned at taket. Det er en stor bred åpen plass i en bygning, og det er som, “Vel, vi sannsynligvis bør treffe den med noe.” Vi snakket til aktivitetsledere og sa: “Hvordan om du bare er å trykke på det med en så?” Effekten veileder var, “Hva skal skje?” Og det er som, “Vel, la oss se!” Og de treffer den med en så løp de simulering; det så stor.

Det er alltid behov for opprydding. Du vil alltid ha for å gå i, og du får disse biter spinning virkelig rask, eller flyr av for mye, så det er definitivt mye arbeid som går inn å rense den opp, men at det ville skje uansett hva. Så det er en trade-off, og dette var en sak hvor vi bare visste at fordelen vil være det.

DY: Du er slik som kreativ frihet for filmskapere å endre ting, så vel.

KM: jeg føler at det er mye av jobben min. Tilrettelegging for de som er mye mer kreative, eller i mer kreative stillinger enn meg, å være så kreative som mulig. Det filmskapere eller animasjon team.

Er flyttet til genererte animasjon den generelle retningen av den visuelle effekter bransjen for øvrig?

KM: jeg tror alle beveger seg i den retningen i økende grad. Det er en stor investering opp foran, og du må vite utbetalingen kommer til å bli det. Hvis du ender opp med å ha ett skudd som har en ødeleggelse, det er ikke verdt det. Men vi visste at hele denne sekvensen var kommer til å være på tvers av flere skudd, trengte en mye koreografi over disse bildene med live-action-plater, samt digi-dobbeltrom, bevegelige kameraer… Vi var sikre på at gevinsten ville være der, så vi investert i på forhånd arbeid.

Når du skal ignorere motion capture

Weta er kjent for sin motion-capture-tegn, som Gollum i Ringenes Herre-filmene og Cæsar fra Apenes Planet. I Mortal Motorer, en CG karakter heter Shrike virker som en sannsynlig kandidat for den samme tilnærmingen til karakter generasjon. Portrettert av Stephen Lang (Avatar), Shrike er en cyborg assassin med lysende grønne øyne. Opprinnelig var han kommer til å ha en statisk, ikke-uttrykksfulle ansikt. Men disse planene endret, noe som fører til Shrike å ha noen usedvanlig nyansert, subtile ansiktsuttrykk. For å skape ham, filmskaperne valgte å ignorere moderne mo-cap-teknikker i favør av å styrke filmens animatører til å lage sin distinkte bevegelse av hånden ved hjelp av tradisjonell keyframe animasjon.

Når jeg tenker på Weta å skape en CG karakter, jeg umiddelbart tenker motion-capture”. Hvorfor gjorde du bestemmer deg for å ikke gå i den retningen med Shrike?

DY: Det var et stort spørsmålstegn om vi skulle motion-capture eller ikke. Jeg ønsket å presse det inn motion-capture, i utgangspunktet. Keyframing faktisk har mye av intensivt arbeid, og det er artist-drevet, så vel. Jeg visste ikke engang vet hva slags mannskap ble jeg kommer til å ha, hvis jeg skulle ha sterke keyframers eller ikke. Så det var litt av en bekymring.

Jeg har fem gutter som gjør det utrolig keyframe bevegelse hvor de kan få det til å se ekte. Jeg har en annen 15 gutta som er mid-nivå, det tar en liten stund å gjøre denne ting ser virkelig, jeg må trekke dem gjennom. Så når du har motion-capture, du har så flott utgangspunkt å jobbe fra, så alle de gutta ha en enklere tid bare å trykke på en mye raskere. Hvis vi ikke har noen motion-capture, må du starte fra scratch. Så all den tid jeg trenger å bruke for å gjøre ting ser virkelig tar mye lenger.

“At bevegelsen var ment å være ting som du ikke kunne egentlig gjøre med motion capture.”

Det er derfor jeg ønsket å faktisk gå motion-capture rute, helt til jeg begynte å snakke mer med Christian, hvor jeg begynte å innse, “Å, det er bare kommer til å bli det samme beløpet av tid.” Vi kommer til å ta dette stoffet, noe som er en stor, front-loaded ting der prisen er ganske høy, hvor du ansette skuespillere. Det er bokstavelig talt som et lite sett film. Du ansette en ANNONSE, en hel mannskap. Det koster ganske mye. Og så begynte jeg å innse, “Vi er nødt til å keyframe på toppen av motion capture, fordi Kristne ikke ønsker den måten Shrike beveger seg å se ut som motion capture.” Slik at kostnadene gikk ut av vinduet. Det er den viktigste grunnen til at vi gikk keyframe. Det er fordi at bevegelsen var ment å være ting du ikke kunne egentlig gjøre med motion capture.

Så hvordan gjør Stephen Lang ytelse spille i karakter? Er han bare å gjøre stemmen og ansikts ytelse?

DY: Hans ansikts ytelse var litt begrenset, fordi han trodde Shrike skulle være —

KM: Shrike ikke har et ansikt når vi var skyting. Lang prøvde å late som han ikke har noen ansikts-uttrykk selv.

DY: Rett. Men det er alle sin stemme, alt er ham det. Så det er definitivt noe vi trenger å se på som referanse.

Bilde: Universal Pictures

Øyne og himmel

Det er en scene nær slutten av filmen hvor Shrike har en sterkt følelsesladd øyeblikk med Hester, og det er laget nesten utelukkende med øynene og måten hans vart beveger seg. Det er utrolig livaktig. Hvordan gjorde som kommer sammen, siden du ikke har det motion-capture-base å falle tilbake på?

DY: Som er det største problemet. Du er bokstavelig talt prøver å gå, “Okay, jeg ønsker å gjøre dette til ytelse troverdig.” Hvis du filmer deg selv, og du er konstituert ganske dårlig, så du har en hard tid. Det er flott når du har en fungerende referanse som Andy Serkis. Vi bruker Andy Serkis’ opptrer referanse i Apenes Planet filmer, og vi prøver å få Keiseren til å treffe de samme øyeblikk som han gjør. Det er ikke et en-til-en med ansikts data vi får. Vi er faktisk prøver å få Keiseren til å føle på samme måte som Andy på de bestemte rammer, eller i de spesielle øyeblikkene.

Så med Shrike, noen av hans prestasjoner var ikke filmet, eller Stephen prøvde å være for stoisk, og han trengte til å faktisk handle mer. Da er vi faktisk nødt til å ta det opp selv. Jeg vil gå med en ansikts-animatør, og vi vil bare snakke det gjennom, og prøv å finne ut hvordan disse følelsesmessige beats ville hit. Og det er faktisk se seg i speilet og prøver å få din ytelse.

“Vi plukke opp en slik finesse i det menneskelige ansikt, som noe som er altfor overdrevet du umiddelbart tror er falske.”

En ting som er bra er at vi er ikke skuespillere, hvor du må utføre, og det må være på film. Vi kan faktisk holde utkikk — “Greit, når jeg gjør dette, det føles mer ekte.” Vi bare spiller den frem og tilbake og prøver å finne dem ytelse beats. Som mennesker, vi plukke opp en slik finesse i det menneskelige ansikt som noe som er altfor overdrevet, du umiddelbart tror er falske. Så er det bare å finne ut at små slå der det begynner å kjennes ekte ut.

Var det noen spesielle øyeblikk du hadde til å dra tilbake på?

DY: Det er vanligvis overacting, fordi overacting er den enkleste å handle kan du gjøre. Hva skuespiller kan ikke overact, ikke sant? [Ler] Det er de som har disse troverdig forestillinger; de er som gutta som får betalt for alle pengene. Det er en ting jeg trengte å tone ned med animatører, fordi animatører elsker å overact.

Hvordan gjorde utformingen av Shrike øynene kommer om? Når du først ser dem, de har svært lyse, nesten karikerte. Men i hans siste øyeblikk, han har mye mer nyanser.

DY: Christian virkelig ønsket å presse at med disse sprengningsarbeid øynene i begynnelsen. Dette var stalker-modus, og det er mer intens, mer intens han føler. Og som faktisk opprettet denne awesome tvetydighet med ham. Du faktisk ikke forholder seg til ham i det hele tatt. Jeg kommer til å referere til filmen Top Gun — alle Russerne i Top Gun hadde disse hjelmer, slik at du ikke bryr seg om de døde. Bare slags løsne at følelser. Men når du begynner å se på dem som personer, det er som “Oh vent, det er en person bak det.”

Så i de flashbacks, når du først se Shrike uten at øynene blir sprengt, du begynner å koble til ham. I scenene hvor han er døende, som blinker begynner å forsvinne, så du begynner å koble med ham igjen. Det var målbevisst gjort. Christian ville nyte disse øyeblikkene. Selv blinker; han visste ikke engang vil ha ham til å blinke, til det rette øyeblikket. Så vi prøvde å få den riktige scenen, høyre skudd, da han er ment å blinke og emote og koble Shrike med publikum.

Det er alltid teknologiske gjennombrudd på filmer som dette, fordi du prøver å gjøre så mange ting. Var det noe du ønsket å gjøre, men kunne ikke trekke av?

KM: For meg, ja. Vi gjorde alle de ytre ting i den Store jaktterreng for jakten scene. Vi har en ny rendering teknologi som gjør det mulig for oss å gjøre en fysisk simulering av atmosfæren. Så hele himmelen, kan vi ikke fortelle datamaskinen, “Vi har fått denne blå himmelen.” Vi har faktisk sier, “Vi har denne luftkvalitet, og vi har solen her ute,” og det skaper hele himmelen, alle aerial perspektiv, alle gud-stråler. Men det fungerer ikke med skyer. Vi begynte å jobbe på en måte som potensielt kan generere skyer, så vi får riktig cloud gud-stråler og skygger på bakken, og det ville ha gitt oss en mye mer fleksibilitet i lys.

Vi vanligvis jobber med disse high dynamic range bilder av himmelen som en sol “bakt” inn i dem, eller i det minste effektene av solen. Så snart du begynner å bevege din CG solen bort fra at du begynner å få en sammenheng mellom de ser på himmelen og belysning av din CG terreng. Jeg ønsket å sette et par av dem sammen ved å ha en fullt prosessuelle himmelen, inkludert skyer, og vi har bare ikke helt får det.

Dødelig Motorer er nå spille på kino.