Categories: 3D Animationen

Wie Disney die Unreal Engine nutzt, um Echtzeit-Sets in „The Mandalorian“ zu rendern.

The Mandalorian, ein Exklusivprodukt von Disney+, ist die erste Live-Action-Fernsehserie von Star Wars in der Geschichte. Zum ersten Mal werden in einer Disney-Serie auch Assets verwendet, die mit der Unreal Engine erstellt worden sind.

Viele Fans bemerkten Epic Games bereits sehr früh, da diese in den Credits von „The Mandalorian“ aufgeführt waren, kurz nach dem Debüt der Show am 12. November. Die offizielle Ankündigung von Disney bezüglich der Zusammenarbeit erfolgte bereits im Jahr 2018. Da die Show bei diesem Statement nicht namentlich genannt wurde, haben viele Personen nichts davon mitbekommen.

Epic Games, Entwickler von Unreal Engine und Fortnight, arbeiten mit Lucasfilm zusammen, um die Leistungsfähigkeit von Epics Unreal Engine Echtzeit-Rendering erstmals in die Live-Action Produktion zu bringen. Dies wird einer Serie für Disneys Direct-to-Consumer-Streaming-Service erfolgen, der Ende des nächsten Jahres startet“, so in einem Briefing.

Der VFX-Blog „before & afters“ stellte fest, dass Jon Favreau, Chefautor und Erfinder der Show, bei der Siggraph 2019 darüber diskutierte, wie die Game-Engine zur Unterstützung des Previsualisierungsprozesses eingesetzt wurde.

For privacy reasons YouTube needs your permission to be loaded. For more details, please see our Datenschutzerklärung.

Wir haben das V-Cam-System benutzt, um einen Film im wesentlichen in VR zu drehen. Zudem sendeten wir die Dailies mit diesem System an die Redaktion.“ sagte Favreau der Crowd bei der Siggraph.

Unreal wurde jedoch nicht nur zur Erstellung von Dailies verwendet. Das Mandalorianer-Set hatte LED-Videowände, die als „kameraintensive Verbundwerkstoffe“ verwendet wurden. Das SFX-Team projizierte vorgerenderte Inhalte wie Umgebungen auf die LED-Wände, die als dynamische Green Screens der Art dienten.

Wir haben einen enormen Prozentsatz von Aufnahmen, die tatsächlich in der Kamera funktionierten, nur mit den Echtzeit-Renderern in der Engine, von denen ich nicht dachte, dass Epic dazu in der Lage sein würde. Für bestimmte Arten von Aufnahmen, je nach Brennweite und Aufnahme mit anamorphem Objektiv, gibt es viele Male, wo es nicht nur interaktiv war. Wir konnten in der Kamera die Beleuchtung, das interaktive Licht, das Layout, den Hintergrund und den Horizont sehen. Wir hätten die Dinge später nicht zusammenflicken müssen.

Dies half nicht nur beim Filmen von Szenen, sondern verschaffte den Akteuren auch Einblicke darüber, was um sie herum war – zum Beispiel der Horizont. Sie lieferte auch interaktives Licht, das Favreau als „riesigen Durchbruch“ bezeichnet.

Selbst wenn wir sie aufwerten oder ersetzen mussten (Szenen, die vor den LED-Wänden gedreht wurden), hatten wir den Basispunkt und das gesamte interaktive Licht. Zudem würden es die Leute zum Narren halten“, fügte er hinzu. „Viele Personen vor Ort fragten mich, ob ich das gesamte Set hier bauen werde? Ich verneinte diese Frage und wies darauf hin, dass es sich lediglich um den Schreibtisch handele. Auch wenn Sie nur beiläufig da standen, schien es so, als hätten Sie sich das Live-Action-Set etwas genauer angesehen.

„The Mandalorian“ ist nicht der erste Film, der eine Game-Engine in der Produktion einsetzt. Favreau nutzte Unity für frühere Arbeiten z.B. wie in „König der Löwen“ oder im „Dschungelbuch“. Zudem haben die Regisseure Steven Spielberg und Dennis Villeneuve Unity für VFX genutzt.

Vielen Dank für Ihren Besuch.

3DMaster