Artisten im Bereich der visuellen Effekte werden regelmäßig mit der Aussicht konfrontiert, neue Werkzeuge erlernen zu müssen. Dies erfordert natürlich eine gewisse Investition in Zeit und Geld. Aber es kann sich auch lohnen, wenn den Künstlern neue Fertigkeiten und Wege zur Erlangung von VFX-Bildern zur Verfügung stehen.
Bei diesem Beitrag handelt es sich um eine deutsche Übersetzung eines Fachbeitrags von VFX Voice. Zum englischen Original gelangen Sie über den folgenden Link.
VFX Voice identifizierte 4 VFX-Tools, die jetzt für Künstler zum Ausprobieren zur Verfügung stehen und hat mit Fachleuten darüber gesprochen, wie die verschiedenen Softwareteile derzeit in der Produktion eingesetzt werden.
Mill´s Reise zu Bifrost.
Vor einigen Jahren erwarb Autodesk das Unternehmen Exotic Matter, das hinter der Fluidsimulationssoftware Naiad stand. Der Gründer von Exotic Matter, Marcus Nordenstam, der heute Senior Product Manager bei Autodesk ist, hat an der Implementierung des Nachfolgers von Naiad – Bifrost – in Maya gearbeitet und Mitte 2009 wurde es als neue visuelle Plug-in-Programmierumgebung angekündigt.
Bifrost zielt darauf ab, einen prozeduralen Rahmen für die Erstellung von Inhalten in Maya zu schaffen, der es den Benutzern ermöglicht, fortgeschrittene FX-Simulationen durchzuführen. Einer dieser Benutzer ist FX-Supervisor Todd Akita von The Mill. Eine Reihe von Werbespots von The Mill hat Bifrost für Simulationsarbeiten verwendet und The Mill ist Teil der Erprobung der Grenzen des Werkzeugs geworden.
„Vor etwa zwei Jahren“, so Akita, „arrangierte Marcus ein Team, zu dem auch Kosta Stamatelos und Duncan Brinsmead gehörten, für einen PlayStation Skyrim-Werbespot bei The Mill, der Werkzeuge und Arbeitsabläufe für Schnee entwirft. Ihre Arbeit beinhaltete die Kopplung des Partikelsystems an den Aero-Volumenlöser, so dass die Drachenflügel in der Werbung große Luftmengen verdrängen und Tonnen von Schneepartikeln herumschieben konnten und die Daten aus dem System herauszuholen, damit wir sie rendern konnten. Als das Autodesk-Team zum ersten Mal auftauchte, verfügte Bifrost weder über offene VDB-Ein- oder Ausgabefähigkeiten – noch hatten wir die Möglichkeit, Partikel zu lesen oder zu schreiben, aber als sie das System verließen, waren wir in der Lage, beides zu tun.“
Akita erwähnt auch, dass der Bifrost bei der Handhabung von Elementen wie Feder- und Kleidungssimulationen und Laubinstanzung für andere Werbespots nützlich geworden ist. Er sieht ihn als ein Werkzeug, das sich bequem in die Pipeline von The Mill einfügen wird.
„Die Nähe von Bifrost zu Animations- und Beleuchtungsdisziplinen macht ihn für bestimmte Aufgaben wie Mesh Deformers oder Instancing zu einer leichten Wahl“, bemerkt Akita. „Auf der FX-Seite hatten wir Erfolg damit, Bifrost sowohl innerhalb von Maya als auch von Houdini aus zu betreiben. Ich glaube, auf der Houdini-Seite besteht Interesse am Aero-Löser, weil er einfach ein anderes Gefühl vermittelt als das, was einige von uns gewohnt sind, aus Pyro in Houdini herauszuholen. Sie könnten also Houdini-Setups sowohl mit Bifrost- als auch mit DOPnet-Zweigen sehen, was gut ist – die Wahl ist gut!“
„Ich denke, wir wollen letztlich nicht, dass die Software zu unspezifisch wird, sondern wir wollen die beste aller Optionen in Reichweite haben. Wir haben auch vielversprechende Ergebnisse mit dem physikalisch basierten Combustion Solver von Bifrost erzielt – ich freue mich darauf, das noch ein bisschen weiter zu erforschen.“
Milk bekommt bei Nexture winzige Details.
Normalerweise ist es eine zeitintensive Aufgabe, detaillierte CG-Texturen auf Kreaturen und Charaktere zu painten. Ein neues Werkzeug, das helfen soll, hochdetaillierte Texture Maps in einem schnelleren Zeitrahmen zu implementieren, ist Cronobo VFX’s Nexture. Es beinhaltet künstliche neuronale Meshes, kombiniert mit einem proprietären Bildsynthese-Algorithmus, um Details aus einer Referenzmusterbank auf CG-Texturmap zu übertragen. Milk VFX verwendete Nexture für einige ihrer Kreaturen in der Fernsehserie Good Omens.
„Für Good Omens schufen wir eine Kreatur, Satan, die als Weitschuss gegen den Rauch gesehen werden sollte“, erklärt Milk VFX-Modellierungsleiter Sam Lucas. „Das Storyboard für Satans Sequenz änderte sich jedoch erst ziemlich spät in der Post-Phase, da einige neue Aufnahmen Nahaufnahmen unserer Assets erforderten. Daher waren einige Änderungen notwendig und es erwies sich als unerlässlich, weitere Details für die Nahaufnahme hinzuzufügen.“
Lucas merkt an, dass dies mit einem Sculpting-Tool wie ZBrush möglich gewesen wäre, um Micro-Displacements zu malen. „Der Prozess ist lang, das Modell muss unterteilt werden und wir hätten keinen so detaillierten Skineffekt erzielen können. Nexture war dafür besser geeignet und wir testeten es zu diesem Zeitpunkt, also war Satan der perfekte Kandidat.“
Bei diesem Verfahren werden Masken gemalt, um verschiedene Skin-Muster auf die Skulptur zu treiben (d.h. normalerweise gäbe es unterschiedliche Hautporenmuster auf der Nase und den Wangen). „Wenn das erledigt ist“, erklärt Lucas, „müssen Sie nur noch die Masken, das Displacement und die Referenz des gewünschten Musters für jede Maske angeben und Nexture wird seine Wirkung entfalten. Das gesamte Micro Displacement, die Nexture erzeugt, folgt der Displacement Map, die wir der Software geben. Deshalb müssen wir zuerst die Skulptur erstellen. In lookdev können sie die neuen Maps als zusätzliche Displacement oder als Bump verwenden“.
Milk VFX plant, Nexture weiterhin für die Arbeit mit CG-Charakteren zu verwenden, wobei das Studio eine Rolle dabei spielt, Feedback für zusätzliche Funktionen zu geben, nachdem es mit einer frühen Version des Tools Aufnahmen mit visuellen Effekten erstellt hat. „Kürzlich konnten wir das UDIM-System nicht verwenden, was den Prozess zeitweise recht schmerzhaft machte“, gibt Lucas zu, „aber das hat sich jetzt geändert und auch die Benutzeroberfläche ist ganz anders. Die Renderingzeit hat sich verbessert, so dass der Entwickler im Grunde schon alles geändert hat, was ich mir nach Good Omens erhofft hatte.“
Weta Digital.
Elemente wie CG-Rauch, Feuer und gasförmige Flüssigkeiten sind eher die Domäne von 3D-Simulationswerkzeugen. Aber Eddy von VortechsFX Ltd., ein Plug-in für Nuke, hat die Herangehensweise einiger VFX-Studios an diese Art von Arbeit verändert, indem es volumetrische Simulationen in der Phase der Compositing-Software ermöglicht. Eddy verwendet den Grafikprozessor, um schnelle Durchlaufzeiten für Simulationselemente zu ermöglichen, die in der Compositing-Umgebung verbleiben.
Das ist etwas, das Weta Digital für Filme und Fernsehsendungen, einschließlich Avengers, in großem Umfang genutzt hat: Infinity War, Mortal Engines, Avengers: Endgame, Alita: Battle Angel und Staffel 8 von Game of Thrones. Insbesondere bei Mortal Engines verließ sich Weta Digital auf Eddy, um Rauchfahnen für die Schornsteine der mobilen Riesenstadt London einzubauen und Elemente wie Staub, Atmosphäre, Feuer und Explosionen zu erzeugen. Normalerweise wurden diese Dinge vom FX-Team des Studios als Simulationen generiert und anschließend in die Aufnahmen eingefügt. Mit Eddy können die Simulationen direkt in Nuke stattfinden.
„In der Vergangenheit hatten wir in Nuke 2D-artige Rauchelemente auf ‚Maps‘ gemacht, wenn es nicht viel Parallaxe gab“, bemerkt Simone Riginelli, Compositing and Effects Domain Director bei Weta Digital. „Inzwischen kommen die Volumetrics normalerweise von den Effekt- und Beleuchtungsteams. Wenn Sie eine sehr komplizierte Kamerabewegung haben und die gesamte Parallaxe durch das Volumen haben wollen, brauchten Sie wirklich eine richtige 3D-Volumendarstellung. Diese Art von Szenario war mit 2D-Maps fast unmöglich.“
„Aber jetzt mit Eddy“, fährt Riginelli fort, „können wir es leicht umsetzen, es funktioniert reibungslos und es ist superschnell. Wir haben mit Nuke und mit der GPU-Beschleunigung eine Menge Geschwindigkeit erreicht. Eddy ist auch ein multidisziplinäres Werkzeug, weil es eine Volumensimulation, eine vollständige, physikalisch korrekte Wiedergabe und ein Composition-Tool ist.“
Weta Digital ist nach wie vor auf andere Werkzeuge angewiesen, um besonders komplexe FX-Simulationen durchführen zu können. Eddy hat jedoch sowohl bei der Entwicklung des Aussehens als auch bei der Umsetzung vieler Hundert Endaufnahmen, die Volumenmessungen erfordern, geholfen. „Zum Beispiel“, so Riginelli, „gibt es die Medusa-Engine in Mortal Engines und es gab eine Menge Trockeneis auf dem Set und wir haben Eddy benutzt, um das zu erweitern. Ich habe einige Tools entwickelt, die wie Gizmos aussahen, im Grunde eine Reihe von Node Points, die die Parameter an den Compositor weitergaben. Der Compositor musste nur eine Simulation platzieren und laufen lassen und wir erhielten ein vollständiges Volumen innerhalb von Nuke, ohne dass wir die gesamte Effekt-Pipeline durchlaufen mussten. Das ist eine große Zeitersparnis.“
Houdini.
Das Generieren von Crowds in SideFX Houdini ist nicht unbedingt ein neues Feature der Software, aber in letzter Zeit haben viele Benutzer das mit dem Engineering Emmy Award ausgezeichnete Crowds-Toolset mit anderen Houdini-Tools kombiniert, um immer interessantere Arbeiten zu generieren. Der Regisseur Saad Moosajee und der technische Direktor James Bartolozzi haben in Zusammenarbeit mit Art Camp Houdini Crowds für ein Musikvideo von Thom Yorke verwendet, in dem Horden von Silhouetten von Figuren zu sehen sind.
Eine ihrer ersten Herausforderungen war die Zusammenarbeit zwischen Cinema 4D (das für die Look-Entwicklung und Animation verwendet wurde) und Houdini (wo die Crowd-Simulation stattfand). „Houdini ist in der Lage, verschiedene Optimierungen vorzunehmen, die das Betrachten und Rendern von Menschenmengen schnell und einfach machen“, bemerkt Bartolozzi. „Leider mussten wir die vollgepackten Massenagenten in Geometrie umwandeln, um sie in Alembic-Caches zu baken.“
Eine Aufnahme im Musikvideo mit einer großen Anzahl von Crowd-Agenten würde zu einer konvertierten Geometrie von 22 Millionen Polygonen führen. „Das Laden einer fast 20 Gigabyte großen Datei in Cinema 4D würde mehrere Minuten dauern, wenn sie überhaupt fertig ist“, bemerkt Bartolozzi. „Und das für ein einzelnes Bild eines fünfminütigen Videos“, bemerkt Bartolozzi. „Es versteht sich von selbst, dass etwas getan werden musste. Ich implementierte zwei entscheidende Komponenten, um die Größe um mehr als das Zehnfache zu reduzieren: ein dynamisches Detaillierungssystem für die Geometrie der Agenten in der Menge und kamerabasiertes Culling. Die erste beinhaltete die Verwendung einer Polyreduktion, um unsere Crowd-Agent-Modelle verfahrenstechnisch zu vereinfachen. Ich erstellte neue Agentenschichten mit diesen vereinfachten Meshes und schaltete die Schichten nach der Simulation dynamisch um, je nach der Nähe des Agenten zur Kamera. Dann implementierte ich sowohl die Kegelstumpf- als auch die Sichtbarkeits-Auslese, um für die Kamera unsichtbare Agenten zu entfernen.“
Die wichtige Entwicklung bei diesem Ansatz bestand darin, dass er vollständig prozedural war und es ermöglichte, die Kameraanimation in Houdini mit dem vollen Publikum durchzuführen. „Da auch das Downsampling der Detailgeometrie prozedural war, konnten wir es pro Aufnahme oder pro Agent-Asset wählen“, erläutert Bartolozzi. „Es funktionierte auch mit Agent-Layern, die Requisiten einschlossen und auch die Requisitengeometrie heruntergerechnet werden konnte“, erläutert Bartolozzi.
„Für Beleuchtungszwecke mussten wir verhindern, dass es durch das Culling der Agenten zu einem Popping kommen konnte. Das Beschneiden des Kegelstumpfes umfasst einen Polsterungsparameter und das versteckte Beschneiden verwendete eine geschwindigkeitsbasierte Zeitabtastung, um festzustellen, ob ein Wirkstoff innerhalb einer Rahmentoleranz sichtbar werden würde.“
Zusätzlich zur Verwendung von Houdini Crowds wurden bei den letzten Aufnahmen des Musikvideos auch Houdini Pyro für Feuereffekte und eine einzigartige Pipeline verwendet, die das Einstellen von Videos in einen Slack-Kanal zur Überprüfung durch andere Teammitglieder beinhaltete.
Vielen Dank für Ihren Besuch.