Auf der SIGGRAPH im vergangenen Juli feierte Pixar 25 Jahre RenderMan. Heute hat das Unternehmen neue bahnbrechende Technologien, ein neues Engagement für Forschung und Entwicklung und massive Preisänderungen angekündigt, einschließlich des freien Zugangs zu RenderMan für den nicht-kommerziellen Gebrauch. Ed Catmull, Präsident von Walt Disney und den Pixar Animation Studios sowie Dana Batali, VP von RenderMan Products, Chris Ford, Business Dirctor von RenderMan und das Pixar RenderMan-Team haben tiefgreifende Veränderungen in der Art und Weise vorgenommen, wie RenderMan entwickelt und verkauft wird. Dies ist eindeutig der Beginn einer neuen Ära für die nächsten 25 Jahre.
Das neue Produkt ist eine Kombination aus RenderMan Pro Server und RenderMan Studio. Es wird nun ein Produkt geben, das von Künstlern oder auf dem Bauernhof verwendet wird und zwischen beiden beweglich ist. Der neue RenderMan verfügt über einen leistungsstarken bidirektionalen Wegweiser und eine ernsthafte neue Technologie von Disney Animation, die einen neuen, einheitlichen Rendering-Ansatz des House of Mouse unterstreicht – dem erstaunlichen Kraftpaket, das Disney heute ist.
Für diejenigen, die Versionsnummern mögen, basiert die neue Version auf einer v19.0-Baseline und ist eine Konsolidierung der Komponenten des vorherigen RenderMan Pro Servers und von RenderMan Studio (der Benutzeroberfläche des Künstlers einschließlich RenderMan für Maya) zu einem einzigen RenderMan-Produkt, das sowohl in Rapid-Dot- als auch in Major-Releases kontinuierlich aktualisiert wird, was die traditionelle Versionierung flüssiger macht als bisher. RenderMan ist der offensichtliche Name für die einheitliche Lösung und das V19-Tag wird so gut wie nicht verwendet.
Hintergrund.
Die meisten Menschen denken, dass der REYES-Rendering-Ansatz im Mittelpunkt von RenderMan steht, wenn sie an Bilder denken, die von Pixars RenderMan produziert werden, obwohl dies historisch wahr ist, ist RenderMan seit einiger Zeit ein Hybrid-Renderer.
REYES (Renders Everything You Ever Saw) ist die Idee von Rob Cook, Loren Carpenter und Ed Catmull und es ist nicht wirklich „RenderMan“. Es ist ein Teil des RenderMan Compliant Renderers, den Pixar verwendet und verkauft hat, aber es datiert tatsächlich vor, was wir als „RenderMan“ bezeichnen könnten. Es war im Mai 1988, als das ursprüngliche RenderMan-Interface 3.0 vor über 25 Jahren gestartet wurde, aber es war tatsächlich mehr als 25 Jahre für den REYES-Renderer, der 1984 veröffentlicht wurde und sich von PRMan 1989 unterschied. Die ursprüngliche RenderMan-Spezifikation war nicht für ein Produkt, sie definiert nicht einmal, dass Sie mit dem REYES Scanline-Ansatz oder der heutigen bidirektionalen Wegverfolgung rendern müssen. Bei der RenderMan Interface Spezifikation geht es darum, was Sie rendern, nicht wie Sie rendern.
Es war 1987 in SIGGRAPH Anaheim, als das Originalpaper „The Reyes Image Rendering Architecture“ von Cook, Carpenter und Catmull geliefert wurde. Dies geschah zu einer Zeit, als ein vollständig strahlenverfolgtes System einfach nicht realisierbar war. REYES bot eine Möglichkeit, komplexe Szenen zu rendern, aber es ist nur eine Komponente dessen, was RenderMan zu dem Kraftpaket macht, das es ist und das seit zweieinhalb Jahrzehnten. Die Flexibilität von RenderMan besteht darin, dass es Änderungen und Modularität ermöglicht, weshalb es sich so gut an die Jahre der verschiedenen SIGGRAPH-Innovationen, neuen Ideen und Pixar-F&E angepasst hat.
Heute bringt Pixar das Neueste aus dieser langen Reihe von Innovationen auf den Markt, eine neue Rendering-Architektur, bekannt als RIS, die Plug-In-Integratoren unterstützt und mit einem neuen Industriestandard-Pfad Tracer sowie einem hochmodernen bidirektionalen Pfad Tracer ausgestattet ist.
RIS kann den Platz von REYES als Motor einnehmen, der das Integral im Zentrum der Rendering-Gleichung löst. Es verdrängt REYES nicht, aber für eine Klasse von Rendering-Bildern leistet es bessere Ergebnisse und produziert eine sauberere, bessere Darstellung. Pixar gibt sowohl den Quellcode für viele ihrer Plugins heraus als auch den Quellcode für den unidirektionalen Path Tracing Integrator. Pixar ermutigt TDs und andere Varianten oder völlig neue Integratoren zu entwickeln.
Wie wichtig ist es Pixar, dass andere die Software nutzen und erweitern? Zusätzlich zur Bereitstellung des Quellcodes bietet das Unternehmen den vollständigen kompromisslosen Download und die kostenlose Nutzung von RenderMan für die nicht-kommerzielle Nutzung an und senkt den Paketpreis für die kommerzielle Nutzung um 75%. Der REYES-Integrator war die Basistechnologie für das Rendering bei Pixar, dem Studio, das neu definierte, was Animation ist und was es sein könnte.
Das RenderMan-Team bei Pixar ist eine eigenständige Gruppe, die Pixar Animation betreut und inzwischen weltweit eine Vielzahl von Unternehmen umfasst. Im Laufe der Zeit wurde Pixar Teil von Disney, ebenso wie andere große Unternehmen wie Lucasfilm. Natürlich kamen Pixar Animation und das RenderMan-Team als Teil von Disney auch unter den gleichen Fachbereich wie Disney Animation und die vielleicht weniger bekannten, aber erstklassigen Disney-Forschungsgruppen, die nicht nur Disney Animation, sondern auch die Themenparks und das riesige Disney-Entertainment-Imperium betreuten. Heute umfasst Disney Immobilien von Iron Man bis ESPN, von den Muppets bis zu den Star Tours Ride oder Buzz Lightyear, von Frozen bis zu den neuen Star Wars Filmen, die jetzt in Produktion gehen.
Eine einfache HD-Animation einer Kamera, die sich mit Spiegeln durch einen Raum bewegt und rekursive Reflexionen um das 20-fache erzeugt. Die Lichtblubber sind emissive Geolampen und die Deckenleuchten sind optimierte Geoflächenleuchten mit drei verschiedenen Farbtemperaturen.
Forschung & Entwicklung.
So viele der Disney-Unternehmen erfordern den Einsatz von fortschrittlichem Rendering, was für ein Unternehmen der Größe von Disney nicht verwunderlich ist. Es gibt mehrere fortgeschrittene F&E-Teams, die die Fortschritte beim Rendern untersuchen. Während Pixars RenderMan-Team der offensichtlichste Kandidat für diese Arbeit zu sein scheint, war Disney Animation hinter den Fortschritten in Bereichen wie Ptex und neuen BRDFs, die Frozen optisch so beeindruckend machten. Disney Research in Zürich hat in vielen Bereichen Pionierarbeit geleistet, darunter das Face-Rendering, insbesondere das Medusa-Rigg, das ILM bei Avengers und heute Maleficent einsetzte. Natürlich betreibt ILM selbst harte Kernforschung und stand hinter Schlüsseltechnologien wir OpenEXR. Aber es gibt auch ein wichtiges Disney-Forschungszentrum an der Carnegie Mellon University – insgesamt gibt es fünf Forschungszentren für Renderings: Pixar, ILM, Disney Research (Zürich), Disney Animation und das Carnegie Mellon Lab.
Dies stellt den bedeutensten Satz von Rendering-Forschungen dar, die in den Bereichen visuelle Effekte und Animation durchgeführt werden. In einer Zeit, in der die Filmindustrie mit einem Braindrain für den Technologiesektor konfrontriert ist, insbesondere für das Silicon Valley und seine stratosphärischen Gehälter und Aktienoptionen. Die kombinierte Forschung und Entwicklung von Disney im Bereich der Bildgebung ist nicht nur entscheidend, sondern wächst zum Glück auch.
Die fünf wichtigsten Forschungseinrichtungen, die heute von Ed Catmull im Rahmen der Vision für die nächsten 25 Jahre der Rendering-Entwicklung angekündigt wurden, werden nun zu einem koordinierten Forschungsnetzwerk. „Das SetUp hier“, sagt Cutmull, „ist, dass wir alle miteinander teilen können, aber wir werden nur einen Kanal dafür haben, dass es nach draußen geht und zwar durch die RenderMan-Gruppe, denn die Idee ist, dass wir, wenn wir großartige Ideen bekommen, eine Basis haben, in die wir sie einbringen und dann in die Industrie bringen können, aber wir sind nicht so naiv zu denken, dass eine Gruppe alle Lösungen finden wird.“
Dies geschieht nicht, um die Verschwendung zu reduzieren, denn es wird nicht erwartet, dass überschneiderte Arbeiten reduziert werden, da ein solcher Wettbewerb offen begrüßt wird. Im Gegensatz zu früher werden die Früchte dieser massiven Forschungsanstrengungen jedoch durch das Pixar RenderMan-Team fließen, um die Ideen der Gewinner zu nutzen.
Diese neue Organisationsstruktur wird nicht genutzt, um Größenvorteile zu erzielen, wie es so oft der Fall ist. Vielmehr wurde das RenderMan-Entwicklungsteam von Pixar in jüngster Zeit deutlich erweitert, obwohl durch bereichsübergreifende Transfers innerhalb der breiteren Disney Studio- Organisation als auch aus der Industrie. Philips Leprince, ehemals Leiter der Abteilung Beleuchtung und Beschattung bei Double Negative, hat sich beispielsweise dem Entwicklungsteam von RenderMan im Herzen von Soho in London angeschlossen. Leprince bringt eine große Menge an Erfahrung in der angewandten Produktion in VFX mit, was dazu beiträgt, die auf Animationen basierende Agenda auszugleichen, die von der Disney/Pixar Animation Division erwartet werden könnte. Ebenso ist Cliff Ramshaw kürzlich von ILM in das RenderMan-Entwicklungsteam gewechselt. Praktikanten von Disney Research arbeiten in diesem Jahr auch an RenderMan. Darüber hinaus, so Chris Ford von Pixar, wird es auch „Mitarbeiter geben, die regelmäßig von anderen Tool-Entwicklungsgruppen innerhalb von Pixar eingesetzt werden. Wir werden nicht alles offen legen, woran sie arbeiten, aber die Entwicklungsarbeit von RenderMan ist in den letzten Monaten um mindestens 25% gestiegen“.
Es gibt kein einziges Rendering „Research Tsar“, das alle Forschungsagenden der Zentren leiten wird – ein solcher Schritt „birgt das Risiko einer zu engen Fokussierung“, erklärt Ford. Die verschiedenen F&E-Gruppen innerhalb der breiteren Disney Studio Organisation getrennt zu halten, damit sie ihre eigenen Entscheidungen darüber treffen können, welche Ansätze sie verfolgen sollen, ermöglicht es ihnen, laut Ford, an gemeinsamen Problemen aus verschiedenen Blickwinkeln zu arbeiten. „Verwechseln Sie diesen Ansatz jedoch nicht mit Isolation“, sagt er. „Disney hat interne Kooperations- und Technologiegipfel, bei denen jede Gruppe ihre neuesten Arbeiten vorstellt, Peer-Review, Zusammenarbeit und Kritik einlädt. Wir haben also ein Gleichgewicht zwischen Zusammenarbeit und unabhängiger Entwicklung, das sehr gesund ist.“
RenderMan muss zwar auf dem neuesten Stand der Technik bleiben, um zu überleben, aber es ist vielleicht nicht sehr wichtig zu sagen, dass Ed Catmulls persönliche Unterstützung von RenderMan und allem, wofür es steht, der wichtigste Grund dafür ist, warum das Produkt eine so vielversprechende Zukunft hat. Pixars RenderMan-Verkäufe müssen für Disney kaum einen Rundungsfehler darstellen – wenn überhaupt -, aber sie stehen für technische Exzellenz, Zusammenarbeit und ein Engagement für die breitere Animations- und VFX-Industrie.
RenderMan und RIS.
Zusammen mit einer Vielzahl von Änderungen kündigte Pixar heute ihre neueste Version von RenderMan an, einschließlich einer neuen internen Option zum Rendern bzw. Lösen der Rendering-Gleichung mit der Bezeichnung „RIS“. Dieses System, das eine Reihe von „Integratoren“ innerhalb von RIS anbietet, stellt eine wichtige Ergänzung zu den Optionen für qualitativ hochwertige Bilder in RenderMan dar.
RIS ist ein neuer Renderer mit einer neuen, aufregenden Rendering-Architektur. Stellen Sie sich RIS als Rendering-Framework vor, um einen Intergrator, einige Materialien und Muster einzubinden und diese mit Geometrie, Kamera und Licht zu verbinden. RIS verspricht signifikante Möglichkeiten für bestimmte Klassen von Aufnahmen, die Benutzer zuvor mit konkurrierenden Renderern wie Arnold oder V-Ray in Betracht gezogen haben könnten. Noch unklar ist, wofür RIS eigentlich steht.
Was ist also ein bidirektionaler Path Tracer mit VCM (im Vergleich zu einem unidirektionalen Path Tracer)?
Das Problem mit Raytracing ist, dass es immer eine gewisse Grenze gibt, wie oft Strahlen abprallen können und dass sie genau oder ausreichend Lichter finden. Stellen Sie sich einen Raum mit einer Glühbirne vor, die in der Mitte hängt – das ist der einfachste Fall. Das Licht wird wahrscheinlich in der Rendergleichung „eingefangen“, da die Strahlen es wahrscheinlich finden werden. Aber was wäre, wenn diese Leuchte hinter einer Wandmontagehalterung stünde – klassisch stilvolle versteckte Glühbirnen, die Sie vielleicht in einer coolen modernen Wohnung finden. Wenn Sie in einen solchen Raum gehen, würden Sie das Aufwärtslicht nichts sehen, wenn die Lichter nicht eingeschaltet wären. In diesem Fall wird es auch für die unidirektionale Wegverfolgung schwierig sein, das Licht in die Rendering-Gleichung „einzufangen“.
Die Lösung besteht darin, Strahlen aus dem Licht und gleichzeitig aus der Kamera zu entzünden. Nach einer gewissen Anzahl von Bounces verbinden Sie einfach die beiden Strahlengruppen. Bei diesem Ansatz ist es viel wahrscheinlicher, dass Wände und andere Lichtquellen von den Lichtern beleuchtet werden und so den Raum erhellen. Es ist oft effizienter, wenn zufällige Strahlengänge, die an den Lichtern beginnen, aus den Bereichen der montierten Halterung und in den Raum entweichen, als wenn zufällige Strahlengänge im Raum ihren Weg in die Halterung finden. Indem er Wege von der Lichtquelle in den Raum entweichen lässt, hat der Renderer mehr Möglichkeiten, ungehinderte Wege zu finden, um sie mit den Kamerapfaden zu verbinden. (Vergessen Sie nicht, dass man bei einer Standard-Direktlichtlösung aus vergangenen Jahren einen Strahl von einem Punkt auf ein nahegelegtes Licht schießen würde, was in diesem Fall normalerweise fehlschlägt, weil die Halterung im Weg ist – das ist der ganze Punkt der verdeckten Beleuchtung.)
Alles oben genannte mag wie ein Sonderfall klingen, aber Licht, das durch eine Tür aus einem anderen Raum oder durch ein Schlüsselloch kommt – das sind alles Fälle, in denen alte Methoden in der neuen mutigen Welt der physikalisch basierten Beleuchtung nicht gut funktionieren. Natürlich würde das erste unidirektionale Pfad-Tracer-Beispiel vollständig funktionieren, wenn man die Ray-Bounces „für immer“ ausführen würde – aber wer hat dann beim Rendern Zeit für immer?
Das progressive VCM, das Pixar angekündigt hat, ist eine Ergänzung zur bidirektionalen Wegverfolgung. VCM steht für Vertex Connection and Merging und der Algorithmus bietet einige großartige Ergänzungen. Insbesondere bietet es eine wunderbare Schärfung, von der RenderMan-Nutzer wirklich profitieren werden.
Ein früher Test der Fähigkeit von RIS und PxrVCM, mit scharfer Beleuchtung umzugehen. Die erste Lichtquelle befindet sich über und hinter den Statuen und erzeugt scharfe Reflexionen an der Decke der Bos. Die linken und rechten Wände zeigen sekundäre Schatten aus indirektem Glanzlicht, die von der glänzenden Rückwand reflektiert werden. Hinweis: Modell aus dem Standford Model Repository.
Warum ist also RIS besser als Rendern?
Was leistet der neue RenderMan RIS besser als REYES? Bei der Beantwortung dieser Frage muss man sich darüber im Klaren sein, dass einer dieser Integratoren innerhalb des neuen RenderMan funktionieren wird, so dass es bei der Untersuchung der neuen Software wirklich um die wahrscheinlichste Geschwindigkeit und die wahrscheinlichen Wege geht, die man gehen könnte, als absolute Entscheidungen, die auf nur einem Integrator oder dem anderen basieren und die einige Möglichkeiten sind, tatsächlich zu arbeiten.
Wie bei den meisten Dingen gibt es ein Kontinuum, das sich über eine Reihe von Aufnahmen erstreckt, aber als Faustregel gilt: „Schönheit“, glänzende Autoaufnahmen werden für das neue RIS ideal sein, während komplexe haarige oder pelzige animierte Kreaturen für REYES besser geeingnet wären. Jetzt natürlich hat Pixar die Cars and Monsters Filme in RenderMan von alters her gerendert, aber unter dem neuen System könnte das Pixar Animation Team das neue RIS bevorzugen, wenn Disney/Pixar plötzlich in diesem Jahr beschloss, eine Wall-E-Raumschiff-Fortsetzung oder REYES zu machen, wenn Sie stattdessen eine Ratatouille-Fortsetzung machten. Letztendlich beeinflussen viele Dinge die Wahl der Renderer – praktische Pipeline-Entscheidung motiviert durch Renderfarm-Budgets, benötigte Speichergrößen etc., aber der neue Ansatz verändert sicherlich die Rahmenbedingungen zum Besseren.
Konkret ist RIS besser geeignet als Raytracing-Pfadverfolgungslösung für komplexe glänzende Projekte, bei denen es darum geht, es im Putz zu verankern. REYES ist jedoch flexibler und wäre daher besser für eine Multi-Pass-Pipeline, bei der das Aussehen im Compositing bestimmt wird. Eine natürliche Erweiterung davon ist die Annahme, dass ein weniger technisch orientiertes Team, das nicht willkürlich jeden Pixel kontrollieren will und sich mehr auf einen PBS-Ansatz konzentriert, sich für das neue RIS entscheidet und dadurch schnelleres Lockdev und besseres Feedback enthält.
Aber es ist ein Balanceakt. Berücksichtigen Sie beispielsweise Hautabschattungen und die Untergrundsteuerung (SSS). Es gibt Approximationslösungen und immer komplexere Raytracing-Lösungen für die Haut. Dana Batali ist der Meinung, dass RIS per Saldo den erfolgreichen Ansatz beweisen wird, „aber vor allem aufgrund des interaktiven Feedbacks und der Bedenken bezüglich der Übermodellierung (die RIS besser beherrscht). Das heißt, es gibt nichts rechnerisch Einzigartiges an SSS – es ist nur eine spezielle Integrationstechnik für direkte Beleuchtung, die durch hochdiffuse Materialien wandert.“ Batali fügt hinzu, dass fortgeschrittenere SSS-Techniken „Brute-Force Raytracing-Simulationen über ein einfaches Diffusionsmodell untersuchen. Generell ist das Raytraced Shading in RIS viel schneller als REYES + RSL, so dass man sich mehr Strahlen mit dem gleichen Budget leisten kann und vielleicht den Stand der Technik in der Haut in größere Höhen treibt.“
RenderMan hat in einer komplexen Pipeline immer gut gearbeitet und auf der SIGGRAPH im vergangenen Jahr zeigte Pixar ein unglaublich schnelles Mock-up einer GPU-basierten KATANA Lösung. Dieser GPU-Prototyp wurde als Technologiedemo und nicht als Produkt bei SIGGRAPH gezeigt. Auch heute noch wird innerhalb von Pixar an der Anwendung von GPUs für spezifische Problembereiche wie Volume Rendering gearbeitet, „und wir waren ziemlich offen“, sagt Chris Ford. „Jeder beliebige Integrator kann durch die Vorteile von Rechen-GPUs beschleunigt werden und es ist keine Überraschung, dass wir dies aktiv evaluieren. Es gibt jedoch keine GPU-Extension im neuesten RenderMan, da die Etablierung des RIS-Frameworks im Mittelpunkt dieses speziellen Releases steht.“
Auch ohne die neue GPU-Arbeit ist der neue RenderMan immer noch sehr stark auf den Einsatz in einer KATANA-Pipeline ausgerichtet. Das Pixar-Team untersucht derzeit Optimierungen, insbesondere bei der Ladezeit, da sich der neue Renderer mit KATANA im Beta-Studium befindet. Während die Beta des neuen Renderers sehr gut läuft und bereits sehr fortgeschritten ist, erfolgt die Veröffentlichung des Produkts nicht sofort. Im Moment ist geplant, dass es nur „im Zeitrahmen von SIGGRAPH 2014“ geschieht. Die Beta ist keine Option, aber Ford sagt dazu, dass „wir keine Total Open Beta etablieren, aber wir werden den Zugang auf Anfrage auch kommerziellen Studios zur Verfügung stellen“.
Bereits wichtige Kunden von ILM bis MPC haben die neue Beta-Version mit sehr positiven Reaktionen, wie beispielweise von MPC, intensiv getestet und evaluiert:
„Das bringt RenderMan wirklich die Zukunft des vollständig photorealistischen Raytracing. Wir haben Tests mit den Produktionsanlagen aus einem unserer neuesten Filme durchgeführt und waren von der Geschwindigkeit völlig begeistert und konnten diese Anlagen interaktiv vorab ansehen und rendern. Der RIS-basierte Integrator wird die Art und Weise, wie wir arbeiten, mit skalierbarem Rendering und schnelleren Ergebnissen verändern.“
Wie schnell ist es?
Wir haben Chris Ford gebeten, die Leistung von RIS in RenderMan zu kommentieren. „Für RIS im Vergleich zu REYES“, sagt er, „wir sehen in verschiedenen Situationen Leistungssteigerungen von 2x bis 10x schneller als REYES“.
Eine subtile, aber wichtige Überlegung, die mit unvoreingenommenem Rendering verbunden ist, ist, dass die Vorstellung, wann ein Bild genau gemacht wird, viel formbarer ist. Es ist möglich, etwas sehr schnell zu entwickeln, aber es ist nach den gängigen Produktionsstandards immer noch hochwertig – aber je länger es gemacht wird, desto sauberer ist es. Dies ist besonders wichtig, wenn der Renderer für interaktive Feedback-Arbeiten verwendet wird. „Das allgemeine Bild löst sich schnell auf“, erklärt Ford, „und bei der meisten Zeit geht es darum, das Rauschen auf einem akzeptablen Wert zu reduzieren, welches sich von Bild zu Bild ändern kann, da mehr oder weniger Rauschen unter verschiedenen Bedingungen akzeptabel ist. (z.B. schnell bewegte Objekte). Insofern ist ein Bild nie ganz fertig.
Dieser neue Ansatz kommt mit dem umfangreichen Quellcode, für Studios bedeutet dies einen Rahmen für die Entwicklung einer studio-spezifischen Raytracing-Plattform für ihre eigenen Künstler, mit der gesamten Kontrolle und Plugin-Architektur, um den Code überall dort hin zu bringen, wo sie es für ihre Projekte für sinnvoll halten, da RenderMan erweiterbar ist. Für Künstler und Tds ist das neue RIS nur bei Ray-Hits schattiert, es gibt keine Überschattung. Sie erhalten inkrementelles Rendering, das es ihnen ermöglicht, Renderings später aufzunehmen und genau das bedeutet, dass man mit RIS die Grenze zwischen Online- und Offline-Rendering verwischt.
Mit dem Wachstum des RAM und in Kombination mit RenderMans RIS-Ansatz zur Instanzierung kann die gesamte Szene oft im Speicher gehalten werden. Dies bedeutet, dass die Pfadverfolgung, nicht die verteilte Strahlverfolgung, zu einem inkrementellen Rendering-Ansatz wird, der interaktives Rendern ermöglicht, mit schnellerem Feedback auf die gesamte Beleuchtungslösung.
RIS trennt den Integrator von den materiellen Schnittstellen, eine Idee, die in „Physically Based Rendering“ von Matt Pharr und Greg Humphreys skizziert wurde, einem Buch, das in diesem Jahr zu ihrem Sci-Tech-Oscar führte.
In ihrem Buch im Jahr 2010 wiesen sie darauf hin, dass es „gängige Praxis ist, die Funktion des Surface-Shaders und des Lichtintegrators in einem einzigen Modul zu kombinieren und den Shader die Farbe des reflektierten Lichts an diesem Punkt zurückgeben zu lassen“, wie es RenderMan in der Vergangenheit getan hat, aber sie zeigten weiter, dass „durch die Trennung dieser beiden Komponenten und die Rückgabe enes BSDF durch das Material“ das System besser in der Lage wäre, ein PBR-System mit einer Vielzahl von Lichttransportalgorithmen zu bedienen. Genau das hat Pixar mit dem RIS-Ansatz für Integratoren und durch logische Erweiterung ihrer Materialdefinition getan. Diese Trennung führt dazu, dass dieser Ansatz des Integrators nun ein „Plugin“ für RenderMan ist.
Was bedeutet das für einen Künstler? Das bedeutet, dass man in einem anderen Integrator tauschen und nicht den eigenen Lookdev ändert. Sie könnten buchstäblich einen speziellen Integrator einbauen, um beim Debuggen eines Shot zu helfen, z.B. wenn ihre Normals nachgeschaltet zu sein schienen, könnten ein Benutzer einfach den gleichen Satz rendern, mit den gleichen Materialdefinitionen mit einem benutzerdefinierten Vektor oder Normal-Integrator, die könnte für hochkomplexe Shots von unschätzbarem Wert sein. All dies würde immer noch in der interaktiven progressiven Rendering-Umgebung des Benutzers geschehen.
Der RIS Shading und RenderMan hat die BxDF-Shading-Innovationen von Disney Animation, die in Frozen verwendet werden, aufgenommen und wird mit einem Basissatz von BxDFs ausgeliefert, der Dinge wie Haare, Glas und Volumen abdeckt z.B. PxrDisney BxDF ist das Disney BRDF aus dem Frozen-Werk und ist eines der Kernmaterialien und wird mit dem Quellcode ausgeliefert.
Das inkrementelle RIS-Rendering ermöglicht auch, dass ein Rendering über Nacht mit einem Maximum pro Frame durchgeführt werden kann, um zu garantieren, dass ein Rendering über Nacht funktioniert, können Sie das Rendering fortsetzen, wenn das, was Sie am Morgen sehen, ihnen gefällt.
Bei der direkten Beleuchtung in einer physisch basierten Beleuchtung dreht sich alles um Flächenlichter und zunehmend um „reale Beleuchtung“, so dass eine Szene bei Nacht in einer Stadt tatsächlich von den Lichtern der Stadt, Hunderten und Aberhunderten von realen Lichtquellen beleuchtet wird. Geometrische Lichter wurden in der letzten Version von RenderMan eingeführt, aber jetzt ist die gesamte Beleuchtung für den RIS-Modus optimiert. Dieses neue Flächenlichtsystem ermöglicht eine unglaubliche Komplexität in der Beleuchtung und ist gleichzeitig aus Sicht der Nutzer oder Künstler einfacher.
Objekte in jeder Szene können sich wie eine physische Lichtquelle verhalten, wenn ihre Shader so eingestellt sind, dass sie Licht aussenden, so dass jede Form eine Szene ausleuchten kann. Emmisive Geometrie in dieser Szene wird durch die animierten Metabälle erreicht, die einen lavaähnlichen Effekt erzeugen.
Fragen und Antworten mit Dana Batali, VP von RenderMan Products.
Interviewer:
Path Tracing wurde vor einem Jahr mit Unterstützung von Prman`s Path Tracing (RPS 18) eingeführt, das „schnelle, aber ungenaue Proben für eine gute Schätzung“ produzierte. Inwiefern unterscheidet sich der neue RIS bidirektionale Path Tracer.
Batali:
In RPS 18 haben wir auf dem bestehenden Rsl-basierten Shading-Framework einen Path Tracer aufgebaut. Dort: Die Zusammenarbeit mit allen eingebauten Integratoren der Shader war erforderlich, was sowohl eine langsamere als auch sprödeere Lösung zur Folge hatte. Mit RIS haben wir den Vertrag zur Darstellung von Materialeigenschaften komplett „zurückgesetzt“ und Shader-Entwickler in C++ programmieren lassen. Nun, ob ein Integrator einem Path Tracer oder einer Distribution Raytracing Philosophie folgt, die Materialien „kümmern“ sich nicht und das System ist orthogonaler. Und da die Komponenten in C++ geschrieben sind und in einer neuen Shader-Graph-Ausführungsengine ausgeführt werden, ist die Leistung deutlich besser. Historische Anmerkung: Soweit wir wissen, wurde die erste Charakterisierung dieses Designs in PBRT eingeführt, wo es aus didaktischen Gründen wichtig war, das Shading in zwei große Kategorien einzuteilen: Integrator und Material.
Interviewer:
Können Sie erklären, welche Kontrolle Sie haben, um über Nacht auf allen Frames einer Sequenz auf eine bestimmte Ebene zu rendern und wie diese gespeichert wird? Kann ich eine Sequenz teilweise rendern und dann fortfahren?
Batali:
Wenn ein Offline-Rendering gespoolt wird, haben wir die Möglichkeit des „Image Checkpointing“, bei dem ein Checkpoint-Image in einem regelmäßigen Intervall die Festplatte geschrieben wird. Jetzt kann ein Warteschlangensystem, zum Beispiel Tractor, einen Job gemäß einer Sammlung von Richtlinienentscheidungen beenden und so sicherstellen, dass ein nächtlicher Renderplan eingehalten werden kann. Da es in der Vergangenheit zu einer hohen Variabilität des Rauschens über eine Aufnahme kommen kann, war es möglich, dass einzelne Bilder den gesamten Auftrag aufrechterhalten, was zu einer hohen Variabilität der täglichen Leistungen führte. Der andere Aspekt dieses Features: der Renderer kann dort weitermachen, wo er aufgehört hat. Es werden zusätzliche Informationen in den Kontrollpunktbildern gespeichert, die den internen Zustand der Zufallszahlengeneratoren und die akkumulierten Filtergewichte erfassen, damit das Rendering „dort weitermachen kann, wo es aufgehört hat“. So kann man sich mehr Warteschlangenrichtlinien wie „in den frühen Morgenstunden, nach Abschluss aller Tagesarbeiten, alle ersten Kontrollrunden wieder aufnehmen und zum nächsten Schritt übergehen. Wir freuen uns sehr darauf, die Gleitkufen dieser wichtigen produktivitätssteigernden Technologien zu „schmieren“, obwohl im Traktor als auch mit dem letzten Schliff an den Befehls- und Steuerungsschnittstellen, um Prman auf dieser Kernkompetenz zu unterstützen.
Aufgenommen nur auf Danas Laptop in Echtzeit, wird hier das progressive Rendering mit adaptivem Sampling und einem Rauschunterdrückungsfilter gezeigt. Sie bekommen schnell eine faire, aber auch laute Vorstellung von den Ergebnissen.
Interviewer:
Könnten Sie die Vorteile und die Flexibilität der Instanzierung in der neuen Version mit RIS und REYES besprechen?
Batali:
Ein paar Punkte zu diesem Thema: Die Instanzierung in REYES ist ein völlig anderes Tier als die Instanzierung in RIS, da der Scanline-Renderer die Rasterpunkte vor der Sichtbarkeitsauflösung abschattet. In beiden Fällen erfordert die adaptive Tessellierung, dass dem Renderer ein gewisser Begriff der Tesselierungsrate vermittelt wird. Wir verfügen über eine ausgefeilte Instanzimplementierung, die es ermöglicht, dass mehrere Modellauflösungen für die Instanzierung zur Verfügung stehen. Aber um den In-Core-Instanzspeicher zu minimieren, ist es oft am besten, eine einzige Auflösung zu identifizieren und das funktioniert in einer reinen Raytraced-Umgebung besser, da wir nach der Sichtbarkeit verschatten. Hier hat das RIS einen wesentlichen Vorteil für die gängigen Instanzenfälle. Das Raytracing von Instanzen ist viel schneller, da der Speichertraffic stark reduziert wird. Und zu ihrer Frage nach verschiedenen Shadern – in der reinen Raytraced-Welt, da wir die Shaded-Ergebnisse nicht „zwischenspeichern“, ist es viel einfacher, bei jeder Instanz beliebige Shader-Bindungen vorzunehmen. Und so können wir dies nun problemlos im RIS-Modus unterstützen.
Interviewer:
Könnten Sie die Speichereffizienz des neuen Systems im Vergleich zu REYES besprechen?
Batali:
Die größten Effizienzsteigerungen im Speicher kommen aus der reinen und einfachen Instanzumgebung. Wir sind auch auf der Suche nach einer weiteren Optimierung der Nutzung des primitiven Gedächtnisses – vor allem für die Primitiven, die in großer Zahl ankommen (Polys, Punkte und Kurven). Eine weitere Form der Speichernutzung in REYES, die nicht im RIS vorhanden ist, ist der „visible-point memory“. Dies ist ein Mixed Bag, da es die Deep-Data von REYES sind, die für die besten Deep-Comp- und Area-Shadowmap-Ausgaben sorgen.
Interviewer:
Eine Eigenschaft des RIS ist, dass es weniger kundenspezifische Optimierungen beinhalten kann – so dass weniger erfahrene TDs/Künstler großartige Ergebnisse erzielen können – können Sie diese Idee, das RIS besser für ein vielleicht weniger erfahrenes Pipeline-Team geeignet ist, erweitern?
Batali:
Dieses Theme überschneidet sich mit der Bewegung, um Multipass-Rendering-Lösungen zu vermeiden. Multipass erfordert viel Erfahrung. Der andere Aspekt dieser Cache-Tuning – RIS hat weniger Caches und eine geringere Anforderung, sie zu optimieren. Zu wissen, wie man Caches abstimmt, fällt weit in das Reich des RenderMan-Gurus.
Interviewer:
Können Sie über das Wachstum der Pre-Tesselierung sprechen und darüber, wie RIS mit der Übermodellierung besser umgeht als REYES?
Batali:
Dies ist ein grundlegender Punkt im Vergleich zu REYES. Eine der Stärken von REYES ist es, dass Sie vor der Durchführung von Sichtbarkeitstests beschatten. Das bedeutet, dass Sie die gleichen schattierten Ergebnisse über viele Pixel „teilen“ können und das ist das Herzstück, warum Bewegungsunschärfe in REYES so schnell ist. Die Kosten des Features sind so hoch, dass wir oft „Over-Shading“ akzeptieren und wenn Objekte übermodelliert werden, vervielfacht sich dieser Effekt. Hinzu kommt, dass teurere Schattierungen durch eine genauere physikalische Simulation des leichten Transports und die Geschichte düster werden. In der Vergangenheit hatten die Einrichtungen die Zeit, ihre Assets zu optimieren. Das bedeutet, dass entweder mehrere Detaillierungsstufen bereitgestellt werden müssen oder dass sichergestellt ist, dass Modelle nicht übermodelliert werden. Heutzutage ist die Zeit ein verschwindender Luxus und es ist wünschenswert, Architekturen zu rendern, die verzeihen, wenn sie übermodelliert werden.
Also das letzte Stück des Puzzles: Raytracing schattiert nur die Stellen, die Strahlen „sehen“ können. Auf der negativen Seite bedeutet dies, dass es schwierig ist, schattierte Ergebnisse wiederzuverwenden, um die Bewegungsunschärfe zu beschleunigen. Auf der positiven Seite: Sie beherrscht übermodellierte Szenen gut, da die Anzahl der Schattenpunkte im Allgemeinen unabhängig von der Modellkomplexität ist.
Interviewer:
Könnten Sie bitte ihren Gedankenansatz zu VCM (PxrVCM) erläutern? Es scheint eine ausgezeichnete Option zu sein oder verpasse ich etwas?
Batali:
VCM ist eine Art Hybrid, da es drei Techniken kombiniert (Eyepaths, Lightpaths und Photonen). Aber die Idee, mehrere Techniken zu kombinieren, geht auf die bahnbrechende Arbeit von Veach/Guibas in ihrer MIS-Arbeit zurück, die zwei Techniken für BPT kombiniert. VCM ist eine neue Anwendung des MIS, die die Formalisierung für die Aufnahme des „Photon Merging“ in unsere MIS-Tasche mit Tricks vorsieht. Diese Arbeit wurde gleichzeitig von Hachisuka, Jensen, Pantaleoni und Georgiev et al. vorgestellt. Letzteres ist die Quelle des VCM-Mittels.
Auf dem Paper scheinen BPT und BPT + VCM viele der Mängel des unidirektionalen Path Tracings zu beheben. In der Praxis ist dies der Fall, lohnt sich aber für einen messbaren Prozentsatz der realen Anwendungen möglicherweise nicht.
Wir arbeiten immer noch mit Beta-Testern zusammen, um ein Gefühl dafür zu entwickeln, ob es sinnvoll ist, von den Leuten zu erwarten, dass sie die Integratoren entsprechend den Bedürfnissen der Aufnahme ändern. Bisher gab es nur sehr wenige Rückschläge, außer eine Frage, wie man Künstlern helfen kann, zu verstehen oder vorherzusagen, welcher Integrator am besten für den Job geeignet ist.
Die Modularität unseres Integrator-Frameworks ermöglicht es uns, die Technologie in diesem wichtigen Forschungsgebiet weiterzuentwickeln und diese Fähigkeit, verschiedene Integratoren für den Job auszuwählen, als grundlegenden Teil des RIS-Wertversprechend zu sehen.
Diese einfache Szene zeigt die Fähigkeit einer emittierenden Oberfläche mit einer interessanten Topologie, eine Flächenleuchte zu sein. Der emittierende Bereich ist selbstschattierend und nicht flach.
Neue Preise und Verfügbarkeiten.
RenderMan wird jetzt ein Viertel des Preises ausmachen und für nicht-kommerzielle Nutzer kostenlos sein – kostenlos und völlig ohne Wasserzeichen.
Es ist eine mutige Strategie – Pixar will sich auf die High-End-Animations- und Effektunternehmen konzentrieren, aber sowohl eine Benutzerbasis als auch Open-Source-Beiträge aufbauen. Disney und Pixar sind getrennt sehr engagiert in der Open-Source-Bewegung. Pixar war schon immer ein aktives Mitglied der breiteren Grafik-Community und trug maßgeblich zu Konferenzen wie SIGGRAPH und DigiPro bei. Tatsächlich konnte Pixars erster Open-Source-Beitrag RenderMan Interface Specification bereits vor Jahrzehnten beobachtet werden. „Wir engagieren uns voll und ganz dafür, dass Initiativen wie Alembic und Ptex einen hohen Wertbeitrag leisten und dort beitragen, wo wir unserer Meinung nach eine gute Lösung für Formate wie OpenSubdiv haben“, sagt Chris Ford. „Die Bereitstellung von Quellcode für den neuen unidirektionalen Pfad Tracer Integrator im RIS ist ein weiteres Beispiel. Andere Initiativen befinden sich noch in der Entwicklung und wir erwarten, dass wir in Zukunft mehr Open-Source-Projekte durchführen werden.
Produkte und Preise.
Interviewer:
Können Sie uns bitte die neuen Produkte und Preise vorstellen?
Ford:
Es ist sehr einfach. Es gibt jetzt ein RenderMan-Produkt, das entweder einzeln für 495 Dollar pro Lizenz oder für größere Mengen durch Peak Render Capacity (PRC-)Pakete erworben werden kann, die so konfiguriert werden können, dass sie nicht nur für alltägliche Anforderungen, sondern auch für optionale zusätzliche Burst-Renderkapazitäten sorgen, um Produktionsabweichungen zu vermeiden.
Ein weiterer großer Vorteil ist, dass nun das ehemalige RenderMan Studio und der RenderMan Pro Server zu einem RenderMan-Produkt zusammengefasst wurden, auf das alle RenderMan-Benutzer über ein flexibles Lizenzsystem in jedem Verhältnis Zugriff haben. Der Grund für die Änderung ist, dass alle Trends auf immer billigere Computerzugänge auf physischen und virtuellen Plattformen hindeuten, wobei Studios und einzelne Künstler immer mehr Rendering für ein bestimmtes Budget benötigen. Dies ist mit dem Aufkommen von physikalisch basiertem Raytracing besonders akut geworden. Die erhebliche Reduzierung der Kosten für die individuelle Renderlizenz erleichtert es daher, die Kapazität kostengünstig zu erweitern und qualitativ hochwertigere Pixel zu erzeugen. Wir tun dies insbesondere, um die Zugänglichkeit zu fördern und Wachstumsbarrieren zu beseitigen und zwar im Rahmen einer langfristigen Strategie, die sich auf die kommerzielle Produktion, Technologien aus der größten Rendering-Entwicklungs- und Forschungsbasis der Filmindustrie konzentriert.
Interviewer:
Wie ist der Upgrade-Pfad auf die neue Version für bestehende Kunden?
Ford:
Wenn der neueste RenderMan in Kürze veröffentlicht wird, werden alle Benutzer, die sich in der aktiven Wartung befinden, automatisch auf die neue Version aktualisiert, ebenso wie alle neuen Käufer. Für RenderMan-Anwender mit älteren Visionen, die entweder die Wartung ein- oder ausschalten, ist jetzt ein Upgrade-Pfad verfügbar.
Da der bisherige RenderMan Pro Server und RenderMan Studio zum neuen RenderMan kombiniert werden, addieren Sie einfach die Anzahl der einzelnen RenderMan-Lizenzen, um die Gesamtzahl der neuen RenderMan-Lizenzen zu ermitteln, die empfangen werden. Natürlich gibt es Fragen zu bestimmten Situationen, so dass auf der RenderMan-Website eine FAQ zur Verfügung steht und wir helfen ihnen natürlich gerne direkt in individuellen Situationen.
Interviewer:
Sie haben darüber gesprochen, dass die Batch und User Nodes austauschbar sind. Könnte ich Sie tagsüber an die Arbeitsabläufe anpassen?
Ford:
Ja, absolut. Der interne Renderer im vorherigen RenderMan Studio wird durch den Standard Batch Renderer ersetzt, der sowohl die Künstleroberfläche als auch die Anforderungen an das Batch-Rendering erfüllt. Rendering-Lizenzen können frei verwendet werden, um sowohl Beleuchtungs-, Beschattungs- und Testputze als auch die endgültigen Batch-Putze auf der Farm zu warten.
Solange die Gesamtzahl der RenderMan-Lizenzen nicht überschritten wird, ist jede Kombination aus Künstlerinterface und Batch-Renderer zulässig, was dieses zu einem sehr flexiblen und anpassungsfähigen Lizenzsystem für die unterschiedlichen Produktionsrythmen macht.
Interviewer:
Unterscheiden sich bezahlte RenderMan-Lizenzen von nicht-kommerziellen Downloads?
Ford:
Nein. Es gibt nur einen RenderMan und der kostenlose nicht-kommerzielle RenderMan ist genau der gleiche wie die kommerzielle Version. Es gibt keine Wasserzeichen, keine Zeitbegrenzung und keine eingeschränkte Funktionalität. Die einzige Einschränkung besteht darin, dass die Software nach der Annahme der EULA bei der Erstinstallation nur für nicht-kommerzielle Zwecke verwendet werden darf. Wir wollen es sehr einfach halten und was noch wichtiger ist, wie möchten eine deutiche Steigerung der Zugriffszahlen erreichen.
Interviewer:
Wird es Zugang zu allen Foren und Dokumentationen geben – und wird dies getrennt von den Foren oder Dokumentationen sein, die ein kommerzieller Nutzer genießt?
Ford:
Die Produktdokumentation von RenderMan ist über die Pixar-Website vollständig zugänglich. Wir haben auch beschlossen, das Nutzer des kostenlosen nicht-kommerziellen RenderMan von Community-Foren unterstützt werden, die unsere Entwickler und unser Support-Ingenieure überwachen, aber wir werden keine nicht-kommerziellen Lizenzen direkt unterstützen. Dies ist eigentlich ein Grund, warum wir RenderMan für die nicht-kommerzielle Nutzung frei zur Verfügung stellen, da wir unseren direkten Support genauer auf unsere kommerziellen RenderMan-Anwender groß und klein konzentrieren wollen und RenderMan dennoch der gesamten Rendering-Community offen zugänglich machen. Angesichts der weit verbreiteten Verfügbarkeit des Non-commercial RenderMan erwarten wir auch, dass Ressourcen von Drittanbietern für die Betreuung der nicht-kommerziellen Nutzerbasis entstehen und wir ermutigen Sie.
Interviewer:
Sie haben gesagt, dass Sie den Quellcode für die Integratoren bereitstellen, was ist die Idee dahinter? Und wie steht es um die Entwicklungsplattform, die sich weiterentwickelt?
Ford:
Modularität ist ein wichtiger Bestandteil des RIS-Angebots und wir liefern Quellcode für den Pix Path Tracer Integrator als Vorlage für RenderMan-Anwender, um ihre eigenen Integratoren im RIS-Framework zu entwickeln. Dies ist ein Beweis für die Absicht im Rahmen eines laufenden Prozesses zur Festlegung gemeinsamer Normen und Praktiken, auch wenn er noch nicht universell ist. Der Quellcode für den VCM-Integrator wird z.B. im neuen Release nicht mitgeliefert.