Gutes Design liegt auf der Hand: Man erkennt es, wenn man es sieht. Was weniger ersichtlich ist, ist der Trail & Error hinter dem Prozess, um das entsprechende Ergebnis zu erreichen. Designer, Hersteller und andere Kreative müssen mehrere Varianten einer Idee ausprobieren. Jedes Mal, wenn Sie ein Bild rendern, dann untersuchen, justieren, validieren und versuchen so viele Varianten, bis das entsprechende Ergebnis zustandekommt.

Je mehr Zeit Sie für die Iteration haben, desto besser ist das Endergebnis. Natürlich ist Zeit Geld und Sie werden aufgrund einzuhaltender Fristen nicht ewig an dem Projekt arbeiten können.

Gründer und CEO von Nvidia, Jensen Huang, hat heute auf der GPU Technology Conference gezeigt, wie Nvidia den interativen Designprozess vorantreibt, um durch die Anwendung künstlicher Intelligenz (KI) beim Raytracing die finalen Renderings genau vorherzusagen.

Steigern Sie Ihre Conversion Rate.

Wie helfen Ihnen durch einen 3D Konfigurator mehr Anfragen zu generieren.

Der Raytracing-Prozess erzeugt sehr realistische Bilder, ist aber rechenintensiv und kann ein gewisses Rauschen in einem Bild hinterlassen. Das Entfernen dieses Rauschens unter Beibehaltung scharfer Kanten und Texturdetails ist in der Branche als Denoinsing bekannt. Mit Nvidia Iray zeigte Huang, wie Nvidia als erster Hersteller qualitativ hochwertiges Denoinsing in Echtzeit durch die Kombination von Algorithmen zur Prognose tiefer Lernprozesse mit Pascal-Architektur-basierten Nvidia Quadro-Grafikprozessoren ermöglicht.

Es ist ein kompletter Spielwechsler für grafikintensive Branchen wie Entertainment, Produktdesign, Fertigung, Architektur Ingenieurwesen und viele andere.

Diese Technik kann auf Raytracing-Systeme unterschiedlicher Art angewendet werden. Nvidia integriert bereits tiefe Lerntechniken in seine eigenen Rendering-Produkte, angefangen bei Iray.

Aus datenschutzrechlichen Gründen benötigt YouTube Ihre Einwilligung um geladen zu werden. Mehr Informationen finden Sie unter Datenschutzerklärung.
Akzeptieren

Wie Iray interactive Denoinsing funktioniert.

Bestehende Algorithmen für hochwertiges Denoinsing verbrauchen Sekunden bis Minuten pro Frame, was Sie für interaktive Anwendungen unpraktisch macht.

Durch die Vorhersage von Endbildern aus nur teilweise fertiggestellten Ergebnissen erzeugt Iray künstliche Intelligenz (KI) und damit genaue, fotorealistische Modelle, ohne auf das fertige Bild warten zu müssen.

Designer können finale Bilder 4x schneller iterieren und fertigstellen, um ein wesentlich schnelleres Verständnis einer finalen Szene oder eines Modells zu erhalten. Die kumulative Zeitersparnis kann die Markteinführungspläne eines Unternehmens erheblich beschleunigen.

Steigern Sie Ihre Conversion Rate.

Wie helfen Ihnen durch einen 3D Konfigurator mehr Anfragen zu generieren.

Um dies zu erreichen, wandten sich die Forscher und Ingenieure von Nvidia an eine Klasse von neuronalen Netzen, den Autoencoder. Autoencoder werden zur Erhöhung der Bildauflösung, zur Komprimierung von Video und vielen anderen Bildverarbeitungsalgorithmen eingesetzt.

Mit dem Supercomputer Nvidia DGX-1 AI trainierte das Team ein neuronales Netzwerk, um ein verrauschtes Bild in ein sauberes Referenzbild zu operationalisieren. In weniger als 24 Stunden wurde das neuronale Netz mit 15.000 Bildpaaren mit unterschiedlichem Rauschen aus 3.000 verschiedenen Szenen trainiert. Einmal trainiert, benötigt das Netzwerk nur einen Bruchteil einer Sekunde, um das Rauschen in fast jedem Bild zu bereinigen – selbst in den Bildern, die nicht im Original-Trainingsset enthalten sind.

Mit Iray brauchen Sie sich keine Sorgen darüber zu machen, wie die Deep-Learning-Funktion funktioniert. Wir haben das Netzwerk bereits trainiert und verwenden GPU-beschleunigte Inferenz auf die Iray-Ausgabe. Kreative können auf Knopfdruck interaktiv arbeiten und die verbesserte Bildqualität mit jedem beliebigen Grafikprozessor nutzen.

Die Iray Deep Learning-Funktion wird in das Iray SDK integriert, welches an Softwarefirmen geliefert wird. Nvidia plant zudem, Mental Ray um einen KI-Modus zu erweitern. Es wird erwartet, dass Renderer verschiedenster Art diese Technologie übernehmen. Die Grundlagen dieser Technik wurden auf der ACM SIGGRAPH 2017 Computergrafik-Konferenz im Juli veröffentlicht.