Rendern ist eine großartige Sache. Sie nehmen ein flach aussehendes CAD-Modell oder eine Szene, wenden einige Materialien und Licht an, drücken einige Tasten, warten eine Weile … und siehe da! Sie haben eine nahezu fotorealistisch aussehende Szene.

Fortschritte Rendering-Technologie

Rendering-Software gibt es in allen Formen und Größen. So verwendet Hollywood Renderings zum Beispiel in Ihren bevorzugten CGI-Blockbustern, Videospieleentwickler sie in Ihren Lieblingsspielen und Architekten, Produktdesigner und Ingenieure verwenden sie alle in eher in industriellen Anwendungen, in denen es wichtig ist, Produktkonzepte an Kunden zu kommunizieren, bevor Sie tatsächlich realisiert werden.

Aber 2018 wurden die Unterschiede zwischen diesen Branchen und den von ihnen verwendeten Renderern tatsächlich sehr verschwommen.

Echtzeit-Renderer von Game-Engine-Anbietern wie Epic Games und Unity konkurrieren um den Engineering-Markt, traditionelle Engineering- und Produktdesign-Renderer fügen Physiksimulationen hinzu, einige Renderer nutzen Clouds, und ein Unternehmen verwendet sogar Echtzeit-Renderings für medizinische Bildgebung. Es ist eine aufregende Zeit, sich mit dem Rendern zu beschäftigen, sei es als Render-Engine Designer, Konstrukteur oder Kunde, welche letztendlich diejenigen sein werden, die die Konfiguratoren nutzen werden.

Im Folgenden möchten wir Ihnen die Einschätzungen von sechs relevanten Software-Firmen aus diesem Bereich bezüglich des aktuellen Stands dieser Technologie wiedergeben.

Unreal Engine.

Wir haben uns in letzter Zeit mit der Unreal Engine von Epic Games beschäftigt, als wir die neue Unreal-Studio-Funktion des Unternehmens getestet haben, die Ingenieuren, Architekten und Produktdesignern helfen soll, schöne Szenen mit ihren bestehenden CAD-Daten zu erstellen.

Für diejenigen, die es nicht wissen, ist die Unreal Engine eine Game-Engine, die verwendet wurde, um Spiele wie Unreal Tournament, Fortnight, sowie den etwas obskuren Horrorthriller Observer zu entwickeln.

For privacy reasons YouTube needs your permission to be loaded. For more details, please see our Datenschutzerklärung.

Thomas Convard, technischer Produktmanager bei Epic Games, nennt die folgenden Gründe, warum Ingenieure Unreal Studio ausprobieren sollten.

Unreal Studio bietet einen schnellen Weg von den CAD-Tools zu einer interaktiven Erlebnisumgebung, in der Benutzer Ihr Design in Echtzeit plus VR oder AR bewerten können“, sagt Convard.

Ingenieure, die Unreal Studio verwenden, entwerfen komplexe Systeme, die die Überprüfung, den Vergleich von Designlösungen und das Treffen von Entscheidungen beinhalten.“

Seit einigen Jahren sind Architekten und Produktdesigner die Hauptanwender der Unreal Engine als Werkzeug zur Erstellung von Renderings ihrer Produkte, aber bis zur Veröffentlichung von Unreal Studio war der Workflow der Software sehr unhandlich, so dass die Benutzer ihre eigenen Lösungen erstellen mussten, um bei der Konvertierung ihrer verschiedenen CAD-Dateien in etwas zu helfen, das in Unreal Engine verwendet werden kann. Mit Hilfe von Datasmith und dem Unreal Studio-Workflow wechseln nun immer mehr Ingenieure zu Unreal Engine.

In der Luft- und Raumfahrt oder im Automobilbereich zum Beispiel wurde Unreal Studio zunächst wegen der visuellen Qualität von Unreal Engine eingesetzt. Die ersten Anwender waren also mehr aus dem Bereich Industriedesign oder Marketing“, erklärt Convard.

Jetzt sehen wir eine breitere Akzeptanz in den Unternehmen für Systemtechnik, Fertigung oder Simulation, wo das Benutzerprofil eher Ingenieur ist.

Eines dieser Unternehmen ist der britische Sportwagenhersteller McLaren, der mit der Software Echtzeit-Konfiguratoren erstellt, mit denen Kunden sehen können, wie ihre Optionen das Aussehen des Endprodukts verändern. Sie können mehr über dieses Projekt mit der Bezeichnung McLaren Design Visualization Application lesen und ein Whitepaper darüber herunterladen. Folgen Sie dazu den folgenden Link.

Ein Teil der Anziehungskraft auf Ingenieure kommt sicherlich von der eingebauten Physik-Engine in der Unreal Engine. Die Collision Detection und Effekte wie Schwerkraft, Masse und Trägheit sowie Beleuchtung können alle in der Engine simuliert werden, was ein leistungsstarkes Tool darstellt, was weit über das reine Rendern schöner Bilder hinausgeht.

Ingenieure im autonomen Fahrzeugbereich nutzen Unreal Engine als Simulationsplattform – mit der Simulation von Umgebung und Fahrzeugbewegung in der EU sowie der Synthese von Sensordaten. Ingenieure koppeln sich oft mit einem Legacy-Simulationssoftware-Stack.

Das ist ein interessanter Punkt. Unter Verwendung vorhandener Simulationsdaten übernehmen die Ingenieure die Ergebnisse dieser Simulationen und geben sie anschließend in die Unreal Engine ein, um Bewegungen, grafische Änderungen und andere Eigenschaften innerhalb der Unreal Engine zu steuern. Denken Sie daran, dass die Unreal Engine als Gaming-Engine konzipiert wurde. Im Prinzip können Sie jede beliebige numerische Eingabe in die Unreal Engine einbinden und Ihre Daten nach Ihren eigenen Wünschen visualisieren lassen.

Als sehr einfaches Beispiel könnte man einen Tischventilator mit einer Art Dreizahlsensor haben, der die Drehzahl des Ventilators eingibt, einen Positionssensor, der das 3D-Modell des Ventilators mit der tatsächlichen Schaufelposition abgleicht und einen Temperatursensor am Motor. Es ist nicht schwer, diese Eingaben von Unreal Engine übernehmen zu lassen, sie in Farbänderungen für die Temperatur, Drehungen an den Schaufeln usw. zu übersetzen.

Wir sehen auch Menschen, die die UE als „digital twin“ nutzen, um komplexe Systeme wie Fabrikabläufe, Robotik usw. aus der Ferne zu überwachen oder zu steuern.

Epic Games hat einige große Kunden, die die Unreal Engine für technische Zwecke einsetzen. Oceaneering zum Beispiel verwendet die Unreal Engine, um die Sicht von ferngesteuerten Fahrzeugen (ROVs) unter Wasser mit HUDs zu ergänzen, die auf den ROV-Sensordaten basieren, um bei schlechten Sichtverhältnissen zu helfen. Die NASA nutzt die Unreal Engine, um die internationale Raumstation für die Ausbildung von Astronauten nachzubauen, und BMW nutzt die Plattform für sein Mixed-Reality-Labor, das VR/AR mit taktiler Hardware für ein noch intensiveres Erlebnis kombiniert.

Sie können die neueste Version von Unreal Studio kostenlos herunterladen.

SOLIDWORKS Visualize.

Als Nächstes werden wir die Fortschritte der Rendering-Funktionen von SOLIDWORKS etwas näher thematisieren.

Bis 2011 waren SOLIDWORKS-Anwender mit dem PhotoWorks-Add-In vertraut, das auf der NVIDIA Mental Ray Engine basiert (und für Filme wie Star Wars Episode II verwendet wurde).

Seitdem verwenden SOLIDWORKS-Anwender PhotoView360, das als One-Button-Rendering-Dienstprogramm beschrieben wird und das trifft auch recht genau zu.

Sie laden das PhotoView360 Add-In in SOLIDWORKS, positionieren Ihre Szene nach Ihren Wünschen und drücken einen Render-Button. Je nachdem, wie leistungsstark Ihr Computer ist, warten Sie anschließend eine Weile und Ihre Szene wird gerendert. Es ist sehr benutzerfreundlich und enthält eine ganze Reihe von Szenen, Materialien und Standardbeleuchtungsschemata mit hochdynamischer Bildgebung, die Ingenieuren helfen sollen, fotorealistisch aussehende Bilder zu erstellen.

In jüngster Zeit haben SOLIDWORKS-Anwender Zugang zu einer neuen Software mit der Bezeichnung SOLIDWORKS Visualize Professional erhalten, die viel schneller ist als PhotoView360, eine ziemlich nützliche Denoinser-Funktion, Animationswerkzeuge und die neueste Version sogar einen Fahrsimulator enthält.

Brain Hillner, Senior Product Portfolio Manager, hat Folgendes zum Thema Rendering zu sagen:

Visualize ermöglicht es jedem, Bilder, Animationen und andere 3D-Inhalte in Fotoqualität auf die schnellste und einfachste Weise zu erstellen. Das ist also unser Mantra: schnell, einfach und unterhaltsam. Wir betrachten es gerne als die Kamera für Ihre CAD-Daten.

Der Unterschied zu PhotoView besteht darin, dass PhotoView 360 am besten für Designs geeignet ist, die fortlaufend sind, mit kontinuerlichen Änderungen, sehr iterativ und sehr früh im Designprozess. Und da PhotoView in SOLIDWORKS CAD integriert ist, entfällt der Export. Man kann all diese Reflexionen, Materialien und Oberflächendetails sehen, aber nicht auf fotorealistische Weise. Es ist nicht sehr photogenau, aber es erledigt den Job, weil es eine sehr schnelle und grundlegende Vorstellung davon ist, wir Ihr Produkt aussehen wird, ohne die native SOLIDWORKS-Umgebung verlassen zu müssen.

Visualize führt mehr und mehr eine einfache und saubere Benutzeroberfläche ein, die der traditionellen Fotografie ähnlicher ist. Viele der Einstellungen, Button und Namenskonventionen spiegeln wider, was ein traditioneller Fotograf in seinem Fotostudio sehen würde.“

Sie können also Ihr Modell in SOLIDWORKS bearbeiten und überprüfen, wie es in PhotoView 360 aussieht, um eine grobe Vorstellung davon zu erhalten, wie es aussehen wird. Wenn Sie mit dem Design zufrieden sind, können Sie das Visualize-Add-In in SOLIDWORKS proper laden und direkt in Visualize einfügen, damit Sie die Materialien und Beleuchtungen, die Sie im CAD-Programm ausprobiert haben, pflegen können. Sie können aber auch neu beginnen und Ihrem Modell in Visualize Ihre eigenen Lichter, Materialien und Landschaften hinzufügen.

Wir haben eine lokale Bibliothek in Visualize und eine Cloud-Bibliothek mit über 500 Materialien, die ziemlich gut aussehen. Und es gibt unendlich viele Materialtypen, die Sie erstellen können, weil es jetzt etwas 15 Basis-Materialtypen in Visualize gibt, so dass es möglich ist, jedes Material zu erstellen, das Sie in der realen Welt sehen.

Welche weiteren Unterschiede gibt es also zwischen PhotoView360 und Visualize? Zuerst verwenden Sie verschiedene Render-Engines.

„PhotoView360 verwendet eine Render-Engine mit der Bezeichnung Modo von The Foundry, und Visualize verwendet iRay von NVIDIA. Iray zeichnet sich durch einen genaueren Fotorealismus aus und rendert zudem auch viel schneller.

Die Render-Engine selbst ist schneller als in PhotoView, nur weil die Strahlen aufprallen und zurück zur Kamera reflektieren….“ Ich möchte nicht zu technisch werden, aber die Render-Engine ist so konzipiert, dass sie extrem schnell ist. Die wichtigste Verbesserung ist jedoch die Renderleistung auf NVIDIA-Grafikkarten. Kombinieren Sie also Ihre NVIDIA-Grafikkarte mit Visualize, das iRay verwendet, und Ihr Renderer wird sehr schnell beleuchtet.

Eines der neuen Features in Visualize ist der künstlich intelligente Denoinser, den NVIDIA entwickelt hat. Wir von Visualize haben es im Release 2018 mit Service Pack 3 implementiert.

NVIDIA erhielt Tausende von Bilder und Datensätze und trainierte ein neuronales Netzwerk, um zu verstehen, was Rauschen ist und wie man Rauschen in Renderern erkennt. Es ist eine wahnsinnige Leistungssteigerung, die buchstäblich nur ein Kontrollkästchen in Visualize ist, und die Ergebnisse unserer eigenen Benchmarking-Tests zeigen, dass sie 10x schneller ist.

Nahaufnahmen von Objekten wie im Automobilbereich mit vielen Reflexionen und Oberflächendetails, die bis zu einer Stunde zuvor gedauert haben, können nun in 10 Minuten wiedergegeben werden. Eine Animation, die früher ein Übernachtauftrag gewesen sein kann, kann nun in der Mittagspause fertig gestellt werden. Das liegt alles an NVIDIA und iRay. Ich bin jetzt schon 15 Jahre im Rendering-Business tätig, und ich habe noch nie gesehen, wie eine Innovation wie der Denoinser so eingeschlagen ist. Es sind regelrecht Sprünge zu vorherigen Entwicklungen. Der KI Denoinser ist schon eine unglaubliche Innovation.“

Warum sollten Ingenieure also Visualize für Ihre Renderings verwenden wollen?

Hillner dazu: „Ich kann das mit zwei Worten beantworten. Fotoqualität und Benutzerfreundlichkeit. Einfacher geht es nicht.

Das sind technisch gesehen 5 Wörter, aber wir haben Bindestriche hinzugefügt, also denken wir, dass es immer noch zählt. Überzeugen Sie sich selbst von der Schnelligkeit und Qualität der produzierten Renderings.

Das Vivid Metallic Paint Appearance Paket ist wunderschön und wir haben viel Spaß damit.“

KeyShot.

KeyShot von Luxion gibt es schon seit einiger Zeit und befindet sich derzeit in der 8. Version der Software.

Luxion weist auf seiner Webseite daraufhin, dass KeyShot die „schnellste und leistungsfähigste Software für Echtzeit-3D-Rendering und -Animation“ ist. Eine Sache, die wir bestätigen können, ist, dass KeyShot einige ziemlich beeindruckende Renderings liefert und wir können auch bestätigen, dass es qualitativ sehr einfach zu bedienen ist, nachdem wir die Demo heruntergeladen und selbst ausprobiert haben.

Das Rendern mit KeyShot ist einfach. Sie importieren einfach Ihr CAD-Modell, ziehen die Materialien per Drag & Drop auf das 3D-Modell, passen die Lichter an, positionieren die Kamera… das ist alles. Es wird vor Ihren Augen gerendert.

Josh Mings, Director of Marketing bei Luxion, nennt folgende Gründe, weshalb viele Ingenieure gerne auf Luxion zurückgreifen.

Für einen Ingenieur ist KeyShot eine schnelle Lösung für den Bedarf an 3D-Visualisierungen während des gesamten Konstruktionsprozesses“, sagt Mings.

Es hilft Ihnen, sich auf das Design und die Technik zu konzentrieren und gleichzeitig ein schnelles Rendering zu erstellen, wenn Sie es benötigen. KeyShot unterstützt auch den Import für alle gängigen 3D-Modellierungsanwendungen und 3D-Dateiformate sowie Plug-Ins.

Die Ingenieure werden sich freuen zu hören, dass diese Formate SOLIDWORKS, Solid Edge, PTC Creo, Rhino, Pro/E, IGES, STEP, FBX, OBJ und 3ds umfassen, um nur einige zu nennen.

Wir haben viele Ingenieurbüros, die KeyShot verwenden. Besonders zu sehen sind Great Plains, Related Fluid Power und Caterpillar.

Was macht KeyShot so einzigartig?

Sie können auf der Funktionsseite des Unternehmens sehen, dass es sechs Aspekte gibt, von denen Luxion sagt, dass sie für Ingenieure den Unterschied ausmachen:

  • Echtzeit-Geschwindigkeit
  • Benutzerfreundlichkeit
  • CPU-gestütztes Rendering
  • Präzise Materialien
  • Fortschrittliche Beleuchtung
  • Effizienter Workflow

Was hält Luxion für die kommenden Trends im Bereich Rendering für Produktdesign, Architektur und Technik?

Da sowohl Hardware als auch Software immer leistungsfähiger werden, werden wir einige Fortschritte bei den Echtzeit-Rendering-Geschwindigkeiten und dem Grad an Realismus sehen, der erreicht werden kann“, sagte Mings.

Automation (KI) wird ein großes Thema sein, nicht nur im generativen Design, sondern auch in der Anpassung der Software selbst. Die VR-Fähigkeiten werden sich erweitern und Ingenieure werden ihre Arbeit sehen und sogar in der Umgebung arbeiten können, in der ihr Design eingesetzt wird.

Also, was ist neu in der neuesten Version von KeyShot? Welche neuen Innovationen wird das Unternehmen in den aktuellen Rendering-Bereich einbringen?

KeyShot 8 ist eine zentrale Version, die Werkzeuge hinzufügt, um mehr mit Materialien zu tun, und die Abhängigkeit von der Vorbereitung der Geometrie vor dem Import in KeyShot beseitigt oder das Bild nach dem Rendern aus KeyShot ändert. Sie können ein Modell importieren und schnell interaktive Ausschnitte erstellen, Oberflächen mit 3D-Texturen versehen und eine Vielzahl von Bildstilen erstellen, um das Erscheinungsbild des Bildes anzupassen.

Autodesk Fusion 360.

Autodesk verfügt über eine Reihe von Renderern, darunter die in ihrem Vorzeigeprodukt Fusion360, und kürzlich hat das Unternehmen weitere Kooperationen mit dem Spieleentwickler Unity angekündigt, um diejenigen in technischen Bereichen anzusprechen, die in die Echtzeit-Rendering-Aktion einsteigen möchten.

Rob Cohee, Senior Product Manager bei Autodesk, äußert sich zu Fusion 360 folgendermaßen.

Unsere Kunden lieben es, in Fusion 360 zu rendern, weil es vollständig in Ihren Workflow integriert ist – es ist nicht notwendig, zwischen Programmen zu wechseln oder Dateien zu konvertieren – und das spart ihnen am Ende des Tages viel Zeit und Energie“, sagte Cohee.

Fusion 360 automatisiert die Aufgaben, die ein Benutzer normalerweise nach einer Änderung erledigen müsste. Stattdessen können sie Ansichten einfach per Drag & Drop in die Rendergalerie ziehen, um Rendering einzurichten oder Updates zu speichern.

Da Fusion 360 teilweise cloudbasiert ist, sollten wir erwarten, dass mehr Rendering-Plattformen in die Cloud migrieren, um von all dem günstigen CPU-basierten Computing zu profitieren? Ist die Zukunft des Renderings in der Cloud?

Die erwartete Antwort auf diese Frage ist, dass die Zukunft eindeutig dem Cloud-Rendering gehört“, sagte Cohee.

Aber wir bieten beides und werden es auch weiterhin anbieten, denn das ist es, was unsere Nutzer von uns erwarten. Sie wollen die Wahl haben, in der Cloud online oder mit eigener Hardware zu arbeiten, um Rendering-Aufgaben zu erledigen.

Unity.

Epic Games ist nicht das einzige Game-Engine-Unternehmen, das sich mit den Bereichen Engineering, Produktdesign und Architektur beschäftigt.

Seit einiger Zeit arbeitet die Game-Engine Plattform Unity mit Autodesk zusammen, um Revit- und VRED-Formatunterstützung für die Unity-Engine zur VR-Modellierung bereitzustellen. Es ist in der Tat nicht das erste Mal, dass Autodesk und Unity eine Partnerschaft eingehen, da die Unternehmen der Game Engine bereits Support für Autodesks Maya und 3D Studio Max hinzugefügt haben.

Die Dateigröße ist ein großer Unterschied zwischen technischen CAD-Modellen und den 3D-Modellen, die in Spielen verwendet werden. Technische Modelle sind aufgrund der Krümmungen und der hohen Genauigkeit tendenziell recht schwer, insbesondere wenn es um CAD-Teile geht, die in der Fertigung verwendet werden sollen.

Aber um ehrlich zu sein, braucht man in einem Videospiel nicht wirklich so viele Details. Stellen Sie sich vor, Sie verwenden bei der Gestaltung eines Videospiels ausschließlich Engineering-Dateien. Sie würden viel zu viele Daten verbrauchen und schon in etwa 1 Gigabyte an Modelldaten allein für Ihre Modellfigur benötigen.

Um dies zu beheben, hat Unity mit PiXYZ Studio ein Plug-In entwickelt, das speziell für die Verarbeitung von CAD-Daten entwickelt wurde. Wie Datasmith reduziert das Plug-In die Komplexität des 3D-Modells und macht es kompatibel mit der Game-Engine.

Der Autodesk/Unity-Workflow wird in den nächsten Monaten langsam eingeführt, wobei einige Kunden das System derzeit testen.

Wie Revit-Dateien nun direkt mit Unity verwendet werden können, sehen Sie im folgenden Video:

For privacy reasons YouTube needs your permission to be loaded. For more details, please see our Datenschutzerklärung.

Im Folgenden äußert sich Dan Prochazka, Senior Produkt Manager bei Unity, darüber, warum Echtzeit-Rendering in einer Gaming-Engine für Ingenieure attraktiv ist.

Echtzeit Rendering ermöglicht einen komfortableren Zugang zu umfangreichen interaktiven 2D-, 3D-, VR- und AR-Erlebnissen“, sagt Prochazka.

Brands wie Volkswagen und Skansa nutzen Echtzeit-Rendering, um Geld zu sparen, Design-Reibungsverluste zu vermeiden und die Effizienz für eine bessere Zusammenarbeit zu steigern – und nutzen die Vorteile der Interoperabilität zwischen Unity und Autodesk, die dazu beiträgt, dies rundum zu verbessern.

Als Gaming-Engine und mit all der Physik haben Unity-Kunden auch entdeckt, dass eine Game Engine für viel mehr als nur Rendering verwendet werden kann.

Kunden wie Willow und Stereograph, die es ermöglichen, den aktuellen Zustand eines Gebäudes aus der Entwurfsphase eines Projekts und von Echtzeit-IoT-Geräten zu sehen. Darüber hinaus haben andere Kunden in Bereichen wie Fertigung, Schifffahrt und Bergbau Überwachungssysteme entwickelt, die Überwachungsdaten mit einem 3D-Visualisierungsmodell verbinden, um die visuelle Identifizierung von Problemen zu erleichtern.

Dies ist neu und wird immer noch für Kunden eingeführt. Ein Beispiel für einen Kunden, der von der Zusammenarbeit profitieren kann, ist das Offshore- und Onshore-Unternehmen Fugro, das mit Unity Datenvisualisierungen erstellt, die helfen, Sicherheitsrisiken zu identifizieren“.

Siemens Cinematic Rendering.

Schließlich kommen wir zu Siemens, das auch eine breite Palette von Produkten für das Rendering anbietet. Siemens NX-Anwender werden mit der Lightsworks iRay+ Engine vertraut sein, die ebenfalls auf der NVIDIA iRay Technologie basiert.

Für diesen Artikel werfen wir jedoch einen Blick auf das Produkt Cinematic Volume Rendering Technique (VRT) von Siemens, das von SiemensHealthineers entwickelt wurde.

Es ist etwas außerhalb des Bereich des technischen Renderings, aber es macht einige sehr beeindruckende und brauchbare Bilder für medizinische Anwendungen und aus diesen Gründen nehmen wir das Produkt in einen Artikel über Rendering für Ingenieure auf.

Cinematic VRT funktioniert im Grunde genommen wie eine virtuelle Kamera. Mit dem Programm ist es möglich, Weichteile, Muskeln und Blutgefäße zu verstecken und so einen klaren Blick auf die Knochenstruktur zu werfen“, erklärt Klaus Engel, Forscher bei Healthineers.

Die Software verwendet Computertomographie (CT) und Magnetresonanztomographie (MRT), um ein 3D-Modell innerhalb der Cinematic VRT-Software zu erstellen. Und wenn diese Köperteile in 3D umgewandelt und digitalisiert wurden, können sie wie Teile in einer CAD-Baugruppe ein- und ausgeschaltet werden.

Für viele Menschen bietet Cinematic Rendering den ersten wirklichen Einblick in das Geschehen in ihrem Körper.“ sagte Bernd Montag, CEO Siemens Healthineers.

Dieses Beispiel zeigt das breite Spektrum der Möglichkeiten, die sich aus der Digitalisierung des Gesundheitswesens ergeben.

Wie Siemens Healthineers die KI mit Cinematic Rendering nutzt, können Sie im folgenden Video sehen.

For privacy reasons YouTube needs your permission to be loaded. For more details, please see our Datenschutzerklärung.

Schlußwort.

Wir hoffen, dass wir Ihnen einen guten Überblick über die Fortschritte im Rendering geben konnten. Wir haben die gegenseitige Befruchtung von Technologien und Workflows aus verschiedenen Branchen erlebt, die alle diese effiziente GPU-Leistung nutzen und auch bei KeyShot und SOLIDWORKS Visualize behalten einige noch die Möglichkeit des CPU-Renderings.

Wenn sich die Cloud weiterentwickelt und GPUs immer billiger und billiger werden, werden wir vielleicht irgendwann in der Zukunft das CPU-basierte Rendering verschwinden sehen. Aber bis dahin gibt es zumindest ein paar Unternehmen, die gerne weiterhin auf CPUs auf Bare-Metal-Systemen rendern, so dass Sie Ihren teuren Arbeitsplatz noch nicht wegwerfen müssen.

Außerdem sollten wir, wie bei dem Beispiel der medizinischen Bildgebung, wahrscheinlich einige interessante renderbasierte Technologien aus dem linken Feld erwarten. Sicherlich werden wir mehr Fallstudien von Unternehmen hören, die Game-Engines zur Erstellung von Simulationen und anderen Visualisierungen einsetzen.

Natürlich sind wir in diesem Artikel nicht wirklich auf VR oder AR eingegangen – viele der Echtzeit-Renderer haben VR-Skills. VR wird in Zukunft eine große Rolle beim Rendern spielen, aber der Artikel „VR im Engineering Design“ ist ein Thema für sich, das nicht nur am Rande erwähnt werden sollte.

Vielen Dank für Ihren Besuch.