GPU beschleunigtes Rechnen ist der Einsatz einer Grafikprozessoreinheit (GPU) in Verbindung mit einer CPU zur Beschleunigung von tief greifenden Lern-, Analyse- und Engineering-Anwendungen. Die im Jahre 2007 von Nvidia entwickelten GPU-Beschleuniger sind heute energieeffiziente Rechenzentren in staatlichen Laboratorien, Universitäten, Unternehmen und kleinen und mittleren Unternehmen auf der ganzen Welt. Sie spielen eine große Rolle bei der Beschleunigung von Anwendungen auf Plattformen, die von künstlicher Intelligenz bis zu Autos, Drohnen und Robotern reichen.

Falls Sie visuelle Tutorials bevorzugen, empfehlen wir ihnen das folgende Video zu sehen:

For privacy reasons YouTube needs your permission to be loaded. For more details, please see our Datenschutzerklärung.

Wie GPUs Software-Applikationen beschleunigen.

GPU-beschleunigtes Rechnen entlastet den Grafikprozessor von rechenintensiven Teilen der Anwendung, während der restliche Code noch auf der CPU ausgeführt wird. Aus Benutzersicht laufen Anwendungen einfach viel schneller.

GPU vs. CPU Performance.

Ein wesentlicher Unterschied zwischen GPU und CPU sind die Prozesse beim Bewältigen von Aufgaben. Während eine CPU aus einigen für die sequentielle und serielle Verarbeitung optimierten Kernen besteht, zeichnet sich die GPU durch eine massive und paralle Architektur aus kleinerer, leistungsfähigerer Kerne aus, die für die simultane Bearbeitung mehrerer Aufgaben ausgelegt sind.

Das untere Video veranschaulicht die Unterschiede zwischen GPU und CPU:

For privacy reasons YouTube needs your permission to be loaded. For more details, please see our Datenschutzerklärung.

Ich hoffe, dass wir Sie in diesem Beitrag die wesentlichen Grundlagen zu GPU beschleunigtes Rechnen vermitteln konnten.

Wenn Sie sich immer noch nicht zwischen CPU und GPU beim Rendering entscheiden können, empfehlen wir ihnen den folgenden Beitrag zu lesen.