Nvidia Studio Notebooks: GeForce RTX beschleunigt Profi-Workflows mit KI [Anzeige]
GPUs können viel mehr als nur Spiele rendern und dank CUDA und Co. können immer mehr professionelle Nutzer im Alltag davon profitieren. Neben der reinen Compute-Power spielen dabei auch Nvidias Tensor- und Raytracing-Kerne eine wichtige Rolle. Was das konkret bedeutet? Vier Praxis-Workflows mit KI-Turbo im Überblick.
GPUs beschleunigen immer mehr Workflows
GPUs können schon seit Jahrzehnten lange mehr als nur (Spiele-)Grafik ausgeben. Seit 2001 ist die Berechnung anderer Aufgaben auf einem extrem parallelisierten Grafikprozessor als GPGPU bekannt. Seit 2007 stellt Nvidia Entwicklern mit CUDA eine Programmier-Technik zur Verfügung, mit der Programmteile standardisiert durch Nvidia-GPUs abgearbeitet werden können.
CUDA, zu Anfang mit Fokus auf die Wissenschaft, beschleunigt inzwischen immer mehr Anwendungen, die von Kreativen genutzt werden. GPGPU ist damit für PC-Nutzer zunehmend ein potentielles Hilfsmittel, das den Workflow gegenüber der Berechnung auf der CPU signifikant beschleunigen kann.
Mit der Ampere- und zuvor der Turing-Architektur stehen über CUDA inzwischen nicht nur die klassischen Shader zur Verfügung, Programme können sich auch der Tensor- und RT-Kerne zur Hardware-Beschleunigung von KI-Algorithmen und Raytracing-Berechnungen bedienen. Und es bedarf keines klassischen stationären Desktop-PCs mehr, um davon zu profitieren: Sehr viel Leistung mit langer Ausdauer und sehr gutem Display bieten auch immer mehr Notebooks. Nvidia nennt die perfekt auf diese Workflows ausgerichteten Notebooks mit GeForce RTX „Nvidia Studio Notebooks“.
Vier Anwendungsszenarien für KI-Workflows
Ob Rendern, Video-Transcodierung oder Video-Postproduction: Die Liste der Programme und Workflows, die von Nvidias GPUs Gebrauch machen, ist lang. An dieser Stelle sollen Workflows, die sich durch den Einsatz von KI beschleunigen lassen, herausgegriffen werden – Nvidias Tensor-Cores legen bei diesen Szenarien den Turbo ein.
Einen umfassenden Überblick über weitere Einsatzszenarien gibt Nvidia auf der eigenen Homepage. Auf dem YouTube-Kanal von Nvidia Studio gibt es darüber hinaus zweimal wöchentlich neue Videos mit Praxiseindrücken sowie Tipps und Tricks zu Nvidia-Studio-Einsatzszenarien.
KI-beschleunigte „Magic Mask“ in DaVinci Resolve
Die Mustererkennung ist eine wesentliche Säule künstlicher Intelligenz. Sie beschreibt die Fähigkeit, in einer Menge von Daten Regelmäßigkeiten, Wiederholungen, Ähnlichkeiten oder Gesetzmäßigkeiten zu erkennen. Dabei werden aus den meist analogen Signalen (wie einem Video) Muster gewonnen, die sich mathematisch in Vektoren, sogenannten Merkmalsvektoren, und Matrizen darstellen lassen. Nvidias Tensor-Kerne können diesen Prozess signifikant beschleunigen.
Das mächtige Videobearbeitungsprogramm DaVinci Resolve (Studio) von Blackmagic macht sich diese Fähigkeit der Nvidia-RTX-Grafikkarten für die neue Funktion „Magic Mask“ zunutze.
Die Leistung der (mobilen) Grafikkarten von Nvidia ermöglicht es über diese Funktion, Objekte oder Personen in einem Video zu erkennen und Frame für Frame nachzuverfolgen, um isoliert auf dieses Objekt oder diese Person Anpassungen vorzunehmen. Bis dato musste diese Nachverfolgung mit vielen manuellen Eingriffen vorgenommen werden, CPUs waren für eine automatische Verfolgung zu langsam.
Das nachfolgende Video zeigt, wie einfach die Isolation einer Person und deren nachträgliche Anpassung (Helligkeit, Kontrast, Farbtemperatur) mit Magic Mask von der Hand gehen kann. Die von GeForce RTX beschleunigte KI spart dem Anwender viel wertvolle Zeit.
KI-beschleunigte „Super Resolution“ in Photoshop & Lightroom
Die durch Nvidias Tensor-Kerne beschleunigte Mustererkennung ist auch die Basis für Adobes Feature „Super Resolution“ in Adobe Camera RAW ab Version 13.2. Es kann sowohl in Adobe Photoshop als auch Adobe Lightroom zum Einsatz kommen.
Adobe Super Resolution ermöglicht es dem Nutzer, die Auflösung eines Fotos (RAW, JPEG oder TIFF) bei minimalem Qualitätsverlust zu verdoppeln – also vier Mal so viele Pixel wie im Original darzustellen. Die Vervierfachung findet nicht stumpf nach dem Prinzip „Aus einem mach' vier“ statt, sondern intelligent.
Das dem Filter zugrundeliegende neuronale Netzwerk hat Adobe zu diesem Zweck mit Millionen von Fotos trainiert, die den entgegengesetzten Weg gegangen sind: ihre Auflösung wurde halbiert. Das neuronale Netzwerk hat auf diesem Weg gelernt, wie sich die Halbierung der Auflösung auf verschiedene Bildbestandteile auswirkt, und kann dieses Wissen dafür nutzen, um die Auflösung mit „Super Resolution“ zu erhöhen. Dafür vorausgesetzt wird, dass „Super Resolution“ die Inhalte des zu vergrößernden Fotos erfasst hat – und genau diesen Prozess der Mustererkennung beschleunigen Nvidias GPUs in Adobe Camera RAW signifikant.
KI-beschleunigte „Scene Edit Detection“ in Premiere Pro
Auch Premiere Pro macht sich die Leistung von GeForce RTX an immer mehr Stellen zunutze. Die KI-Beschleunigung wird beispielsweise für das neue Feature „Scene Edit Detection“ verwendet. Motivation war auch hier, zeitraubende manuelle Tätigkeiten durch eine künstliche Intelligenz zu ersetzen.
Das Szenario: Ein aus vielen verschiedenen Sequenzen (Clips) erstelltes Video liegt nur noch als finaler Export vor, allerdings muss es noch einmal in seine Einzelteile zerlegt werden – sei es, um einzelne Clips auszutauschen, zu bearbeiten oder in der Reihenfolge zu verändern.
Adobes „Scene Edit Detection“ macht genau das möglich: mit einem Klick. Die AI, beschleunigt durch die Tensor-Cores in Ampere- oder Turing-GPUs, erkennt Schnitte durch die harten Wechsel im Bildinhalt eigenständig und trennt das Video wieder in seine Bestandteile auf. Aus zeitraubender, nerviger Handarbeit wird freies Zeitbudget für die wesentliche Arbeit am Projekt.
KI-beschleunigtes Denoising in Autodesk Arnold, Blender und Co.
Was haben alle modernen Render-Tools gemeinsam? Sie machen Dinge möglich, die sich vor Jahren kaum erträumen ließen, aber deren Berechnung braucht auch auf aktueller Hardware Zeit. Zeit, die Anwender im Workflow oft gerne nicht aufwenden würden. Aber ohne eine detailgetreue Vorschau auf das, was im Programm gerade entworfen wird, lässt es sich ebenso wenig arbeiten.
Ein Ansatz ist es, die Render-Auflösung für die Vorschau signifikant zu reduzieren. Je weniger Pixel gerendert werden, desto schneller ist das Ergebnis sichtbar – und desto mehr Pixel fehlen. Die Vorschau rauscht. Also doch wieder mehr Pixel in der Vorschau rendern und wertvolle Zeit investieren? Nein.
KI, beschleunigt durch Nvidias Tensor-Kerne, kann auch hier helfen. Das Stichwort lautet Denoising (Entrauschen). Dabei ermittelt eine KI, wie die nicht vom Raytracing-Renderer berechneten Pixel aussehen müssten, deren Rendering daraufhin ohne viel Zeitaufwand vonstatten geht. Das Bild in der Vorschau kommt damit zwar nicht an die Brillanz und Korrektheit des fertigen Renderings heran, rauscht aber auch nicht mehr und vermittelt daher ein wesentlich besseres Bild vom finalen Resultat.
In Blender kann dieses Rauschen seit Version 2.83 über die Tensor-Kerne hardwarebeschleunigt werden – Nvidia Optix kann sowohl die RT- als auch die Tensor-Kerne ansprechen. Schon nach wenigen Sekunden liefert die Vorschau so einen Eindruck der fertigen Szene, die mit jeder Sekunde, die gerendert wird, dem fertigen Bild immer näher kommt.
Auch Maya erlaubt es über den Oscar-prämierten Renderer Autodesk Arnold mittlerweile, die RT- und die Tensor-Kerne der Turing-GPU von Nvidia für hardwarebeschleunigtes Raytracing und hardwarebeschleunigtes Denoising einzusetzen. Die Render-Tools Maxon Redshift, Chaos V-Ray und OTOY Octane unterstützen ebenfalls das Viewport-Denoising mit über die Tensor-Kerne beschleunigtem KI-Turbo.
Weitere Vorteile durch GeForce RTX im Studio
GeForce RTX beschleunigt nicht nur immer mehr KI-Workflows in Studio-Apps, in immer mehr Raytracing-Render-Tools können darüber hinaus die RT-Kerne zum Einsatz kommen. Welche Geschwindigkeitszuwächse das zur Folge haben kann, zeigt beispielsweise des Octane-Render-Tools von OTOY oder der Blender-Engine Cycles.
Neben den Shadern, RT- und Tensor-Cores sowie den klassischen ALUs („Shadern“) stellen Nvidias GPUs (in RTX Studio Notebooks) noch zwei weitere Hardware-Einheit zur Verfügung, von denen Programme wie Adobe Premiere Pro, FFmpeg, Handbrake oder Open Broadcaster Software (OBS) profitieren können: den Video-Encoder NVENC sowie den Video-Decoder NVDEC.
Die aktuelle siebte Version in den Ampere-GPUs bietet Unterstützung für die wesentlichen Video-Codes H.264, H.265 (HVEC), VP8 sowie VP9 bis einschließlich 8K bei 30 Hz. Beim Decoding von AV1, dem YouTube-Standard der Zukunft, sind es mit NVDEC sogar 8K bei 60 Hz.
In Adobe Premiere lassen sich Projekte durch Nutzung von NVENC gegenüber der Berechnung auf dem Prozessor deutlich schneller exportieren. Und nicht nur das: Wenn die GPU den Export stemmt, bleibt die CPU-Leistung für andere Aufgaben frei – ohne Leistungseinbußen kann parallel zum Export weitergearbeitet werden. NVDEC beschleunigt wiederum die Arbeit mit dem codierten Video in der Benutzeroberfläche.
Auch Streamer, ganz egal ob bei Twitch oder YouTube, profitieren von NVENC, weil das Encodieren über die GPU den Prozessor entlastet und dessen Leistung damit weiterhin für andere Aufgaben genutzt werden kann. Nvidia-RTX-Studio-Systeme kommen aktuell mit drei Monaten Adobe Creative Cloud gratis zum Käufer.
Über NVENC beschleunigtes Encoding ist eine relativ neue Funktion von Adobe Premiere Pro, schon lange kann die GPU hingegen zur Darstellung der Vorschau eines Videos beim Editieren genutzt werden. Auch komplexe Effekte lassen sich so ohne das Auslassen von Frames in Echtzeit über die „Mercury Playback Engine“ mit CUDA-Support begutachten
Neben Premiere Pro beschleunigen RTX-Studio-Systeme auch andere Anwendungen aus der Creative Cloud, darunter die Bildbearbeitungs-Softwares Adobe Lightroom, After Effects und Dimensions.
RTX-Studio-Notebooks mit Studio-Treibern
Um den großen Vorteil der GPU in den neuen Einsatzgebieten sichtbarer zu machen, hat Nvidia das RTX-Studio-Programm ins Leben gerufen. RTX-Studio-Systeme bieten allerdings mehr als nur eine leistungsstarke, mit aktuellsten Features ausgestattete Nvidia-GPU.
RTX-Studio-Systeme richten sich ganz gezielt an Kreative, deren hohen Ansprüche an Leistung, Stabilität, Mobilität und Design sie mit ausgewählter Hard- und Software gerecht werden.
Das Abzeichen „RTX Studio“ dürfen nur Notebooks tragen, die folgende Anforderungen erfüllen und von Nvidia nach umfangreichen Tests zertifiziert wurden:
- Mindestens GeForce RTX 3000, Titan RTX oder RTX-A-Serie
- Mindestens einen Core i5 10. Gen Core oder Ryzen 5 5000er-Generation
- Mindestens 16 GB RAM (Dual-Channel)
- Mindestens 512 GB SSD-Speicherplatz
- Mindestens FHD (IPS/OLED) mit 100 % sRGB, 99 % Adobe RGB oder 97 % DCI-P3
- Nvidia-Studio-Treiber ab Werk installiert
Ab Werk kommen RTX-Studio-Notebooks mit dem Nvidia-Studio-Treiber, der zwar auch regelmäßig Optimierungen für Spiele aus dem Game-Ready-Treiber erhält, in erster Linie aber die Stabilität und Kompatibilität mit professionellen Anwendungen wie der Adobe Creative Cloud, Maya oder Octane sicherstellt. Der Treiber lässt sich auch auf allen anderen Systemen mit kompatiblen GPUs installieren.
Musik in den Case-Study-Videos von Coma-Media auf Pixabay.