RTX 2070 für Videoschnitt

Moin!

Cadet 2nd Year
Registriert
Okt. 2018
Beiträge
16
Hallo zusammen,

Ich habe mir vor ca. einem dreiviertel Jahr einen neuen PC gekauft (selbst zusammengestellt), der für den 4K Videoschnitt, 3D Programme wie Blender und gelegentlich für ein Spiel wie Shadow of the Tomb Raider oder Assasins Creed ausgelegt wurde. Da ich mir nicht alle Teile auf ein Mal leisten konnte, habe ich ein System mit starkem Prozessor und schwacher "Grafikkarte" zusammengestellt, weiter gespart und möchte nun eine entsprechende Grafikkarte aufrüsten. Mein System besteht bis jetzt aus:

Ryzen 7 1700X
MSI B350 PC Mate
16 GB Corsair Vengeance LPX DDR4-3000 CL15
2GB MSI Geforce GT 710 Passiv
und dem 600 Watt BeQuiet! Straight Power 10 (etwas überdimensioniert)

Nun wollte ich eine ASUS Strix GTX 1070 TI (OC) dafür kaufen, die kostet ca. 460€, dann habe ich gesehen, dass eine RTX 2070 nur 519€ kostet, z.B.: https://geizhals.de/msi-geforce-rtx-2070-armor-8g-v373-014r-a1908115.html?hloc=at&hloc=de
oder : https://geizhals.de/gigabyte-geforc...gv-n2070wf3-8gc-a1908212.html?hloc=at&hloc=de

Meine Frage ist nun, ob sich der Aufpreis lohnt (für den selben Aufpreis bekommt man eine 1080), um in die neue Technologie zu investieren oder ist raytracing sogar hinderlich für den Videoschnitt? Ich spiele in WQHD gerne mit hohen bis sehr hohen Einstellungen.

Vielen Dank, Moin!

P.S.: Ich bin ganz neu hier im Forum, wenn ich also etwas falsch mache, verzeiht es mir bitte . :)
 
Hallo erstmal!

Zum schneiden von Videos braucht es ja eigentlich keine starke Grafikkarte. Zum Spielen in WQHD schon. Bezieht sich Deine Frage jetzt auf das schneiden oder auf das Spielen?
 
Ned Flanders schrieb:
Hallo erstmal!

Zum schneiden von Videos braucht es ja eigentlich keine starke Grafikkarte. Zum Spielen in WQHD schon. Bezieht sich Deine Frage jetzt auf das schneiden oder auf das Spielen?

Das kommt ganz auf das Schnittprogramm an. Davinci Resolve läuft ordentliche Grafikkarte schleppend und beim Exportieren und für Effekte werden auch Grafikkarten eingesetzt und die Sache zu beschleunigen. Ich denke, die GTX1070 reicht mit Leichtigkeit auch für 4K aus. Vielleicht nicht für Videos mit Unmengen an Bitrate, aber für Privatpersonen erschwingliche Geräte sicher mehr als ausreichend.
 
Das hier sollte dich interessieren

I had a few members of a greek forum to test their new RTX 2080 and RTX 2080 Ti in NVENC. The results are really bad. Performance is lower than GTX 1070 Ti with single encode (240-260 fps for turing vs 310 fps for Pascal (1070ti) in command: ffmpeg.exe -hwaccel cuvid -c:v h264_cuvid -f mpegts -i HD-h264.ts -vcodec h264_nvenc -preset slow -c:a copy -f mpegts -y output.ts
Input file is from ffmpeg samples, url: https://samples.ffmpeg.org/V-codecs/h264/HD-h264.ts
Tests were done in Windows since owners got the cards for gaming and don't have Linux.

And the worst thing, both RTX 2080 and 2080 Ti drop to half performance with 2 concurrent encodes, indicating only 1 NVENC.

So, if you need NVENC performance, you should stick with Pascal, at least for now. Epic fail for Turing.

https://devtalk.nvidia.com/default/topic/1038493/details-about-nvenc-in-turing-/

Wenn das stimmen sollte, wäre das ein starkes Stück.
 
Danke für den Link. Stehe gerade auch vor der Wahl GTX 1070 Ti oder Rtx 2070. Dabei geht es in erster Linie um Videokodierungen mit GPU Support.

Ich denke, mit Pascal ist man da momentan wohl eher auf der richtig(eren), sichereren Seite, falls das ganze stimmen sollte.

Solange sich Nvidia nicht offiziell dazu äußert, kaufe ich mir keine Touring.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: raphe
@Janami25 schau dir mal folgende beiden Links an (vielleicht aktualisiert nVidia bald die Matrix um Turing)

https://developer.nvidia.com/nvidia-video-codec-sdk
https://developer.nvidia.com/video-encode-decode-gpu-support-matrix

da siehst du auch,dass GeForce GTX 1070 - 1080 2 Encoding-Chips an board haben. Einfachere Modelle und eben ggf. Turing haben nur einen.

Beim Thema Videoschnitt kommt es darauf an, wie deine Software das einsetz. z.b. Corel Video Studio hat das nicht nur zum Erstellen der Ergebnisdatei verwendet sondern auch die Videoclips mit denen du arbeitest von UHD/FullHD verkleinert, um die Latenz beim Arbeiten etwas zu verringern. Man Arbeitet dann quasi nur mit kleinen Clips und die hochauflösenden Dateien werden erst zum Schluss wieder verwendet.

Funfact: Unter "Max # of concurrent sessions" beschreibt nVidia, wieviele gleichzeitige Encodiervorgänge von der Karte unterstützt werden - die Limitierung ist rein treiberseitig. Jede Karte könnte unbegrenzt - müsste sich dann die Performance mit den anderen Encodiervorgängen teilen. So werden Leute, die mehr benötigen zu den teilweise schwächeren und teuereren Quadro/Tesla-Karten getrieben.
 
Zuletzt bearbeitet:
Ich arbeite nicht mit "Shadow Files", falls es das ist was du meinst. ;)

Die Links habe ich bereits gesehen, Danke. Das stimmt mich nicht "freudig" mit Touring. Eine GTX 1070 rendert bei mir in PowerDirector 16+17 bedeutend schneller (als diese mal testweise bei mir verbaut war), als eine GTX 1060 (die nur einen NVENC Kern hat, und die ich heute noch nutze). Und somit bevorzuge ich eigentlich die Paralellisierung mit 2 NVENC Kernen, erst recht wenn das Material inzwischen HEVC 4K 60fps ist.

Was nützt mir da die treiberseitige Paralellisierung, wenn es nur einen Kern dafür gibt ?

Ich mache ja nicht mehrere Kodiervorgänge gleichzeitig, auch nicht beim Coding von Filmen, sondern möchte - falls die Software das unterstützt - auch beide Kerne paralell nutzen für eine Kodierung.

Wenn Touring tatsächlich nur noch einen NVENC Kern besitzt, ist dieser mit mehr Einheiten oder anders strukturiert ? Dann könnte es tatsächlich treiberseitig eine Bremse geben, die den Kern nach "altem Pascal Schema" anspricht. Ehrlich gesagt, glaube ich aber nicht daran. Eher, das man zugunsten DLLS und Raytracing auf einen NVENC Kern verzichtet hat.

Das NVDEC steht auf einem anderen Blatt. Das wird in PD16+17 zwar unterstützt, aber nur bei bestimmten Effekten, leider. Aber ein arbeiten ist problemlos möglich, wenn die CPU flott genug ist. In meinem Fall eine Core i7 8700, die ist schnell genug.

Für mich ist das ganze - wenn es denn tatsächlich so bleibt - ein grosser Rückschritt in "Touring".

Obwohl - und da muss man sich nichts vormachen - der grösste Teil der (Consumer) Rendersoftware (oder Kodiersoftware) nur 1 NVENC Kern nutzt. Da gibt es genug Kandidaten.

Aber bald wird sowieso etliches nur noch treiberseitig auf "Touring" optimiert, Pascal wird dann eh links liegen gelassen, leider. Erst recht bei den Entwicklern der Videosoftware.

Mit der Intel iGPU UHD 630 läuft das 4K rendern in 60fps einfach zu langsam, das ist nur in Ausnahmefällen eine Option für mich. Auch wenn es qualitativ super aussieht. Aber das finde ich ist mit NVENC und Pascal auch so, sonst würde ich es nicht nutzen.

Ich bin jetzt nicht so der grosse Experte, falls ich falsch liege, korrigier mich. ;)
 
Erstmal vielen Dank für die zahlreichen Beiträge!
Ich schneide und exportiere mit der Adobe-Cloud, DaVinci Resolve, Vegas und mache die 3D Animationen in Blender.
Unterstützt wenigstens eines dieser Programme zwei NVENC Kerne gleichzeitig?
Wenn nämlich eh nur ein Kern auf einmal unterstützt wird, dann kann man ja getrost zur 2070 greifen, hat die neuere Technologie und beim Rendern keinen Leistungsverlust, im Vergleich zur 1070 ti.
Einen weiteren Vorteil hat die rtx 2070 auch noch: GDDR6 Speicher, der aber so weit ich weiß bei der Videobearbeitung (fast) keinen Einfluss hat.
Ich hoffe, das ist logisch. :)
 
Für mich hätte die RTX 2070 eigentlich überhaupt gar keinen Vorteil, wenn NVENC tatsächlich beschnitten sein sollte. Ich mache weder GPU Computing, noch spiele ich. Dann kann ich auch meine GTX 1060 behalten.

Ich kann dir nicht sagen, ob eines der Programme, die nutzt, auch mehrere Kerne gleichzeitig ansprechen (können). Bei Vegas und Adobe Premiere würde es mich aber nicht überraschen, da die ja eher für Pro Videobearbeitung stehen.

Letztendlich kann man das aber nur sicher sagen, indem man selbst testet. Und dahingehend sind die GeForce Treiber bei der RTX 2070 ja noch sehr frisch. Auch wenn erste Tests hier im Nvidia Forum weiss Gott nicht so positiv zu sein scheinen.

Offiziell gibt es leider auch erst mal gar nichts...
 
Hier habe ich noch einen interessanten Beitrag in einem Video von Linu's Tech Tipps gefunden, in dem man sieht, dass die RTX 2070 im Video Rendern wesentlich besser als die GTX 1080 und die besser als die GTX 1070 ti ist.
Die Entscheidung ist also relativ klar : RTX 2070.
Hier der Link zum Video:
Man beachte, 1070 und 1080 sind vertauscht!

Screenshot.png
 
Zuletzt bearbeitet:
Zurück
Oben