Kombination CPU/GPU für Videobearbeitung - 5070+ultra9 285k oder 5070ti+ultra7 265k

G.E.D

Newbie
Registriert
Apr. 2025
Beiträge
4
Guten Tag in diese Runde,

ich befasse mich seit einigen Jahren mit dem Filmen und der Videobearbeitung. Bislang habe ich immer mit Laptops gearbetet und Davinci Resolve. Früher auf Full-HD ging das auch problemlos. Vor vier Jahren habe ich mein jüngstes Laptop gekauft, aber leider (mangels Wissen) nicht auf die Grafikkarte geachtet. Darin befindet sich leider nur eine 3050ti Laptop-GPU mit 4 GB. Das reicht zwar in der Regel an einem 4K-Bildschirm für 4K-Schnitt, macht aber nicht wirklich Spaß, weil es bei weichen Übergängen oder den kleinsten GPU-beschleunigten Effekten zu Rucklern kommt.

Der Prozessor ist ein I7 12.700H. Den Arbeitsspeicher habe ich von 16 auf 32 GB erweitert.

Das nächste ist, dass ich mittlerweile kaum noch ein Laptop mit mir herumtrage, seit wir bei der Arbeit mit Laptops (Bürorechner) ausgestattet sind. Mein eigenes steht im Grunde seit fast zwei Jahren an ein und derselben Stelle - wie ein Desktoprechner eben.

Nun zu meiner Frage. Ich stelle mir gerade einen Rechner online speziell für die Videobearbeitung zusammen. Ausdrücklich vorweg: Ich mache mit dem Rechner KEINE SPIELE, sondern brauche ihn vor allem für Video- und Fotobearbeitung und für den normalen Schreibkram. Ich bin also absolut kein Gamer.

Ich stehe jetzt budgetbedingt vor der Frage, ob ich die Kombination

Intel Ultra 9 285k mit der Geforce 5070

wähle, oder

Intel Ultra 7 265k mit der Geforce 5070ti.

Was macht für 4K-Videoschnitt mehr Sinn? Ich weiß, dass der Prozessor dabei wichtiger ist, aber wie ich gelesen habe, sollen die Unterschiede zwischen dem Ultra 9 und dem Ultra7 gar nicht so groß sein.

Der Ultra 9 mit der 5070ti wäre schön, aber würde mein Budget noch mehr überreizen, als es die beiden anderen Varianten tun (da wäre es aber gerade noch erträglich).

Für kompetente Hilfe bedanke ich mich schon jetzt.

G.E.D.
 
Zuletzt bearbeitet:
Nutzt du bzw deine Software die GPU beim schneiden/rendern so viel?

285k + 5070 ist denke ich die bessere Wahl...

EDIT: ...wenn eine dedizierte GPU überhaupt notwendig ist, denn immerhin hat die CPU auch einen Grafikchip der massiv helfen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: G.E.D
https://www.pugetsystems.com/labs/a...amd-ryzen-9000-series-vs-intel-core-14th-gen/

https://www.pugetsystems.com/labs/articles/do-video-editors-need-geforce-rtx-50-series-gpus/
11.04.2025 Zitat: "However, as of Resolve 19.1.4, GeForce RTX 50 Series GPUs are not yet supported for hardware-accelerated decoding and encoding as this version of Resolve is not programmed to support Blackwell Architecture, but users can test these features in Resolve 20 Public Beta Version 1."

https://www.pugetsystems.com/labs/a...ore_Ultra_200S_for_Blackmagic_DaVinci_Resolve

G.E.D schrieb:
Ich stelle mir gerade einen Rechner online speziell für die Videobearbeitung zusammen. Ausdrücklich vorweg: Ich mache mit dem Rechner KEINE SPIELE, sondern brauche ihn vor allem für Video- und Fotobearbeitung
Das einfachste wäre ja wenn du auf Arbeit auch Davinci nutzt nachzugucken was in dem Gerät steckt. Dann kannst du dich daran orientieren was du brauchst und wo wirklich die Flaschenhälse liegen, also bei CPU, Ram, Grafikkarte oder SSD.
 
  • Gefällt mir
Reaktionen: G.E.D
SpiII schrieb:
Nutzt du bzw deine Software die GPU beim schneiden/rendern so viel?

285k + 5070 ist denke ich die bessere Wahl.
Hallo,

sorry, aber da sind meine Hardware-Kenntnisse echt "beschnitten". Ich rendere die Filme, weiß aber nicht, welche GPU Davinci dazu nutzt.
Ergänzung ()

K3ks schrieb:
Willkommen im Forum.

Desktop-Computer: Kaufberatung:
https://www.computerbase.de/forum/forums/desktop-computer-kaufberatung.65/
https://www.computerbase.de/forum/forums/desktop-computer-kaufberatung.65/post-thread

Wenn deine SW die Nvidia-Pixelschleuder nicht nutzt: Core 285 und so viel RAM wie möglich nötig.
Hallo ....

äh... "SW"?
 
Würde den 285k nehmen und erst mal ohne dGPU testen.

Erst bei Bedarf dann eine dGPU dazu.
 
  • Gefällt mir
Reaktionen: G.E.D, SpiII und K3ks
G.E.D schrieb:
Software für die du gerade HW also Hardware kaufen willst. -> Wird da der teure Grafikrechenprügel nicht genutzt dann sind die 600€-1000€ für nichts, musst halt schauen...

Edit: Hier ist die Kaufberatung:
K3ks schrieb:
 
  • Gefällt mir
Reaktionen: G.E.D
till69 schrieb:
Würde den 285k nehmen und erst mal ohne dGPU testen.

Erst bei Bedarf dann eine dGPU dazu.
Hallo, vielen Dank.

Also kann es auch sein, dass die "eingebaute GPU" auf dem Prozessor reicht?

Ich weiß nicht, ob ich das gerade richtig gemacht habe. Ich habe den Task-Manager an und sehe mir unter "Leistung" die Reaktion der beiden Grafikkarten an. die eingebaute intel-GPU läuft beim Abspielen einer Timeline mit ein paar Effekten zum Testen auf mehr als 50 Prozent. Die 3050ti rührt sich allerdings kaum.

Auch wenn ich gerade mal zwei oder drei 4k-Spuren übereinanderlege (das ruckelt dann wenigstens mit Effekten) springt die 3050ti nur marginal an, während die eingebaute GPU an Anschlag steht. Das sehe ich gerade zum ersten Mal so. Wofür die die 3050ti dann überhaupt da?
Ergänzung ()

ruthi91 schrieb:
https://www.pugetsystems.com/labs/a...amd-ryzen-9000-series-vs-intel-core-14th-gen/

https://www.pugetsystems.com/labs/articles/do-video-editors-need-geforce-rtx-50-series-gpus/
11.04.2025 Zitat: "However, as of Resolve 19.1.4, GeForce RTX 50 Series GPUs are not yet supported for hardware-accelerated decoding and encoding as this version of Resolve is not programmed to support Blackwell Architecture, but users can test these features in Resolve 20 Public Beta Version 1."

https://www.pugetsystems.com/labs/a...ore_Ultra_200S_for_Blackmagic_DaVinci_Resolve


Das einfachste wäre ja wenn du auf Arbeit auch Davinci nutzt nachzugucken was in dem Gerät steckt. Dann kannst du dich daran orientieren was du brauchst und wo wirklich die Flaschenhälse liegen, also bei CPU, Ram, Grafikkarte oder SSD.
Hallo,

ach so, nein sorry. Auf den Laptops bei der Arbeit (Zeitungsredaktion) schneide ich keine Videos, sondern bearbeite nur ein paar Bilder. Früher hatte ich extra mein Laptop immer dabei, weil Bildbearbeitungsprogramm nur auf einem Rechner in der Redaktion installiert waren.
Ergänzung ()

Ich habe das mit dem Task-Manager vorhin mal in einem Youtube-Video gesehen und deshalb mal ausprobiert. Aber ja mal meine Frage? Warum unterstützt die 3050ti denn nicht, wenn die iGPU schon am Anschlag steht? Ich habe das immer so verstanden, dass die iGPU im Grunde nur dazu da ist, um die Bildschirmoberfläche bzw. Programmoberflächen darzustellen und im Vergleich zu eigenen Grafikkarten eher schwachbrüstig ist und nur im Notfall die dedizierte GPU unterstützt, wenn die am Anschlag ist.

Aber ich glaube, dass dann wohl eher der Prozessor in dem Rechner das Problem ist, wenn es ruckelt oder stockt.

Ich möchte mich aber schon mal sehr bedanken. Das hat mir auf jeden Fall geholfen bei der Entscheidung jedenfalls NICHT die 5070ti zu kaufen. :-)

G.E.D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SpiII
G.E.D schrieb:
Aber ja mal meine Frage? Warum unterstützt die 3050ti denn nicht, wenn die iGPU schon am Anschlag steht? Ich habe das immer so verstanden, dass die iGPU im Grunde nur dazu da ist, um die Bildschirmoberfläche bzw. Programmoberflächen darzustellen und im Vergleich zu eigenen Grafikkarten eher schwachbrüstig ist und nur im Notfall die dedizierte GPU unterstützt, wenn die am Anschlag ist.
Das ist alles sehr spezifisch vom Programm abhängig und den verwendeten Effekten. Es arbeiten ja auch etliche Leute erfolgreich auf nem Mac ohne das Hardware von AMD, Nvidia oder Intel drinsteckt.

Ich kann persönlich nur von einem Fall berichten vor ein paar Jahren bezüglich Adobe Premiere, da hieß es die Grafikkarte sollte/muss für 4K Material mindestens 6GB Speicher haben.

Der Dreh und Angelpunkt bei Intel Prozessoren diesbezüglich ist deren onboard Grafik (iGPU), weil sie Quicksync können und das von ein paar Programmen gut genutzt wird.

Ich denke daher eine 5070 sollte vollkommen ausreichen und bietet dank neuester Hardware Generation auch Verbesserungspotenzial bei Unterstützung für zukünftige Updates und AI:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5070-test.91530/seite-6
https://www.pugetsystems.com/labs/articles/davinci-resolve-studio-18-6-gpu-performance-analysis/
Zumal sie preislich auch in der Gemengelage 4070 / 4070 Super / 4070Ti liegt. Und da die alten Karten nicht billiger sind, warum alt kaufen...
 
  • Gefällt mir
Reaktionen: G.E.D
Hallo, nach meiner langjährigen Erfahrung mit diversen Videoschnittprogrammen ist es leider oft nicht ganz einfach festzustellen, warum es hakt oder ruckelt. Es gibt einfach zu viele Parameter und Codecs, Effekte und Filter, welche auf die Leistung des Bearbeitungsvorganges Einfluss nehmen können - Unkenntnis darüber können schnell zu teuren Fehlinvestitionen führen.
Zurück zur Ausgangsfrage - prinzipiell unterstütz nur die (kostenpflichtige) Studio-Variante von DaVinci Resolve hardwarebeschleunigte Funktionen! Ich bin vor Kurzem auf eine RTX 5070 Ti umgestiegen, da diese Generation von Nvidia erstmals Hardwaredecoder für H265 / 422 / 10 Bit an Board hat, welches aus meiner Canon R6 MkII verarbeitet werden will. Bislang musste die Decodierarbeit der Prozessor alleine bewältigen, was schon beim Navigieren auf der Timeline keinen Spass machte und diesen voll auslastete. Vor ein paar Tagen kam dann die erste Beta der Version 20 von DaVinci Resolve heraus und siehe da - nun wird die GPU zur Decodierung des Materials herangezogen und es ist ein ganz anderes Arbeiten.
Also immer erst alle Randbedingungen checken, bevor man versucht, mit viel Geld Abhilfe zu schaffen.
 
  • Gefällt mir
Reaktionen: G.E.D
ruthi91 schrieb:
Das ist alles sehr spezifisch vom Programm abhängig und den verwendeten Effekten. Es arbeiten ja auch etliche Leute erfolgreich auf nem Mac ohne das Hardware von AMD, Nvidia oder Intel drinsteckt.

Ich kann persönlich nur von einem Fall berichten vor ein paar Jahren bezüglich Adobe Premiere, da hieß es die Grafikkarte sollte/muss für 4K Material mindestens 6GB Speicher haben.

Der Dreh und Angelpunkt bei Intel Prozessoren diesbezüglich ist deren onboard Grafik (iGPU), weil sie Quicksync können und das von ein paar Programmen gut genutzt wird.

Ich denke daher eine 5070 sollte vollkommen ausreichen und bietet dank neuester Hardware Generation auch Verbesserungspotenzial bei Unterstützung für zukünftige Updates und AI:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5070-test.91530/seite-6
https://www.pugetsystems.com/labs/articles/davinci-resolve-studio-18-6-gpu-performance-analysis/
Zumal sie preislich auch in der Gemengelage 4070 / 4070 Super / 4070Ti liegt. Und da die alten Karten nicht billiger sind, warum alt kaufen...
Perfekt - vielen lieben Dank für die Info.
Ergänzung ()

ChivasHS schrieb:
Hallo, nach meiner langjährigen Erfahrung mit diversen Videoschnittprogrammen ist es leider oft nicht ganz einfach festzustellen, warum es hakt oder ruckelt. Es gibt einfach zu viele Parameter und Codecs, Effekte und Filter, welche auf die Leistung des Bearbeitungsvorganges Einfluss nehmen können - Unkenntnis darüber können schnell zu teuren Fehlinvestitionen führen.
Zurück zur Ausgangsfrage - prinzipiell unterstütz nur die (kostenpflichtige) Studio-Variante von DaVinci Resolve hardwarebeschleunigte Funktionen! Ich bin vor Kurzem auf eine RTX 5070 Ti umgestiegen, da diese Generation von Nvidia erstmals Hardwaredecoder für H265 / 422 / 10 Bit an Board hat, welches aus meiner Canon R6 MkII verarbeitet werden will. Bislang musste die Decodierarbeit der Prozessor alleine bewältigen, was schon beim Navigieren auf der Timeline keinen Spass machte und diesen voll auslastete. Vor ein paar Tagen kam dann die erste Beta der Version 20 von DaVinci Resolve heraus und siehe da - nun wird die GPU zur Decodierung des Materials herangezogen und es ist ein ganz anderes Arbeiten.
Also immer erst alle Randbedingungen checken, bevor man versucht, mit viel Geld Abhilfe zu schaffen.
Super, dankeschön dafür. Ja, ich nutze die Studio-Version von Davinci auch. Aber eben noch die 19.1.
 
Zurück
Oben