RTX 4090 24GB vs RTX 4080 16GB für 4k +HDR Videobearbeitung

_Schotty

Cadet 1st Year
Registriert
Juni 2022
Beiträge
15
[Bitte fülle den folgenden Fragebogen unbedingt vollständig aus, damit andere Nutzer dir effizient helfen können. Danke! :)]


1. Wie viel Geld bist du bereit auszugeben?
… ab 1200 Euro - 2800 Euro

2. Möchtest du mit der Grafikkarte spielen?
NEIN!

3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?

... DaVinci Resolve Studio 18.1.3 -- Adobe Premiere Pro + After Effects -- Professionelle Videobearbeitung + Color Grading

4. . Wieviele und welche Monitore möchtest du nutzen? Wird G-Sync/FreeSync unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)
... 2 - 3
ASUS ProArt PA32UCG , ASUS ProArt PA32UCX-PK & ASUS ProArt 329C

5. Nenne uns bitte deine aktuelle/bisherige Hardware:
  • Prozessor (CPU): … Intel Core i9-10920X, 12C -- CPU @ 3.50GHz 3.50 GHz -- 64 GB RAM -- Win 10 Pro (Version 22H2) / 64bit
  • Aktuelle/Bisherige Grafikkarte (GPU): ... NVIDIA Quadro RTX 4000
  • Netzteil(Genaue Bezeichnung): … CELSIUS M7010Xpower (S26361-K1507-V565)
  • Gehäuse: … Fujitsu Workstation CELSIUS M7010X
6. Hast du besondere Wünsche bezüglich der Grafikkarte? (Lautstärke, Anschlüsse, Farbe, Hersteller, Beleuchtung etc.)
... Color Grading + Videoschnitt in einer TIMELINE 4K + HDR Videobearbeitung

7. Wann möchtest du die Karte kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?
Möglichst sofort!

...
 
Zuletzt bearbeitet:
abgesehen vom Windows.. hast du aufs falsche Pferd gesetzt? Mac mit M1 Ultra oder M2 sollte der RTX überlegen sein und von der Energieeffizienz sowieso?
 
Ich habe heute erst gehört, dass Intels Raptor Lake (13.000er) einen gehörigen Sprung bei der nativen unterstützung von Videocodecs gemacht hat. So sollen gerade Clips aus längeren Dateien in der Timeline nicht mehr ins Stottern kommen. Und nein, das hat wohl mit der Grafikkarte wenig zu tun.
 
  • Gefällt mir
Reaktionen: _Schotty
Der Schritt von der RTX 4000 zur RTX A4000 ist enorm. Leider macht die Investition aktuell wenig Sinn, weil die Adas vor der Tür stehen und damit erneut ein großer Leistungssprung zu erwartzen ist. Bis jetzt gibt es nur die 6000er Ada im fünfstelligen Bereich.
 
Ähm...
beim NVIDIA GeForce RTX 4090 - 24GB GDDR6X - Desktop
ChipAD102-300-A1 "Ada Lovelace", 128SM, 608mm²


beim NVIDIA GeForce RTX 4080 - 16GB GDDR6X - Desktop
ChipAD103-300-A1 "Ada Lovelace", 76SM, 379mm²


Oder handelt es sich hier um eine andere ADA-Generation?

Die Quadro´s sind für eine Videobearbeitung & für´s Color-Grading weniger geeignet.
 
Jo wenn man keine Ahnung hat...
schon mal gelesen:
Nvidia zieht die Preise an
https://www.giga.de/news/nvidia-zieht-die-preise-an-neue-grafikkarte-kostet-6.000-euro-xyz/

Betrifft besonders die Profikarte: RTX 6000 Ada
https://geizhals.de/pny-rtx-6000-ada-vcnrtx6000ada-sb-a2881054.html


Aber ich finde es besonders nett von Dir, das Du mir die Karte spendieren möchtest, meine Kontonummer folgt in einer PN!
Ernsthaft: Die Karte ist für mich und mein tun überdimensioniert!
Aber wenn du sie mir dennoch zukommen lassen möchtest... ;o) ;o)

Und bei den RTX 4090 & RTX 4080 wurden FAKE ADA Chips verbaut... klaro...
 
Ihr redet aber ziemlich aneinander vorbei, vor allem in einem seltsam angespannten Tonfall. Klar ist Ada in den 6000ern zu teuer und klar sind sie auch in den RTX 4000ern... Die Frage ist am Ende eben, was sinnvoll ist. Mit RTX vergleichen die verlinkten Benchmarks ja nicht.
 
  • Gefällt mir
Reaktionen: _Schotty
Also für mich steht zur Auswahl:
NVIDIA GeForce RTX 4090 - 24GB GDDR6X & die
NVIDIA GeForce RTX 4080 - 16GB GDDR6X

was würdet ihr für ein 4k / 6k BWAW 3:1 + HDR Schnitt & Grading empfehlen?

Grüße T.
 
Ich muss bei der Frage eher an Spezialforen wie slashcam denken. Würde mich da mal über den Workflow beraten lassen. Ansonsten verweise ich auf Post #4. Quelle: Professioneller (Film-)Kameramann und Editor.
 
  • Gefällt mir
Reaktionen: _Schotty
Ergänzung: Mit Raptor Lake soll wohl Intels Quicksync erheblich verbessert worden sein. Daher die Performancesteigerungen. Meld dich gerne mal hier, was bei slashcam rumkam, falls du dich dort beraten lässt. :)

Edit: Sorry für doppelten Beitrag, ich dachte der wird automatisch in den letzten eingepflegt.
 
Zurück
Oben