VRAM vs. Leistung bei Nvidia (kein Gaming!)

Juleru

Lt. Junior Grade
Registriert
Juni 2006
Beiträge
286
Hallo zusammen,

ich stelle gerade einen neuen PC zusammen, mit dem in naher Zukunft 3D Modelle automatisch berechnet, konvertiert (dafür gibt es spezielle Programme und Libraries) und eventuell nachträglich noch händisch bearbeitet (vermutlich mit Meshlab oder Blender) werden sollen. Größe: Durchschnittlich 100mb, aber pro Projekt sind es 1000-2000 Modelle und es wäre supper, wenn man ca. 5 davon gleichzeitig berechnen lassen könnte. Der PC wird nicht für's Spielen benutzt, sondern eben nur für die Modelle, vermutlich mit einem 1080p Monitor.

Es werden dafür fix ein i7-14700k (wegen höherem Basistakt, wird aber nicht übertaktet) und 64GB RAM gekauft, fehlt jetzt nur die Graka (<700€):

Nvidia ist für's Arbeiten angeblich um einiges besser als AMD, ich überlege daher hin- und her zwischen der RTX 4060 Ti (16GB VRAM) und der RTX 4070 Super (12GB VRAM) - von beiden lacht mich das "Ventus 2X"-Modell an (s. Links), ich weiß allerdings, dass MSI bei der regulären 4070 Probleme mit überhitzen hatte - wurde das inzwischen mit der "Super" behoben? Erstere hat mehr VRAM, letztere bringt um einiges mehr Leistung, hat dafür aber weniger VRAM.

Ja, ich weiß, es gibt auch eine 4070 Ti Super mit 16GB VRAM, aber die 850-900€ sind zu teuer und ich möchte nicht gebraucht oder ein altes Modell kaufen.

Ich stehe daher vor der Frage: Was ist für meinen Verwendungszweck wichtiger: VRAM oder Leistung? Sprich: 4060Ti oder 4070 Super?

Danke im Voraus!
 
Juleru schrieb:
Was ist für meinen Verwendungszweck wichtiger: VRAM oder Leistung?
Wir kennen deine Software ja nicht und ob die die Grafikkarte mit zur Berechnung nutzt.
Ein Bild auf die Monitore bekommst du auch von der Onboard Grafik des 14700K.
Juleru schrieb:
Es werden dafür fix ein i7-14700k (wegen höherem Basistakt, wird aber nicht übertaktet)
Das von AMD der 9950X kurz bevorsteht ist bekannt?
Den Basistakt siehst du so oder so nicht, da Intel beim Powerlimit im Desktop hemmungslos übertreibt.

1719829213546.png


1719829238449.png


Für mehr Infos bezüglich Grafikkarten im Bereich Content Creation:
https://www.pugetsystems.com/labs/a...-rtx-40-super-series-content-creation-review/

Wenns hart auf hart kommt, willst du sogar die 24GB der 3090 oder 4090 haben.
Kenne ich aber aktuell nur aus dem Bereich Machine Learning und AI Bildgeneration.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerFakeAccount, coxon, Shio und eine weitere Person
Machne diese "speziellen Programme und Libraries" keine Angaben dazu, unter welchen Bedingungen und mit welcher Hardware das gut funktioniert?
 
  • Gefällt mir
Reaktionen: Gigaherz
  • Gefällt mir
Reaktionen: Sinatra81 und Juleru
Ich habe die MSI GeForce RTX 4070 SUPER Ventus 2X OC, nutze sie unter anderem für GPU Rendering (Redshift, Blender Cycles). bei Renderern die RTX nutzen bietet die sehr viel Leistung fürs Geld. Da in dem Fall die Einheiten die für Rasterizer Grafik nicht genutzt werden läuft die Karte auch nicht im Maximum. Aber auch bei Gaming hatte ich keine Überhitzungsprobleme.
Klar sind RTX4090 nochmal viel schneller, aber eben auch viel teurer. Kürzlich hatte ich ein C4d Redshift Projekt mit ner Menge Geometrie und Texturdaten (1,5 GB reine Projektgröße ohne Texturen) und hatte keine Probleme wegen des GPU RAM. Hier ein interessanter Test einer Seite, die sich mit Hardware Leistung für 3d/VFX/Editing befasst: https://www.cgdirector.com/nvidia-rtx-4070-super-review/
LG Niklas
 
  • Gefällt mir
Reaktionen: frames p. joule
Juleru schrieb:
wenn man ca. 5 davon gleichzeitig berechnen lassen könnte
Benötigst du das für irgendeinen speziellen Workflow? Falls nicht, würde ich auf parallele Berechnung verzichten, wird bei ner GPU nahezu null Unterschied bei der Gesamtzeit ausmachen.
 
ruthi91 schrieb:
Wir kennen deine Software ja nicht und ob die die Grafikkarte mit zur Berechnung nutzt.
Die Modelle werden von einem eigenen Programm erzeugt (nur CPU), komprimiert wird mit Meshlab über ein Script (GPU, denke ich?) und konvertiert mit 3DHOP / Nexus (GPU-Auslastung auf dem alten PC immer sehr hoch, also vermutlich GPU). Bearbeiten anschließend mit Blender oder Meshlab - zumindest bei Meshlab kann man GPU-Rendering einstellen.
ruthi91 schrieb:
Das von AMD der 9950X kurz bevorsteht ist bekannt?
Nein. Habe etwas gegoogelt und bei Fragen, ob man für "productivity" (ohne Gaming) auf den 14700k oder das ähnliche AMD-Modell (Ryzen 7 7800x3d oder 7900X) setzen soll, wird von 90% der Leute Intel empfohlen.
Der PC soll jetzt gekauft werden und ich bevorzuge so oder so Intel, weil ich mit denen gute Erfahrungen gemacht habe, noch nie Probleme hatte und für so eine wichtigen PC nicht das erste Mal AMD benutzen möchte.
Die einzige Frage, die bei dem i7 bleibt, ist, ob ich ein B760 oder Z790 Board nehmen soll (auch ohne übertakten) - aber das hier ist ja das Graka-Subforum.
ruthi91 schrieb:
Den Basistakt siehst du so oder so nicht, da Intel beim Powerlimit im Desktop hemmungslos übertreibt.
Sorry, verstehe nicht ganz, was ich auf den Bildern erkennen soll? Dass der i7 wärmer wird und mehr Strom verbraucht als ein Vergleichs-AMD? Solange die Leistung besser ist, ist mir das egal, wenn ich ehrlich bin.
ruthi91 schrieb:
Danke, lese ich mir gleich durch.

frames p. joule schrieb:
Machne diese "speziellen Programme und Libraries" keine Angaben dazu, unter welchen Bedingungen und mit welcher Hardware das gut funktioniert?
Bisher habe ich nicht dazu gefunden. Habe ^ zwei davon verlinkt, aber das sind eben Nischenprodukte.

Gigaherz schrieb:
Schau mal aufs Budget ;)
Ding, Ding, Ding!

kartoffelpü schrieb:
Benötigst du das für irgendeinen speziellen Workflow? Falls nicht, würde ich auf parallele Berechnung verzichten, wird bei ner GPU nahezu null Unterschied bei der Gesamtzeit ausmachen.
Nein, ob parallel oder seriell, ist eigentlich egal (denke ich mal). Ich weiß nicht, wie die Berechnung genau funktioniert, sprich, ob er fix alle Ressourcen pro Modell benutzt (dann wäre parallel eh kontraproduktiv) oder nur einen gewissen Prozentsatz (dann wäre es ev. sinnvoll).
 
Juleru schrieb:
Nein. Habe etwas gegoogelt und bei Fragen, ob man für "productivity" (ohne Gaming) auf den 14700k oder das ähnliche AMD-Modell (Ryzen 7 7800x3d oder 7900X) setzen soll, wird von 90% der Leute Intel empfohlen.
Weil 90% der Leute eben keine Ahnung haben.
Aber du hast dich doch so oder so schon entscheiden also kauf das Zeug doch einfach.
 
  • Gefällt mir
Reaktionen: Ruptarr, DerFakeAccount und Matthias80
nogohome schrieb:
Ich habe die MSI GeForce RTX 4070 SUPER Ventus 2X OC, nutze sie unter anderem für GPU Rendering...
Entschuldigung, habe deine Post komplett übersehen.
Danke, interessant! Auf wie viel VRAM kam er denn bei deinem Riesenprojekt?

Lee Monade schrieb:
Weil 90% der Leute eben keine Ahnung haben.
Aber du hast dich doch so oder so schon entscheiden also kauf das Zeug doch einfach.
Was die CPU angeht, ja, aber nicht bei der Graka, um die es in diesem Thread geht.
 
Gigaherz schrieb:
Schau mal aufs Budget ;)
...ja okay, ich hab allerdings immer weniger den Eindruck, dass der TE weiß was er tut oder wie was in seinem "Großprojekt" funktioniert, was sein letzter Post ja auch bestätigt. Er kann ja null konkrete Angaben machen.
Da könnten wir hier auch Empfehlungen für den hypothetischen EFH Bau auf dem Mond geben.
 
AwesomSTUFF schrieb:
...ja okay, ich hab trotzdem nicht den Eindruck, dass der TE weiß was er tut oder wie was in seinem "Großprojekt" funktioniert, was sein letzter Post ja auch bestätigt. Dementsprechend ist vollkommen Banane, was er kauft.
Shaming dafür, dass man um Hilfe fragt und sich nicht so gut mit Hardware und jeder anderen Kleinigkeit auskennt wie jemand, der jeden Tag damit zu tun hat, wirklich?
 
Juleru schrieb:
Der PC soll jetzt gekauft werden und ich bevorzuge so oder so Intel, weil ich mit denen gute Erfahrungen gemacht habe, noch nie Probleme hatte und für so eine wichtigen PC nicht das erste Mal AMD benutzen möchte.
Es sind wahrscheinlich solche Statements die die Gemüter hier etwas "aufwärmen" ;)

Klar du suchst Ratschläge bzgl. GPU, aber etwas Offenheit was die gesamte Konfiguration betreffen wären schon angebracht, wenn man in einem Tech-Forum Hilfe sucht. Die Leute wollen dir ja nix Böses, eigentlich wollen die meißten nur helfen den besten "Bang for the Buck" zu bekommen :D
 
Unter den beiden Favoriten würde ich mich klar für die 4070 Super entscheiden. Von der reinen Rechenleistung sticht sie die 4060 Ti gnadenlos aus (35,5 vs 22,1 TFlops).

Von der gleichzeitigen Berechnung mehrerer Modelle profitierst du nur (hinsichtlich der Gesamtrechenzeit), wenn die Berechnung EINES Modell nicht mehr alle Rechen-Einheiten des Chips gleichzeitig nutzen kann - aber gerade das sehe ich NICHT (korrigiert mich wenn ich falsch liege).

Falls die gleichzeitige Berechnung organisatorische Vorteile bringen sollte, würd ich einen Test-Workflow mit unterschiedlich vielen parallelen Modellen aufsetzen, und dabei Speicherauslastung und Rechenzeiten beobachten. Und dann halt soviele Modelle in den Rechengang hineinpacken, wie die 12G hergeben.
 
Juleru schrieb:
Nvidia ist für's Arbeiten angeblich um einiges besser als AMD
Da sollt man schon Benchmarks mit der Software, die Du nutzen möchtest, zu rate ziehen.

Bei uns im Büro nutzen wir nur Fire Pro Karten, weil die Software (Microstation) mit AMD-Grafikkarten besser läuft als mit Nvidia.

Auch beim Prozessor kann ich nur raten, sich Benchmark anzuschauen.

Blender
Die Workstation Karten nutzen die gleichen Chips wie die Consumer-Karten, kann man im Netz raussuchen.

Edit:
Du kannst anhand der Workstation-Bezeichnung den Grafikchip rausfinden, dann hast Du den direkten Vergleich.
Bei AMD ist ja einfach, die AMD Radeon Pro W7700 ist die RX 7700XT und die AMD Radeon Pro W7800 ist die RX 7800XT.
Die CAD-Treiber können natürlich etwas besser performen als die Spiele-Treiber.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480 und Lee Monade
Cerebral_Amoebe schrieb:
Blender
Die Workstation Karten nutzen die gleichen Chips wie die Consumer-Karten, kann man im Netz raussuchen.
Nur nicht die selben Treiber und das kann durchaus einen sehr großen Unterschied machen.
Ihr nutzt ja auch nicht ohne Grund Fire Pro Karten statt der viel billigeren Consumer Karten.

Aber ansonsten hast du natürlich vollkommen Recht.
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe
Juleru schrieb:
Entschuldigung, habe deine Post komplett übersehen.
Danke, interessant! Auf wie viel VRAM kam er denn bei deinem Riesenprojekt?
Der Vram wurde scheinbar beim preview schon fast maximal ausgelastet, aber Redshift nutzt das vielleicht dynamisch, gerendert wurden die kompletten Animationen dann auf unserer Renderfarm, da sind 6 Maschinen mit jeweils 4 2080ti aktiv,
die hatten trotzdem noch ca. 2-3 GB frei und haben ja 1gb weniger als die 4070super. (Habe mit der 4070super aber auch Frames komplett gerendert, aber Animationen schick ich fast immer auf die Farm)

Ach ja, ich habe bei dem Projekt auch viel auf einem neuen Macbook Pro m3max (40 cores, 64gb ram) gearbeitet, das ist erstaunlich schnell in Redshift, auch in Blender. Musste bei Redshift allerdings Hardware Raytracing ausschalten, das ist immer gecrashed.
 
PeacemakerAT schrieb:
Es sind wahrscheinlich solche Statements die die Gemüter hier etwas "aufwärmen" ;)
Was ist daran falsch? Wenn jemand eine Firma bevorzugt, kann man natürlich einmal erwähnen, was die Alternative wäre (inkl. Preis), sollte es aber ansonsten akzeptieren, v.a., wenn in einem bestimmten Subforum gepostet wird. Das Problem gibt's allgemein hier im Forum, zumindest bei meinen früheren Hardware-Suchen, dass solche Wünsche einfach ignoriert werden und die Leute einen als Trottel darstellen, wenn man halt lieber etwas mehr für etwas zahlt, das man kennt und von dem man weiß, dass es zu 99% super funktionieren wird.
Hier geht's aber dieses Mal darum, dass man im bissigen Ton dafür "geshamt" dafür wird, sich nicht 100%-ig auszukennen, anstatt irgendetwas Hilfreiches beizutragen. Wenn ich alles wüsste, müsste ich nicht nachfragen, oder?

ropf schrieb:
Unter den beiden Favoriten würde ich mich klar für die 4070 Super entscheiden. Von der reinen Rechenleistung sticht sie die 4060 Ti gnadenlos aus (35,5 vs 22,1 TFlops).
Danke für deinen hilfreichen Beitrag!
Wenn's nur um die Leistung ginge, hätte ich sofort die 4070S genommen, ja (hast du übrigens eine Empfehlung oder ist die MSI Ventux 2X eh in Ordnung?).
Mehr VRAM würde, zumindestet bei sehr kleinen Modellen, vermutlich nur bei der parallellen Berechnung etwas bringen, das verstehe ich schon, nur weiß ich eben nicht, ob die Graka dabei zuerst bei der Leistung an ihre Grenzen stoßt, bevor der VRAM voll ausgenutzt ist, oder umgekehrt. Ich kann das auch nicht vernünftig testen, weil der alte PC, mit dem ich die Modelle aktuell berechnen lasse, mit seiner GTX 1050Ti (4GB, wenn ich mich richtig erinnere) schnell an seine Grenzen stößt (hohe GPU-Auslastung, VRAM habe ich mir nicht angeschaut).
ropf schrieb:
wenn die Berechnung EINES Modell nicht mehr alle Rechen-Einheiten des Chips gleichzeitig nutzen kann - aber gerade das sehe ich NICHT (korrigiert mich wenn ich falsch liege).
Interessant... Was hast du denn bisher berechnen lassen?

Cerebral_Amoebe schrieb:
Da sollt man schon Benchmarks mit der Software, die Du nutzen möchtest, zu rate ziehen.
Laut der Infos, die ich bisher gefunden habe, ging es allgemein um die CUDA Cores bei 3D-Modelling, mit denen Nvidia besser abschneidet als AMD. Da die Libraries, die ich für die Konvertierung benutze, aber Nischenprodukte sind, ist es schwer bis unmöglich Benchmarks (bzw. überhaupt Infos zu GPUs) zu finden.
Cerebral_Amoebe schrieb:
Blender
Die Workstation Karten nutzen die gleichen Chips wie die Consumer-Karten, kann man im Netz raussuchen.
Interessanter Link, danke.
Habe mir mal die Preise angeschaut: Die A2000 ist mit rund 600€ die billigste Karte, hat aber auch nur 12GB und nur Mini-Displayport. Die billigste mit 16GB ist die A4000, aber die kostet 1000+ Euro und dann könnte ich gleich die 4070 Ti Super um 900€ nehmen (was aber eben zu teuer ist). Bei AMD schaut's noch schlechter aus: Die W7600 hat sogar nur 8GB, kostet aber mehr als 600€ und die W7700 mit 16GB gibt's auch erst ab 1000€ (die 7700XT hat nur 12GB).

nogohome schrieb:
Der Vram wurde scheinbar beim preview schon fast maximal ausgelastet, aber Redshift nutzt das vielleicht dynamisch, gerendert wurden die kompletten Animationen dann auf unserer Renderfarm, da sind 6 Maschinen mit jeweils 4 2080ti aktiv,
die hatten trotzdem noch ca. 2-3 GB frei und haben ja 1gb weniger als die 4070super. (Habe mit der 4070super aber auch Frames komplett gerendert, aber Animationen schick ich fast immer auf die Farm)

Ach ja, ich habe bei dem Projekt auch viel auf einem neuen Macbook Pro m3max (40 cores, 64gb ram) gearbeitet, das ist erstaunlich schnell in Redshift, auch in Blender. Musste bei Redshift allerdings Hardware Raytracing ausschalten, das ist immer gecrashed.
6 PCs mit je 4x 2080Ti muss man sich auch mal leisten können... :P
MacBooks lassen wir mal lieber...
Du hast gesagt, dass du auch Blender benutzt, ist damit sehr viel Unterschied zu Redshift? Ok, ich rendere keine (vollen) Szenen, sondern es geht bei Blender nur um die manuelle Behebung von kleineren Problemen, aber ich habe die Hoffnung, dass Blender und Meshlab doch irgendwie ähnlich sind (auch wenn Meshlab allgemein langsamer ist), denn über Meshlab laufen einige Scripte automatisch.
 
Juleru schrieb:
ich habe die Hoffnung, dass Blender und Meshlab doch irgendwie ähnlich
Die haben so gar nix miteinander zu tun. Ich habe mir mal kurz die Doku zu Meshlab angesehen, dort wird vermerkt, dass die VCG Library für die Meshes verwendet wird, und hier kommt OpenGL zum Einsatz. Eine kurze Google-Suche gab auch keine Treffer hinsichtlich einer echten 3D-Beschleunigung (CUDA oder anderes) in Meshlab. Die anderen Programme, die du nanntest (3DHOP und Nexus) nutzen beide WebGL zur Visualisierung, auch hier ist nix besonderes zu sehen.

Blender hingegen profitiert schon sehr von CUDA (also NVidia), gerade wenn es ums Rendering geht.
Suche dir die schnellste GPU mit dem meisten VRAM, welche in dein Budget passt - Hersteller egal - und dann sollte das passen, Blender ist ja nicht deine Hauptsoftware wie du sagst.
 
frabron schrieb:
Die haben so gar nix miteinander zu tun. Ich habe mir mal kurz die Doku zu Meshlab angesehen, dort wird vermerkt, dass die VCG Library für die Meshes verwendet wird, und hier kommt OpenGL zum Einsatz. Eine kurze Google-Suche gab auch keine Treffer hinsichtlich einer echten 3D-Beschleunigung (CUDA oder anderes) in Meshlab. Die anderen Programme, die du nanntest (3DHOP und Nexus) nutzen beide WebGL zur Visualisierung, auch hier ist nix besonderes zu sehen. Blender hingegen profitiert schon sehr von CUDA (also NVidia), gerade wenn es ums Rendering geht.
Sprich: AMD oder Nvidia ist mehr oder weniger egal, außer bei Blender?
Danke für die Erklärung!
frabron schrieb:
Suche dir die schnellste GPU mit dem meisten VRAM, welche in dein Budget passt - Hersteller egal - und dann sollte das passen, Blender ist ja nicht deine Hauptsoftware wie du sagst.
Genau das ist mein Problem: Die 4070S ist schnell, die 4060Ti hat aber mehr VRAM und die 4070Ti Super, bei der beides passen würde, ist zu teuer. Oder meinst du: Vorrangig Leistung und dann erst VRAM?
 
Zurück
Oben