Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro

@FlasherXXL
Der richtige Weg ist die 6700 XT zu behalten und diese Generation zu überspringen. Das werde ich zumindest mit meiner 6700XT machen. Es sei denn, die 4070 wird in spätestens drei Monaten für 500€ angeboten, dann würde ich meine Karte weiterreichen und mir die 4070 holen. Nicht weil mir die Leistung nicht ausreicht oder weil ich mit AMD nicht zufrieden bin, sondern einfach nur so aus Spaß.
 
  • Gefällt mir
Reaktionen: Mcr-King und FlasherXXL
DaCrazyP schrieb:
Wer weiß wieviele FEs es überhaupt gab.
Aber wie ein weiser Geschäftsmann sagt: "Jeden Morgen steht ein Dummer auf."
Hätte nVidia 2020 gesagt, dass es 2023 die gleiche Leistung der 3080 mit 12GB für fast den gleichen Preis der 3080 aber in 4070 umbenannt gäbe, hätte man sich doch an den Kopf gepackt.
So einfach ist das nicht. Hast ja DLSS3 und Co. und das macht gut Leistung mit RT gegenüber der 3080. Dort ist schon ein großer Vorteil zu sehen.
 
Ist ein Unterschied ein Game für die letzten 5 CPU/GPU Generationen aller Leistungsklassen zu optimieren oder eines für eine abgestimmte Hardware in einer Konsole und deshalb kann man im Grunde überhaupt keine Vergleiche ziehen.
 
Eli0t schrieb:
Eine PS5 hat effektiv 16GB RAM, PS5 ist ein abgespecktes BSD-Derivat nur mit dem nötigsten.

Trotzdem geht für BS, Programmcode des Spiels und Daten des Spiels RAM drauf, und ich bezweifle doch sehr, dass das weniger als 4 GB sind.

Die einzige gravierende Schwäche des PCs ist eigentlich die Weigerung der Hersteller, Direct Storage zu unterstützen. Und solche Frechheiten unterstütze ich nicht, weder durch den Kauf betroffener Spiele, noch durch den Kauf einer neuen GPU.
 
  • Gefällt mir
Reaktionen: Mcr-King
BOBderBAGGER schrieb:
Ich müsst Mal langsam die 1060 austauschen aber irgendwie sehe ich das bei dem was man am Markt geboten bekommt nicht ein.
Bock auf ne gut erhaltene 1080? 😉
 
  • Gefällt mir
Reaktionen: ThirdLife und Mcr-King
DaCrazyP schrieb:
Mich interessiert aber nicht der Preis von damals, sondern aktuell. Zum Marktstart der 7900XT wusste man auch noch gar nichts zur 4070.
Darum ging es mir nicht. Ich wollte mit der Bemerkung darauf hinweisen, dass die Karten an den ersten Tagen immer extrem überteuert sind.

Allerdings würde es mich wundern, wenn die 4070 um 150-200€ im Preis fiele.

ben12345 schrieb:
Was macht eigentlich AMD in der Preisklasse da ist es ja absolut still im Moment.
Mit der 6800xt und 6900xt gegen halten. Und das nicht mal schlecht für 2 Jahre alte Hardware.
Ich glaube, dir geht es aber ohnehin nicht um einen Informationsaustausch.

€dit:
Sogar eine 6950xt gibt es aktuell für 650€.
 
Zuletzt bearbeitet: (Nachtrag)
  • Gefällt mir
Reaktionen: Mcr-King
Eli0t schrieb:
Eine PS5 hat effektiv 16GB RAM, PS5 ist ein abgespecktes BSD-Derivat nur mit dem nötigsten.
Dennoch habe ich nicht 16GB Speicher für die Grafik zur Verfügung, sondern vielleicht die Hälfte.
8GB sind für OS und den RAM jetzt nicht wirklich viel, auch wenn das ein abgespecktes OS ist.
 
Wenn du 1000 Beiträge siehst weiastvdu das nvidia wieder ne geile karte release hat 😅
 
Crifty schrieb:
14gb bleiben übrig, selbst wenn man jetzt sagt 4gb als Arbeitsspeicher und die restlichen 10gb werden als vram eingeplant, läuft die 12gb Karte vermutlich ins Limit am pc aber warum?

1. der Shared Memory der ps5 ist deutlich schneller angebunden als Arbeitsspeicher im allgemeinen, von was reden wir hier? Faktor 1 zu 10 oder so?
2. Pc spiele kommen aktuell unoptimiert raus, man braucht im Schnitt 25-30% mehr Leistung und VRAM für eine ähnliche performance.
Ich wäre mir auch gar nicht so sicher, dass Bereich vom Speicher in den Konsolen strickt den verschiedenen Nutzugen zugewiesen ist. Abseits von dem Bereich, der für das OS reserviert ist, dürften CPU und GPU gemeinsam mit dem Rest hantieren. So kann die CPU irgendwelche Daten im "Arbeitsspeicher" ablegen und die GPU kann dann direkt auf die Daten zugreifen, als wäre es "Grafikspeicher". Da werden also nur Speicheradressen zwischen CPU und GPU ausgetauscht und nicht die Daten.

Der Shared Memory in der PS5 ist GDDR6 mit 448 GB/s, also das was auch auf aktuellen Grafikkarten verbaut ist. Zum Vergleich, DDR5-8000 hat mit 2x32 GB/s nur 1/7 der Bandbreite.

Dazu kommt auch noch, dass bei der PS5 Daten (z.B. Texturen) auch viel schneller von der SSD in den Speicher für die GPU geladen werden als bei einem PC. Da macht es sich also im Vergleich zum PC auch nicht so stark bemerktbar, wenn der Speicher knapp wird und Daten nachgeladen werden müssen. Auf dem PC dauert das Nachladen vom RAM in den Grafikspeicher oder gar von der SSD bis in den Grafikspeicher viel länger, weswegen man dort mehr Grafikspeicher braucht, um dort möglichst viel Daten vorzuhalten und das Nachladen möglichst zu vermeiden.
 
Taxxor schrieb:
Hab ich schon mal von dir gelesen und nach ner Quelle für diese Behauptung gefragt.

Damals kam nichts, kommt jetzt vielleicht was?

Ach, um beim Release der 30X0 Serie hat Nvidia erklärt der der DLSS 2 Nachfolger nur für die 40X0 Karten kommt?

Denn falls nicht, trollst du hier einfach nur rum.
 
mibbio schrieb:
Dazu kommt auch noch, dass bei der PS5 Daten (z.B. Texturen) auch viel schneller von der SSD in den Speicher für die GPU geladen werden als bei einem PC.

Das beherrschen bereits drei GPU-Generationen. Das Problem sind die Hersteller, die sich weigern, die Funktion zu nutzen.
 
GreatEvil schrieb:
Ach, um beim Release der 30X0 Serie hat Nvidia erklärt der der DLSS 2 Nachfolger nur für die 40X0 Karten kommt?
Nein haben sie nicht, es gab damals auch noch keine genauen Informationen zu DLSS3.

Genau wie es aktuell keinerlei Informationen zu DLSS4 gibt, dennoch meint der werte Herr, dass es exklusiv für RTX 5000 kommen wird.
Wie im Februar hier auch schon mal.
Dafür hätte ich gerne einen Beleg, wenn man das hier wiederholt schreibt.
 
Zuletzt bearbeitet:
@JMP $FCE2 Zumindest auf dem PC bekommen die Spieleentwickler es nicht umgesetzt, oder wollen es nicht. PC-Spiele bzw. PC-Ports mit DirectStorage kann man aktuell glaube an einer Hand abzählen.
 
  • Gefällt mir
Reaktionen: TheChris80
Eli0t schrieb:
Und warum sind auf DDR5 Systemen bei Spielern 32GB eigentlich Standard? Sonst könnte doch jeder noch immer mit 16GB auskommen... Da Du nicht weißt, wie ne Konsole funzt, solltest Du dich da vielleicht mehr informieren bevor Du auf "zitieren" klickst.
Weil ein vollwertiger DDR5 DIMM mit Anbindung beider 32 bit Subchannels aus 8 ICs besteht und es keine 1 GB DDR5 ICs gibt, die kleinste Größe sind 2 GB.

Es gibt DDR5 DIMMs mit nur 4 ICs und 8 GB, diese sind jedoch nicht voll angebunden und haben recht deutliche Leistungseinbußen.
 
mibbio schrieb:
@JMP $FCE2 Zumindest auf dem PC bekommen die Spieleentwickler es nicht umgesetzt, oder wollen es nicht. PC-Spiele bzw. PC-Ports mit DirectStorage kann man aktuell glaube an einer Hand abzählen.
Sie wollen es nicht da zu teuer. Da wird einem dann so ein mist erzählt das low-FPS besser ist weil es ja dann einem Film gleich kommt. Dabei wissen viele gar nicht das Bilder voraus gerechnet werden müssen.
Das funktioniert leider beim Spielen nicht da die Latenz auch steigt was zu einem Input-Lag führen kann.
https://www.vg247.com/30-was-our-goal-it-feels-more-cinematic-says-assassins-creed-unity-dev
Ist zwar schon ein paar Jährchen her aber die halten immer noch dran fest.
 
  • Gefällt mir
Reaktionen: JMP $FCE2
mibbio schrieb:
Zumindest auf dem PC bekommen die Spieleentwickler es nicht umgesetzt, oder wollen es nicht.

Und genau das darf man ihnen nicht durchgehen lassen. Boykott und Shitstorm ist die einzige Sprache, die sie verstehen.

Spiele, die den vollen Funktionsumfang von Direct Storage unterstützen, gibt es m.W. noch gar nicht. Auch wenn das Windows 11 und eine PCIe-SSD voraussetzt, ist das immer noch deutlich günstiger, als eine neue GPU.

Zumal der Win 11-Zwang in 2 Jahren sowieso kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheChris80
699 wer der UVP von der 3080 oder? WOW 30 € in 2 Jahren Jahren gespart. Ist ja dann ein wahres "Schnäpchen".
 
Update zum Stromverbrauch der RTX 3060 Ti (vermutlich mehrere RTX 3000er Karten) bei limitierten 144 FPS und den damit verfälschenden Vergleichswerten der CB-Benchmarks


Alternativ:
Wie sich ein "falsches" FPS-Limit auf den Stromverbrauch auswirkt und welche FPS-Limits es gibt



Ich habe ja hier in diesem Beitrag zum RTX 4070-Test recht laut von mir gegeben, dass hier irgend etwas "im Busch" liegt, was den Stromverbrauch beim 144 FPS-Limit einiger Karten angeht und man somit die Vergleichswerte zum Teil massiv verfäscht.

Diesen Vorwurf muss ich - rein technisch - weiterhin aufrecht halten, wohlgleich der ComputerBase-Redaktion in Form von @Jan @Wolfgang @Volker und co. das Problem so wahrscheinlich weder bewusst ist, noch demnach absichtlich durchgeführt wurde.

Der Vollständigkeit halber nehme ich aber noch ein paar weitere Menschen aus dem Forum mit auf, damit sie mal auf eine sehr interessante Verhaltensweise aufmerksam werden, die ich im Nachfolgenden im Detail beleuchte. Spontan möchte ich da @andi_sco und @HisN erwähnt haben, aber auch @Bright0001 wollte gerne über die Findungen in Kenntnis gesetzt werden - there you go :)

Folgender Sachverhalt:
Ein Spiel (egal, welches) mit fester Auflösung, Grafik-Einstellungen und festem FPS-Limit:
Einmal benötigt die Grafikkarte 85 Watt Strom, einmal 150 Watt - in exakt der selben Szene ohne jedwede Spiele-Dynamik/Bewegung.

Geht nicht? Oh doch!

Der Beweis

Horizon Zero Dawn - Full HD (nativ, kein DLSS), maximale Grafikdetails, 60 FPS via VSync
Screenshot (500).png

Das exakt selbe Bild, die exakt selben Einstellungen, ausser: VSync deaktiviert, FPS-Limit ingame über den Schieberegler im Optionsmenü gesetzt:
Screenshot (501).png

BAM!

Von 85 Watt auf über 150 Watt, gleichzeitig 14°C höhere GPU-Temperatur und ein (nicht am Limit) laufender Lüfter, der zuvor unhörbar leise bzw. sogar im Zero Fan-Mode gearbeitet hat.

Horizon Zero Dawn habe ich deshalb auf die Schnelle zum Testen gewählt, weil es entgegen DooM 2016 und Eternal ingame die Möglichkeit besitzt, die FPS spieleseitig zu begrenzen. Das gleiche Verhalten mit ähnlich dramatischen Unterschieden in der Stromaufnahme lässt sich auf die Schnelle auch in Far Cry 5 nachstellen.

Jetzt gibt es ja noch weitere Möglichkeiten, die FPS in Spielen zu begrenzen, auch wenn diese nativ gar keine Möglichkeit (weder per Optionsmenü, noch per Config/Console) dazu bieten. Wenden wir uns im nächsten Schritt also doch DooM Eternal zu und verwenden die Einstellungen von ComputerBase, nämlich:

Ultra-Albtraum-Preset, 2560x1440 (in meinem Fall mittels Upscaling-Feature, da ich nativ nur 1920x1080 ausgeben kann) und Raytracing bleibt deaktiviert:

... und sorry, ich habe jetzt erst gemerkt, dass man dank der tollen Vulkan-API keine gescheiten Screenshots machen kann - hier mal ein wenig "Gorilla-style" mit dem Handy, an die Leinwand herangezoomt:
doometernal_1440p_maxfps.jpg

Ich habe mir bewusst eine Ecke gesucht, in der ich, wie ComputerBase auch, etwa knapp unter 180 FPS in besagten Settings erreiche - bei gleichzeitiger Vollauslastung der RTX 3060 Ti - die 200 Watt liegen an, wie man sieht.

Nun begrenzen wir mittels nVidia-Treiber die FPS auf maximal 144, was passiert?
doometernal_1440p_144fps.jpg

Huch?! Nur 7 Watt weniger, trotz 20% weniger FPS? Was ist denn da los? ABER!!! Immerhin schonmal nicht wie bei ComputerBase volle 200 Watt Auslastung, darauf lässt sich doch aufbauen...

Also gehen wir mal auf die Suche. Da DooM Eternal ausschließlich mit der Vulkan API daherkommt, wechseln wir mal in den Vorgänger, DooM 2016

Auch hier wieder, maximale Grafiksettings, 2560x1440 und maximale FPS:
doom2016_1440p_maxfps.jpg
Ja, Maximale FPS am Allerwertesten, DooM 2016 hat ein hardcoded 200 FPS-Limit, danke auch... und umso überraschender: auch hier haben wir volle 200 Watt an der GPU anliegen.

Also limitieren wir erneut über den Grafikkartentreiber auf 144 FPS:
doom2016_1440p_144fps.jpg

Es wird weniger... es sind immer noch beachtliche 180 Watt und somit gerade einmal 10% weniger Strombedarf trotz knapp 30% weniger FPS - das kann so nicht richtig sein, andernfalls wäre die Grafikkarte ja - nach oben hin - wahnsinnig effizient, wenn sie mit nur 20 Watt mehr plötzlich 56 FPS raushauen kann, wo jedoch 180 Watt zuvor für "nur" 144 FPS gereicht hätten.

Also habe ich die API von Vulkan auf OpenGL 4.5 umgestellt - in DooM 2016 geht das immerhin noch. Den Screenshot spare ich jedoch, es hat absolut keinen Unterschied gemacht.

Also wechseln wir das Spiel, erneut zu einem, wo ich weiß, dass man ingame die FPS auf den zum Vergleich nötigen Wert von 144 FPS stellen kann -> Far Cry 5.

Dieses Mal handelt es sich um 1920x1080, weiterhin bei maximalen Grafiksettings. Ich habe mir eine Stelle nach dem Laden des Savegames gesucht, wo ich wieder in etwa um die 180 FPS habe - eben so viel, wie ComputerBase bei DooM Eternal im Test mit der RTX 3060 Ti.
Screenshot (502)max.png

So sieht das Ganze dann aus - etwas unter 200 FPS (sorry, ist stets rumgeschwankt) und die zu erwartenden 200 Watt maximale Stromaufnahme, direkt am Powerlimit.

Nun setzen wir mittels Grafik-Einstellungen innerhalb des Spiels das 144 FPS-Limit:
Screenshot (503)ingame.png

Oh, siehe da? So langsam wird's weniger, nur noch knapp unter 170 Watt.

Jetzt testen wir erneut eine Einstellung, die sowohl in DooM 2016, als auch in DooM Eternal im Sinne des Stromsparend NICHT funktioniert hat - die Begrenzung der FPS über den nVidia-Grafikkartentreiber:
Screenshot (506)treiber.png
ACH WAS?! Schau mal einer guck, ganz urplötzlich werden für 144 FPS nur noch 139 Watt benötigt.

Welche Variante der FPS-Limitierung gibt es noch? Richtig, RIVATUNER! Den nutzen ja viele gerne für diverse Dinge (so ja auch das Overlay, welches ich z.B. benutze).

Was erhalten wir mit einem 144 FPS-Limit durch Rivatuner, nachdem wir das Limit im Grafiktreiber wieder entfernt haben?
Screenshot (507)rivatuner.png
Aha, die gleichen "schlechten" Werte, als würde die Einstellung direkt über das Grafikmenü des Spiels getroffen werden.

Das Begrenzen über den Treiber hat also: in DooM 2016 und DooM Eternal keine guten Ergebnisse geliefert, in Far Cry 5 jedoch schon.

Okay, dann zurück zu Horizon Zero Dawn. Wir erinnern uns: mit VSync auf 60 Hz hatten wir angenehme 85 Watt, die sich die Grafikkarte gegönnt hat - ohne VSync und mit gleichem 60 FPS-Limit über das Grafikmenü sorgten für überraschend hohe 150 Watt. Was macht der Rivatuner bei 60 FPS-Limit hier? Seht selbst:
Screenshot (508).png

Das gibt's doch gar nicht, schon wieder 150 Watt für lediglich 60 FPS? Okay, da bleibt nur noch eins, das FPS-Limit über den Grafikkartentreiber setzen:
Screenshot (509).png

Und ZACK! Zurück zu den 85 Watt.

---------

Okay, okay... ich kann jeden verstehen, der hier mittlerweile abgeschaltet hat und dem das alles zu viel ist. Ich gebe zu, ganz offensichtlich scheint das Limitieren der FPS je Spiel, je Engine, je Methode eine nicht zu unterschätzende Variable zu sein - obwohl das Limit eine Konstante darstellt... kleiner Wortwitz am Rande ^^

Ich fasse zusammen:
FPS-Limit über Rivatuner = Immer schlecht
FPS-Limit über Spiele-Settings = Immer schlecht
FPS-Limit über nVidia-Treiber = Perfekt in Far Cry 5 und Horizon Zero Dawn, schlecht in DooM 2016 und Eternal
FPS-Limit per VSync = Energetisch immer perfekt, kann in manchen Titeln zu Input-Lag führen

Ein Punkt kristallisiert sich hierbei jedoch sehr stark heraus:
DooM Eternal scheint ein denkbar schlechter Titel zu sein, um bei einem 144 FPS-Limit die Performance pro Watt zu messen - der Grund scheint in der Engine des Spiels zu liegen.

Anders lässt sich auch überhaupt nicht erklären, wieso eine RTX 3070 und auch eine RTX 3080, die z.B. beide sehr viel stärker als die RTX 3060 Ti arbeiten, geradezu lächerlicherweise deutlich mehr Strom als die 3060 Ti benötigen, um "nur" 144 FPS zu rendern.

Liebes ComputerBase-Team, falls ihr das bis hier hin durchgehalten habt: bitte macht euch Gedanken darüber, ob DooM Eternal wirklich der richtige Titel zum Ermitteln der Performance pro Watt ist - nach diesem Intermezzo kann ich mir keinesfalls vorstellen, dass jemand, der technisch versiert ist und sich die Werte mal genauer anschaut, das so noch weiterhin durchwinken will.

Ich möchte damit keinesfalls die Leistung und/oder die Performance pro Watt in Frage stellen, die eine Ada Lovelace gegenüber der RTX 3000er Serie erreicht, aber DooM Eternal scheint ein ganz offensichtliches Problem in dieser Disziplin zu sein und vergleicht man nun Karten innerhalb dieses Charts, so verfälscht es das Ergebnis einfach extrem zu Gunsten der RTX 4000er Karten.

Abschließend würde sich die Frage stellen: wie setzt ihr in DooM Eternal die 144 FPS als Limit? Per Rivatuner, per Grafiktreiber oder mit einem 144 Hz-Monitor und (welches?) Syncing?
 
Zuletzt bearbeitet: (Lediglich Schreubfehler ausgebessert. Keine Werte verändert.)
  • Gefällt mir
Reaktionen: BGnom, PegasusHunter, Logian und 24 andere
JMP $FCE2 schrieb:
Trotzdem geht für BS, Programmcode des Spiels und Daten des Spiels RAM drauf, und ich bezweifle doch sehr, dass das weniger als 4 GB sind.
Was Du beweifelst...
Wenn es Linux Distros gibt, die am ruhenden Desktop knapp 700MB mit GUI verbrauchem kann man davon ausgehen, daß Sony wesentlich weniger verbraucht.
Anscheinend bist Du zu sehr Windows gewohnt, um anderes in Betracht zu ziehen, mach mal JMP $FCE2, das geht in 8kB :)

JMP $FCE2 schrieb:
Die einzige gravierende Schwäche des PCs ist eigentlich die Weigerung der Hersteller, Direct Storage zu unterstützen. Und solche Frechheiten unterstütze ich nicht, weder durch den Kauf betroffener Spiele, noch durch den Kauf einer neuen GPU.
Direct Storage müßte als IP Block entweder in der GPU oder CPU enthalten sein. Und wenn das AMD in Auftrag von Sony entwickelt hat, dann heißt das, daß das niemand anderer verwenden kann und AMD vielleicht mit Zen5. Heißt aber nicht, daß man das nicht entwickeln könnte. AMD könnte auch APUs entwickeln mit HBM statt GDDR, tun sie aber nicht...
 
Zurück
Oben