Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro

Damit ist die GeForce RTX 4070 für 650 Euro eine teure Grafikkarte, die im aktuellen Umfeld allerdings dennoch konkurrenzlos ist. Nvidias alte Garde gibt es nicht mehr. AMDs alte Gegenspieler sind günstiger, aber auch schlechter, und AMDs neue Modelle in der Mittelklasse lassen noch auf sich warten. Bis es so weit ist, kann und wird die GeForce RTX 4070 ungehindert nach Kundschaft suchen, was angesichts der guten Allround-Qualitäten ohne Schwächen auch gerechtfertigt ist. Trotzdem bleibt es dabei, dass für Spieler die Mittelklasse wieder einmal teurer geworden ist.

Frage mich schon seit Monaten... wieso dauert es bei AMD soooo lange unter der 7900XT etwas rauszubringen!??!?!
Ergänzung ()

Laphonso schrieb:
Falls eine 4090Ti doch noch kommen sollte, wird die galant ebenso wieder 1999 Dollar MSRP kosten.
Zu 99,9% wirds so kommen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaCrazyP, Laphonso und DerFahnder
  • Gefällt mir
Reaktionen: Rockstar85 und fox40phil
Eli0t schrieb:
Hä? Was haben die beiden mit der Texturqualität zu tun? Ob das mit 1080p für 4k rendert ist da vollkommen Banane, die Texturen sind die selben, ergo ist auch der Speicherbedarf der selbe.
Hä hier nich so rum. Die Belege sind zu hauf da, das der VRAM Verbrauch durch DLSS und FSR sinkt. Und das wurde mit den neueren Titeln nicht weniger, sondern eher mehr, da noch die Verfahren immer besser optimiert werden.

[IMG]https://www.tweaktown.com/images/content/9/5/9532_105_death-stranding-benchmarked-how-does-hideo-kojimas-game-run-at-8k_full.png[/IMG]
 
  • Gefällt mir
Reaktionen: timmey77
JMP $FCE2 schrieb:
Da fehlen noch Programmcode und Daten des Spiels, die 8 CPU-Kerne müssen ja schließlich auch beschäftigt werden.
Der Code ist nicht so groß, die Daten und Assets kann man zumindest auf der PS5 direkt in den Speicher streamen. Nicht zu vergessen ist, daß Sony und AMD eine sehr effiziente Texturenkompression entwickelt haben, die dank deren Direct Storage Technologie während der Übertragung ohne CPU/GPU dekomprimiert werden. Man kann viel über Sony sagen, aber technisch haben sie mit der PS5 alles richtig gemacht. Natürlich sind bei Konsolen auch alle Shader vorkompiliert.
Ergänzung ()

TigerNationDE schrieb:
Hä hier nich so rum. Die Belege sind zu hauf da, das der VRAM Verbrauch durch DLSS und FSR sinkt. Und das wurde mit den neueren Titeln nicht weniger, sondern eher mehr, da noch die Verfahren immer besser optimiert werden.
Ja weil auch niedrigere Texturen verwendet werden. Wenn das in 720p hochskaliert wird, dann werden auch 720p Texturen verwendet. LOD (Level of Detail) ist ja immer noch ein Ding, aber das kommt aufs Spiel an. Wenn es low, medium, high, very high und ultra gibt, dann kannst Du auch davon ausgehen, daß es Qualitätsstufen bei den Texturen gibt. Nur weil Du "hoch" einstellst, weißt Du doch nicht, was das Spiel im Hintergrund macht, wenn es DLSS oder FSR verwendet. Würde doch nur Sinn machen, daß man niedrigere Texturqualität verwendet, was dann natürlich dazu führt, daß man Speicher spart.

Aber das sind doch alles nur Hilfsmaßnahmen um die schlechte Leistung zu verschleiern, bei einer 660€ Karte.
Schöner Überblick über Gen to Gen Performance:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Solavidos
Wird wohl mein Asus 1080 ablösen wird Zeit. Alles andere wurde aufgerüstet jetzt ist die graka drann.
 
hamju63 schrieb:
Oha, die Leistung meiner 3080 bei fast halbiertem Stromverbrauch in Games?
Wenn ich nicht eh einen neuen PC auf dem Zettel hätte für Ende des Jahres, würde ich wohl sofort zuschlagen.
Weniger grün sollte helfen. Wer Rot Grün wählt, wird Strom viel teurer. Wäre Strom günstig, wäre es kein Problem wieviel Watt eine Karte verbraucht. 🙄 mich interessiert es nicht. Wenn ich Leistung brauche, dann ist mir egal wieviel Watt eine Karte verbraucht.
 
wtfNow schrieb:
Das ist nicht ganz korrekt, mit FG (und die Technologie dahinter steckt in der Hardware von Ada drin) überholt die 4070 eine 3090 Ti bei weitem (und deutlich weniger Verbrauch als 3080).
Natürlich sind die FPS nicht gleichwertig zu "echten" aber ein großer Unterschied in der Spielerfahrung ist das allemal
Deine Aussage ist falsch! CB schreibt „Für die Performance der GeForce RTX 3080 reicht es nicht ganz. Die neue Grafikkarte arbeitet in Spielen 23 Prozent schneller als eine GeForce RTX 3070, die GeForce RTX 3080 bleibt aber 5 Prozent voraus.“
Also, 4070 ist etwas schwächer als 3080- wo soll denn dann bitte eine 3090Ti überholt werden??
 
  • Gefällt mir
Reaktionen: Rockstar85
DLSS3 legt halt nochmal ~30% auf DLSS2 drauf.
DLSS3.png
 
Zuletzt bearbeitet:
Also ich weiß ja nicht genau wie das bei anderen GPU Starts war, aber zusammen hat Mindfactory jetzt 115 RTX 4070 in 2 Tagen verkauft.

Nachfrage scheint eher nur so semi da zu sein und ich muss sagen: Mich freut das.

1681452545903.png
 
  • Gefällt mir
Reaktionen: DeMeP und scheru
thommy86 schrieb:
Wenn ich Leistung brauche, dann ist mir egal wieviel Watt eine Karte verbraucht.
Ziemlich merkwürdig diese Einstellung. Ich möchte auch Leistung, will aber mein geld nicht zum Fenster rausschmeissen bei den Strom Preisen erst Recht nicht! Mich interessiert es sehr wohl wa dabei verbraucht wird. daher der Kompromiss einer 90er Karte und UV!
 
  • Gefällt mir
Reaktionen: Slainer, DerFahnder, Aduasen und eine weitere Person
VandeKamp schrieb:
Wenn man sich die Kommentare durchliest fragt man sich, wie sich die 3000er Generation unterhalb der 3090 überhaupt verkaufen konnte.
Mit weniger als 16GB VRAM ist es ja scheinbar kaum möglich ein Spiel überhaupt zu starten.

Komischerweise zocke ich seit 2,5 jahren mit einer RTX 3080 (10GB) auf UWQHD und maximalen Details und hatte noch nicht einmal Probleme mit zu wenig VRAM. Na gut, die verkorkste Diablo 4 Beta Mal ausgenommen.
Unterhalb von 4K werden 12GB auch noch auf Jahre hinaus reichen.
Dachte ich auch. Spiele selbst mit einer RTX 3080-10GB Seit 2,5 Jahren in 4K. Habe bis jetzt absolut keine Probleme,die 10GB reichen mir sicherlich auch noch bis zur nächsten Generation.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: H6-Mobs und eraser4400
Naja, wobei zur Wahrheit aber auch dazu gehört, dass moderne Spiele selbstständig Speichermangel erkennen können und daraufhin die Qualität der Texturen herab setzen.

Raffael Vötter von der PCGH erwähnt dieses "Benchmark-Problem" regelmäßig in seinen Tests.
 
  • Gefällt mir
Reaktionen: scheru
cyberpirate schrieb:
Mich interessiert es sehr wohl wa dabei verbraucht wird. daher der Kompromiss einer 90er Karte und UV!
Dass die Hitze im Zimmer landet, ist ebenfalls kein Geheimnis ;) Manche Pfennigfuchser-Rechnung des jährlichen, anzunehmenden Stromverbrauchs ist da gar nicht mal zwingend meine erste Sorge.

Portal501 schrieb:
Spiele selbst mit einer RTX 3080-10GB Seit 2,5 Jahren in 4K. Habe bis jetzt absolut keine Probleme,die 10GB reichen mir sicherlich auch noch bis zur nächsten Generation.
a) Diese 2,5 Jahre liegen hinter uns. Die RTX4070 kommt jetzt erst auf den Markt. Es geht vielen, die Sorge bei der Größe des Grafikspeichers haben, um die kommenden 2+ Jahre.
b) Manche Titel können selbstständig die Texturqualität runter drehen.

Zukünftige Resultate kann man heute nicht messen. Künstliche Reduzierung der Bildqualität lässt sich in Frames ebenfalls schwerlich abbilden. Ich denke, dass ist der Grund dafür, dass die Diskussion so hitzig geführt wird. "Wir" sind zu verliebt in nackte Zahlen. Und die Preisschilder der Produkte wecken Begehrlichkeiten.

Der @Nordbadener war schneller ... ;)
 
@DJMadMax
Hui, ganz schöner Aufwand :)

Dann mal mein Senf dazu:
Ich kenne die Problematik, dass unterschiedliche Methoden zur Frame-Kappung, seien es VSync, Treiber-Limiter, externe Limiter oder Ingame-Limiter in Spielen zu unterschiedlicher GPU-Auslastung führen können. Das ist normal und das ist auch schon lange (oder immer?) so.

Darum ist es im Endeffekt auch immer wichtig, die FPS auf dieselbe Art und Weise bei den Tests zu cappen, sonst kann es da echt zu wilden Ergebnissen führen. Ich nutze schlussendlich den FPS-Limiter vom RivaTunterStatisticServer, um auf die 144 FPS zu kommen.

Um ehrlich zu sein weiß ich nicht, was ich jetzt noch großartig sagen soll.
Vielleicht mag dies die schlechteste Art und Weise für Ampere sein, um ein FPS-Limit einzusetzen, aber ganz offenbar ist es ja keine generell schlechte für Nvidia, ansonsten würde Lovelace dort ja nicht so gut abschneiden. Ganz offenbar kann Ampere in dem Szenario einfach irgend etwas überhaupt nicht.

Da es aber wie du ja selber sagt, nicht "die beste Methode" gibt, sondern diese von Spiel zu Spiel variieren kann, sehe ich jetzt keinen Sinn darin, die Methode zu wechseln. Das mag für Doom dann richtig sein, für andere Spiele wäre es wieder falsch. Und bei Ampere ist die Chance in so fern bei einem Nutzer einfach groß, die falsche Methode für ein Spiel auszuwählen.

Mit der von uns gewählten Methode müssen schlussendlich alle GPUs klar tun. Lovelace tut dies, RDNA 2 tut dies und RDNA 3 tut dies auch. Das es Ampere nicht tut ist offenbar eine Schwäche in der Architektur. Die Nvidia ja auch quasi indirekt damit zugegeben hat, dass sie die Stärke bei Lovelace plötzlich selber andauernd hervorheben.
 
  • Gefällt mir
Reaktionen: herculesgott, msv, Slainer und 5 andere
yamiimax schrieb:
Wird aber so kommen, das sagen schon so einige Verschiedene Quellen. Bei 192-Bit Bus geht halt nur 12GB.

Dennoch hat AMD hier eine sehr viel sinnvollere VRAM Abgrenzung als es bei NV der Fall ist.
2 unterschiedliche Leistungsklassen mit jeweils nur 12GB (4070 und 4070ti) sind nicht toll. Gerade die doch sehr teure 4070ti mit nur 12GB geht garnicht. Hier hätte die ti 16GB haben müssen und die 4080 dann 20GB.

Da sind die 8GB 7600XT, 12GB 7700XT, 16GB 7800XT, 20GB 7900XT und 24GB 7900XTX perfekt in meinen Augen.
7600XT und 7700XT perfekt für FHD bis WQHD.
7800XT, 7900XT und 7900XTX WQHD bis 4K.
 
  • Gefällt mir
Reaktionen: Windell
Ich werde in Zukunft sehr genau überlegen wie ich aufrüsten werde.

Aber es kristallisiert sich immer mehr heraus ordentlich Geld zur Seite zu legen und gleich in die BigChips zu investieren. Also lieber gleich eine 80er/90er kaufen und die dann eben 3-4 nutzen. Alles darunter ist nach 2 Jahren technisch zu stark gealtert als es den Preis wert gewesen wäre.

Weil wenn das jetzt die neue Steigerung pro Jahr bei Nvidia ist. Macht alles andere keinen Sinn. Meine 3080 lacht die 4070 gerade richtig aus, die Effizienz ist klar beeindruckend aber ich spiele nicht so viel das die paar Taler ins Gewicht fallen würden.

Da halte ich lieber mein Geld etwas länger zusammen und kann mit dem
Verkauf der alten Hardware die neue noch Quer-Subventionieren. Das darf man ja auch nicht vergessen.
 
  • Gefällt mir
Reaktionen: t3chn0, eraser4400 und Laphonso
Nordbadener schrieb:
Naja, wobei zur Wahrheit aber auch dazu gehört, dass moderne Spiele selbstständig Speichermangel erkennen können und daraufhin die Qualität der Texturen herab setzen.

Raffael Vötter von der PCGH erwähnt dieses "Benchmark-Problem" regelmäßig in seinen Tests.
Wobei ich das sogar prinzipiell als Komfort-Feature sehen würde, besonders für Leute, die sich nicht großartig mit den Grafikeinstellungen beschäftigen wollen. Aber es sollte dann eine abschaltbare Option in den Einstellungen sein.
 
  • Gefällt mir
Reaktionen: msv
Die 3080 war die Top Gamerkarte der letzten Generation. Denke die 4070er hat nicht das Ziel 3080er Besitzer anzusprechen. Wenn du aber eine 1070 oder 2070 hast, dann ist die 4070 schon ein Sprung und eher zu empfehlen als jetzt noch eine 3080er zu kaufen.
Ergänzung ()

mibbio schrieb:
Wobei ich das sogar prinzipiell als Komfort-Feature sehen würde, besonders für Leute, die sich nicht großartig mit den Grafikeinstellungen beschäftigen wollen. Aber es sollte dann eine abschaltbare Option in den Einstellungen sein.

Damit das Spiel dann crasht bei überlaufendem Speicher?
 
@Wolfgang
Vielen Dank für deine Stellungnahme.

Ich ging bereits davon aus, dass eure Tests dieses Limit über den RTSS setzen, der Einfachheit halber und eben auch über verschiedene Grafikkarten/Generationen/Treiberversionen hinweg ist das natürlich die beste Methode um möglichst wenig Variablen ins Spiel zu bringen.

Um eine möglichst repräsentative Abbildung für praktisch alle Spieler der Welt zu schaffen, müsstet ihr in diesem Test eine Unzahl an Titeln prüfen, auch das ist seitens des Aufwand nicht durchführbar, das kann ich natürlich auch nachvollziehen.

Ich kann es daher durchaus verstehen, wenn ihr die aktuelle Testmethodik so beibehalten wollt (und werde zukünftig auch keine "Shenanigans" mehr ausrufen, versprochen :D ).

Vielleicht fällt euch aber auch für die Zukunft eine andere, eventuell bessere Methode ein. Alternativ bestünde eventuell sogar die Möglichkeit, sich mit Verantwortlichen der Grafikkartenindustrie kurzzuschließen? Ich weiß nicht, wie gut eure Kontakte diesbezüglich sind und wie hellhörig AMD, nVidia und nun ja auch Intel auf dieses Thema reagieren. Es wäre selbstverständlich wünschenswert, dass eine FPS-Begrenzung, egal ob nun per Spiel, Grafikkartentreiber, Drittsoftware oder Monitor-Syncing, gerenderte Frames nicht einfach verwirft, sondern die Grafikkarte bereits im Vorfeld am Rendern dieser ungewollten Frames hindert.

Dass es sogar mit noch mehr technischer Finesse möglich ist, zeigt ja seit Jahrzehnten VSync, wo die FPS nicht nur GPU-seitig eingebremst, sondern die Ausgabe sogar noch zeitlich abgestimmt wird. Ein VSync ohne Sync sozusagen wäre also der perfekte Mittelweg, um die Grafikkarte am Rendern unnötiger Frames zu hindern und gleichzeitig das mit Vsync oft entstehende Inputlag zu verhindern.

Nochmals: vielen Dank für deine Stellungnahme. Die hätte ich mir früher schon gewünscht, dann hätte ich mir ja auch einiges an Aufwand sparen können :D
 
  • Gefällt mir
Reaktionen: DerFahnder und Syrian
Ich poste euch Mal ein Video von Moore's law ist dead. Er ist ja offenbar hervorragend vernetzt und hat in der Vergangenheit schon so einige Male richtig gelegen.

Kurze Zusammenfassung und Hintergrundinfos:
  • die Vertriebskanäle sind voll. Der Absatz geht bei allen Karten extrem schleppend, weshalb wir in den letzten Wochen auch immer weitere Preissenkungen gesehen haben.
  • die meisten Leute scheinen die neuen Preise nicht zu akzeptieren.
  • durch den Hardwarebug oder Softwarebug der Navi 31 Serie, bringt die Architektur derzeit nicht die angedachte Leistung. Deshalb arbeitet AMD derzeit an der Behebung für Navi 31 und 32. Ob das bei den derzeiten Navi 31 karten reparierbar ist, ist unklar.
  • AMD kann anders als Nvidia, nicht auf Karten für Datacenter ausweichen, weshalb AMD bei vollen Lagern auf Marktanteile gehen wird. Das bedeutet für uns bessere Produkte zu besseren Preisen, da wieder ein Konkurrenzkampf stattfinden wird.

Also wenn man warten kann, sollte man das mindestens bis zum erscheinen von Navi 32 tun, unabhängig ob man jetzt einen Hersteller bevorzugt. Den besseren Deal bekommt man dann auf jeden Fall und es trägt dazu bei, die Preise wieder etwas zu normalisieren. Es ist also Willensstärke gefragt. Das scheinen die Mehrzahl der Gamer auch zu zeigen. Es gibt also Hoffnung für unser Hobby. Man sollte die Lage nur einfach Mal mindestens 3-4 Monate aussitzen.

Ab Minute 29 geht's um die Marktsituation. Generell gefallen mir die Videos echt gut, wenn man Interesse an Informationen abseits des Marketings ist.


Kommentar zur 4070: haut mich nicht vom Hocker. Ich nutze meine grakas in der Regel um die 3 Jahre. Hätte ich damals eine 3070 gekauft, könnte ich die Zeit nichtmal gut überbrücken, weil der VRAM schon in neueren Spielen in wqhd nicht mehr ausreicht. Da wäre ich mit meinem LG OLED C1 richtig auf die Fresse gefallen. Diesen Fehler werde ich also nicht machen und eine so teure Karte mit nur 12 GB kaufen.

Ich brauche eine leistungsfähige obere midrange Karte, die ihre Leistung auch in 4k stabil abliefert und nicht an zu wenig VRAM oder an einem zu schmalen Speicherinterface leidet. Das ganze für unter 1000, aber lieber um die 700 Euro. Da hat Nvidia nichts im Angebot. Ich kann also nur auf AMD oder den ADA refresh der 70er Karten mit 16 GB warten.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: scheru, sonic_blade, M11E und 4 andere
Zurück
Oben