Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro

Ich habe DLSS3 selbst schon ausprobiert und beim Spielen selbst fällt es mir einfach nicht auf. Die meisten die meckern, suchen eben nach diesen "Fehlern" und können das dann in Superzeitlupe oder in bestimmten Bereichen auch ausmachen und darstellen. Ist wie am Anfang bei DLSS, auch da gab es noch Probleme und große Bedenken. Heute nach über 2 Jahren ist DLSS2 schon akzeptiert und liefert tolle Ergebnisse.

DLSS3 gibt es jetzt seit wenigen Monaten und die Hersteller und Nvidia machen die ersten Erfahrungen. Auch wird DLSS3 sicherlich noch an einigen Stellen besser. Ohne DLSS3 würde Raytracing nicht in die Mittelklasse kommen und Pathtracing in der Highendklasse möglich sein. Finde den Weg daher gut. Ein Softwarefeature kostet ja auch erstmal nichts, sondern ist ein Bonus für die Kunden.
 
  • Gefällt mir
Reaktionen: M11E, Kuestennebel79, wtfNow und eine weitere Person
@baskervil77

Wer bei Frame Generation an den Artefakten herummäkelt, für den muss jegliche Form von TAA (dann auch DLSS2 oder FSR2) völlig inakzeptabel sein.

Von Ingame Effekten die Artefakte erzeugen wie Screenspace Reflections, Ambient Occlusion, Shadow Maps, LoD will ich gar nicht erst anfangen. Dagegen ist Frame Generation ein Tropfen auf dem heißen Stein, wirklich.
Tatsächlich ist Frame Generation immer das erste, was ich aktiviere, sobald es untersützt wird. Dann entscheide ich erst, ob ich DLSS Quality nutze und dann erst ob ich Details reduziere. Weil das eben die Abstufung ist, mit der die Bildqualität beeinflusst wird. FG hat praktisch keinen sichtbaren Einfluss auf die Bildqualität. DLSS Quality ist manchmal schlechter, manchmal auch besser, manchmal einfach nur anders (andere Stärken, andere Schwächen) als native Auflösung mit TAA und Detailreduktion ist dann eben Detailreduktion mit mehr oder weniger gut sichtbaren Verschlechterungen der Grafikqualität.


Es ist schon erstuanlich, wie stark die Meinungen von Leuten sind, die die Funktion offensichtlich nie selbst ausprobiert haben.

Ich würde zwar Frame Generation niemals als "echte" performancemetrik nutzen und auf basis der dann erreichten FPS bewerten, aber es ist ein wahnsinnig guter Bonus, den man praktisch immer nutzen kann, vor allem im CPU Limit ist es der "geilste Shit" überhaupt, weil es eben im CPU Limit die FPS verdoppelt und die Frametimes glattbügelt. :daumen:
 
  • Gefällt mir
Reaktionen: BGnom, Wan900, Kuestennebel79 und 3 andere
Sehe ich auch so. Die kleinen Fehler und Artefakte muss man schon wirklich suchen und ranzoomen.
Ich bin aufgrund der überzeugenden Ergebnisse von DLSS 3.0 am überlegen meine 3090 zu verkaufen und eine 4070 Ti anzuschaffen. Das einzige was mich stört ist die Halbierung des VRAM's und dass es keine Founders Edition gibt.
 
  • Gefällt mir
Reaktionen: herculesgott und wtfNow
DJMadMax schrieb:
@Wolfgang
Vielleicht fällt euch aber auch für die Zukunft eine andere, eventuell bessere Methode ein. Alternativ bestünde eventuell sogar die Möglichkeit, sich mit Verantwortlichen der Grafikkartenindustrie kurzzuschließen? Ich weiß nicht, wie gut eure Kontakte diesbezüglich sind und wie hellhörig AMD, nVidia und nun ja auch Intel auf dieses Thema reagieren. Es wäre selbstverständlich wünschenswert, dass eine FPS-Begrenzung, egal ob nun per Spiel, Grafikkartentreiber, Drittsoftware oder Monitor-Syncing, gerenderte Frames nicht einfach verwirft, sondern die Grafikkarte bereits im Vorfeld am Rendern dieser ungewollten Frames hindert.

Dass es sogar mit noch mehr technischer Finesse möglich ist, zeigt ja seit Jahrzehnten VSync, wo die FPS nicht nur GPU-seitig eingebremst, sondern die Ausgabe sogar noch zeitlich abgestimmt wird. Ein VSync ohne Sync sozusagen wäre also der perfekte Mittelweg, um die Grafikkarte am Rendern unnötiger Frames zu hindern und gleichzeitig das mit Vsync oft entstehende Inputlag zu verhindern.

Nochmals: vielen Dank für deine Stellungnahme. Die hätte ich mir früher schon gewünscht, dann hätte ich mir ja auch einiges an Aufwand sparen können :D
Ich wüsste halt leider wirklich nicht, welche Methode "die Beste" wäre. Wie du selbst sagst, das variiert eben je nach Spiel. Die beste in Spiel A kann plötzlich die schlechteste in Spiel B sein. Ich denke nicht, dass man so großartig weiter kommt. Und eine ganz neue Methode zur FPS-Limitierung kenne ich jetzt nicht :D

Wie du selbst sagst, der RTSS hat den Vorteil, dass er eigentlich immer und überall funktioniert und das Generationsübergreifend. Bei den Treiber-Limitern gab es schonmals Probleme und es kann halt schnell passieren, dass diese plötzlich nicht mehr funktionieren. Zudem: Intel hat keinen. Das wäre dann schonmal ein Problem (wenn auch aktuell noch ein kleines).

Das mit dem Kontakt aufnehmen ist natürlich mal einen Versuch wert. Vielleicht findet man dann raus, warum das alles so unterschiedlich reagiert. Meine Erfahrung sagt da aber leider, dass das wohl ziemlich schnell ins Leere laufen würde...aber mal schauen.

In dem einen Absatz von dir: Beschreibst du da nicht Adaptive-Sync? :D Dann bräuchte man nur ein FPS-Limit minimal unter 144 FPS und dann ginge es wieder los, mit was man das erzeugt.

Neronomicon schrieb:
@Wolfgang

Ein interessantes Thema mit dem Fps Cap, da ich es auch nutzte, aber nur über den Nvidia Treiber. Dazu ist Vsync noch an bei mir.

Ich hätte da einen Vorschlag. Wie wäre es, deine Cap Methode und noch im Treiber die Fps zu begrenzen. Falls ein Spiel, das nicht auf deine Methode anspricht, so vielleicht auf die des Treibers+ Vsync an.

Ps.: Ich weiß,ihr habt was anderes zu tun, aber könntest du nicht mal in ein paar Spielen das gegen testen, ob es da eine Veränderung gibt?
Wenn du ein FPS-Cap und VSync anhast, müsste doch aber immer der FPS-Cap greifen, wenn du den unter der VSync-Schwelle gesetzt hast (und alles andere ergibt ja keinen Sinn), oder stehe ich da jetzt auf dem Schlauch? Dadurch sollte VSync bei dir ja eigentlich nie greifen, solange der FPS-Limiter keinen Blödsinn machst. Oder sind Limiter und VSync bei dir auf "derselben Stufe"?
 
  • Gefällt mir
Reaktionen: Rockstar85, BGnom, McTheRipper und eine weitere Person
Ayo34 schrieb:
Ich habe DLSS3 selbst schon ausprobiert und beim Spielen selbst fällt es mir einfach nicht auf. Die meisten die meckern,
Die meistenm, die hier meckern, haben selbst ja gar keine RTX4000 und können das nicht mal selbst beurteilen. Nur..ja, eben .... meckern und "meinen" ;)
 
  • Gefällt mir
Reaktionen: MDRS66, DaHell63, wtfNow und 2 andere
DerFahnder schrieb:
Also ich weiß ja nicht genau wie das bei anderen GPU Starts war, aber zusammen hat Mindfactory jetzt 115 RTX 4070 in 2 Tagen verkauft.

Nachfrage scheint eher nur so semi da zu sein und ich muss sagen: Mich freut das.
Okay inzwischen ist bei Mindfactory doch deutlich mehr verkauft, die MSI Ventus über 300x schon und die Gaming auch 70x. Das sieht dann natürlich schon deutlich anders aus.

1681463615850.png
 
  • Gefällt mir
Reaktionen: wtfNow
Eli0t schrieb:
Ja tun sie, eben weil das eine Konsole ist, weil das eine unified Speicherarchitektur ist, weil zumindest die PS5 eigene Einheiten für den SSD Zugriff vorbei an der CPU hat. Auf der Konsole bekommst Du keine matschigen Texturen und mußt Dir keine Gedanken machen. Für einen PC ist es massiv schwieriger die Rohleistung auf den Bildschirm zu bekommen als für eine Konsole, alleine die komplette Latenz zwischen CPU und PCIe entfällt.
Willkommen in der Marketing Abteilung von Sony.

Gähn...

Sony hatten auch mal eine Emotion Engine die angeblich ganze Levels prozedural berechnet konnte. Natürlich ohne zutun der Gamedsigner. Da war sogar der Marketing Chef von Microsoft ganz neidisch.

-> Ergo hat Sony bereits vor 20 Jahren AI in die PS2 eingebaut.

Wer es glaubt...
 
  • Gefällt mir
Reaktionen: thuering
Fasertest schrieb:
Sehe ich auch so. Die kleinen Fehler und Artefakte muss man schon wirklich suchen und ranzoomen.
Ich bin aufgrund der überzeugenden Ergebnisse von DLSS 3.0 am überlegen meine 3090 zu verkaufen und eine 4070 Ti anzuschaffen. Das einzige was mich stört ist die Halbierung des VRAM's und dass es keine Founders Edition gibt.
🤔
Dann lieber sparen, Fasertest, wirklich. Eine 4070Ti ist hier maximal ein "Sidegrade plus" in der Performance.

Von einer 3090 (und 3080 und 3080Ti ebenso) kommend gibt es meines Erachtens nur die 4080 oder 4090 als echte Verbesserung.
Ja, I know, scheiss Preise.... Aber bitte, keine 4070Ti, rein auf Deine Situation bezogen. Dann lege lieber noch ein paar Taler extra zurück.
 
  • Gefällt mir
Reaktionen: BGnom, eraser4400, Wichelmanni und 5 andere
Mir ging es vor allem um die Vertriebskanäle. Da hat er offenbar Recht. Man kann sich natürlich über gar keine Gerüchte und "Leaks" unterhalten, weil eine offizielle Stellungnahme der Unternehmen bekommst du erst wenn's es soweit ist. Solange er das ganze nicht als Fakt darstellt, absolut in Ordnung. Die Unternehmen erstellen übrigens verschiedene Revisionen der Karten und verschicken diese an die Boardpartner, um solchen Leaks entgegen zu kommen und Quellen einzugrenzen. So kommen dann vorab die unterschiedlichen Werte zustande. Sollte man deshalb nicht darüber reden?

Viel schwieriger finde ich Leute die ihre persönliche Meinung ohne ausreichende Quellen als Fakt darstellen, wie hier einige im Forum. Selbst wenn man 3 Quellen postet, wird sowas dann natürlich als "falsch" bezeichnet. Da kommt mir dann immer der Querdenker in den Sinn, der laut Lügenpresse schreit, ohne nur den Hauch einer Ahnung zu haben. Quasi die Fälschung von Benchmarks unterstellt, die ja nachvollziehbar wären. Wenig überraschend haben genau diese Leute dann eine RTX 40 in Rechner. Wenn man diese Forenmitglieder dann nach Quellen oder Nachweisen fragt, bekommt man natürlich keine Antwort. Passt halt nicht ins persönliche Weltbild, also brauchen diese offenbar keine Nachweise. Das grenzt dann schon an Narzissmus.

Die 600 Watt Gerüchte bezüglich rtx 4090 waren wahr. Mit Samsung 8 nm wäre es so gekommen. Der Wechsel auf TSMC wurde ja quasi in letzter Sekunde durchgeführt. Was glaubt ihr, warum die Kühler alle so drüber sind? Die wurden natürlich frühzeitig von den Boardpartnern bestellt, um die Leistungsaufnahme zu kompensieren. Quelle: igorslab
 
Zuletzt bearbeitet von einem Moderator:
Fasertest schrieb:
Die 4070 schlägt eine 3090 Ti deutlich. Ich würde fast sagen, dass es noch nie so eine große Leistungssteigerung wie von 3000 auf 4000 gab.
Willkommen in der Marketing Abteilung von nvidia.

Die 4070 ist etwas langsamer als die 3080 und der Preis ist quasi identisch.

Ich kann hier keinen Leistungssprung erkennen...
 
  • Gefällt mir
Reaktionen: Rockstar85, McTheRipper, Orok91 und 5 andere
Laphonso schrieb:
🤔
Dann lieber sparen, Fasertest, wirklich. Eine 4070Ti ist hier maximal ein "Sidegrade plus" in der Performance.
Darauf läufts auch eher hinaus. Ich denke mit der 3090 komme ich noch ganz gut über die Runden (mir reichen bei vielen Spielen auch schon 60 FPS und ich zocke in 1440), bis ich dann in der 5000er Generation wieder zuschlagen kann. Die wird ja sicherlich mindestens DLSS 3.0 unterstützen 😃
 
  • Gefällt mir
Reaktionen: Laphonso und public_agent
Eli0t schrieb:
Hmm.. wenn ich rein nach Raster rechne (nur mit den CB Benches), bekomme ich für 25,8% mehr Kohle für eine 7900XT auch 34% mehr Leistung in 4k. Bei 1440p sind es sogar 37% mehr Leistung... Muß natürlich jeder selbst wissen, wie wichtig RT ist, aber wenn man schon derart viel Kohle ausgibt, dann kann auch in die Zukunft investieren und sich 20GB VRAM holen, damit sich die "8GB Misere" der 3070 nicht wiederholt. Ich denke,die Spiele werden den Speicherverbrauch nicht unbedingt senken in der Zukunft, die Engines werden immer mächtiger, ich weiß nicht 659,- überzeugt nicht.
Absolut. Genau so habe ich es gemacht. Habe die 7900XT vor ein paar Wochen für 819€ oder so bei mindfactory bekommen. RT ist für mich nichts weiter als ein Werbegag, ich brauche Rasterizer Leistung. Bei Cyberpunk sehe ich keine Unterschiede zwischen RT Ultra und Ultra ohne RT. Bei Action habe ich sowieso keine Zeit, mir Reflektionen in Pfützen anzuschauen.
300W für die Leistung meiner karte ist vertretbar. Die 4070 nimmt sich zwar 30% weniger Strom, hat dafür auch 40% weniger Raster Leistung in Spielen auf 4k.
 
  • Gefällt mir
Reaktionen: Eli0t und Icke-ffm
Mimir schrieb:
Ich würde zwar Frame Generation niemals als "echte" performancemetrik nutzen und auf basis der dann erreichten FPS bewerten
Dann sollte man es auch belassen mit „3090 ti einstampfen“. Nettes feature? Ja, absolut. Komplett ausgereift? Nein.
Mimir schrieb:
Es ist schon erstuanlich, wie stark die Meinungen von Leuten sind, die die Funktion offensichtlich nie selbst ausprobiert haben.
Grundlose Behauptung. Entweder habe ich gute Augen oder der große TV unterstreicht die „kleinen„ Macken aber mich hat dlss und fsr noch nicht wirklich überzeugt. Obwohl ich die Features auf dem Papier toll finde.
 
  • Gefällt mir
Reaktionen: Rockstar85
Fasertest schrieb:
bis ich dann in der 5000er Generation wieder zuschlagen kann. Die wird ja sicherlich mindestens DLSS 3.0 unterstützen 😃
Nvidia ist allerdings zuzutrauen, dass ein DLSS 4 kommt, dessen neue Features nur die RTX5000 können 😂

Aber ja, 25% der Ada "Laufzeit" sind schon rum. In 12 Monaten kommen die ersten RTX5000 leaks.

Deine 3090 (Luxusproblem :D hier würden VIELE gerne Deine 3090 im Rechner haben!) hält bis nächsten Herbst durch, und angesichts Nvidias Preispolitik - das ist ja der Gag - wird der Wiederverkaufspreis der 3090er via privat/ebay ordentlich stabil bleiben. Und Du kannst mit den 24 GB VRAM punkten.
 
  • Gefällt mir
Reaktionen: Fasertest
Eli0t schrieb:
Wenn das in 720p hochskaliert wird, dann werden auch 720p Texturen verwendet.
Texturen werden durch den angepassten Mip-Map-Bias nicht angefasst. Siehe hier.
Die source texture resolution wird nicht gesenkt. Es werden keine 720p Texturen verwendet, sondern nur in 720p ausgegeben. Die Farbwerte werden durch den Schnittwert des intern 3x höher aufgelösten Bildes genauer bestimmt.

Eli0t schrieb:
nee, Du kannst der Grafik locker 12GB zuweisen, das ist NULL Problem.
Ich habe dazu keine sichere Quellenlage gefunden.
Das Verhältnis war bei der älteren XBOX wahrscheinlich so. Ich glaube nicht, dass effektiv mehr als 8 bis 10GB als Grafikspeicher zur Verfügung stehen.
Screenshot 2023-04-14 112834.png


DerFahnder schrieb:
Also ich weiß ja nicht genau wie das bei anderen GPU Starts war, aber zusammen hat Mindfactory jetzt 115 RTX 4070 in 2 Tagen verkauft.
Der Verkaufsbeginn war gestern um 15 Uhr. Das ist nicht mal 1 Tag.
Und es fehlen zwei Angebote die nicht mehr verfügbar sind. Insgesamt waren es gestern als ich gestern meine Bestellung reserviert habe schon 400 Stück.
 
Zuletzt bearbeitet:
Fasertest schrieb:
Aber wie man an DLSS 1&2 bzw. FSR sieht, werden diese Features mittlerweile bei fast allen neuen Spielen berücksichtigt.
Meinte auch eher die Vorteile von Weiterentwicklungen bei bereits erschienenden Spielen. Wenn beispielsweise die RTX 5000 durch DLSS4 nochmal deutlich zulegt, kommt die Steigerung ja nicht bei Spielen an, die bis kurz davor noch mit DLSS3-Support erschienen sind (außer der Entwickler liefert es per Patch nach). DIe Steigerung durch die Software greift also nur bei Spielen, die nach der Weiterentwicklung erscheinen.

Will damit DLSS und Co. auch gar nicht schlecht reden, nur haben Leistungsteigerungen direkt in der Hardware eben den Vorteil, dass die unabhängig vom Alter des Spiels bei allen ankommt.
 
  • Gefällt mir
Reaktionen: Rockstar85
Das ist definitiv richtig mibbio. Ältere Spiele, welche beispielsweise kein DLSS 3.0 unterstützen laufen im aktuellen Beispiel dann auf einer 3080 in etwa genau so schnell wie auf einer 4070. Allerdings laufen solche älteren Spiele dann auch auf älteren Systemen schon flüssig und erfordern vermutlich ohnehin kein DLSS 3.0 um auf 3-stellige FPS mit aktuellen GPU's zu kommen.
Will damit sagen, dass DLSS 3.0 ja gerade erst bei neuen fordernden Spielen richtig Sinn macht.
 
  • Gefällt mir
Reaktionen: wtfNow und Schlumpfbert
Aufgrund der 4070 gibt es die 6800xt demnächst bestimmt für 450€. Denke, dass ist der neue 1440p Sweetspot.
 
  • Gefällt mir
Reaktionen: Connecto
danyundsahne schrieb:
Aber wenn AMD so lange braucht, juckt es mir natürlich schon in den Fingern auch eine 4070 näher in Betracht zu ziehen. Aber der Preis.... :D
ja AMD hat sich mit RDNA3 bisher keinen gefallen getan, da N32 wohl noch dauert hätten sie mehr auf navi 31 bringen sollen vor allem auch speicherkrüppel, da bei AMD das SI eh nicht so effektiv ist
7900xtx wie jetzt nur mehr UVP 1399 wie 4080 sowie 12GB version für 999
7900xt-384bit 24GB -UVP 1199 sowie 12GB version 899
7800xtx nur 90CU und 320bit 20GB uvp 999 sowie 10GB für 799
7800xt die schlechtesten Dies 256bit 16GB uvp 699

Mit 12GB an 384Bit ist bis WQHD sicher nur minimal langsamer wie mit 24GB in UHD hingegen dürften die 12GB bei AMD sicher zu drops führen. So hätten sie spielraum bei den VK 12&20GB an die 4070 anzupassen
und die 24GB an die 4080 und 4080ti die sicher auch noch kommt
 
  • Gefällt mir
Reaktionen: danyundsahne
Zurück
Oben