Test Nvidia GeForce RTX 5070 im Test: Stillstand mit MFG bei bestenfalls 649 Euro

lynx007 schrieb:
Deckt sich nicht mit meinen erfahrung.
Ich rede aber von DLSS Transformer, das ist nicht ansatzweise mit FSR 3 oder älter vergleichbar.
lynx007 schrieb:
Aber bei mir auch auf FHD schluss. und wenn da FSR irgendwas rumrendert, sieht es grundsäztlich aus wie 720p Scheißes... oft sogar schlechter weil, interpoliert wird... sprich kanten verschwinden, alles wirkt übertrieben weich und ekelhaft... und für wirkt das so als würde man ein spiel aus der Jahrtausenwende einem Spiel von 2015 gegenüberstellen....
Sicher, wenn ich auf meinem QHD Monitor beispielsweise FSR Performance einschalte, dann bröselt alles.
Aber das soll ja mit FSR4 besser werden.
lynx007 schrieb:
DLSS soll ja besser sein. Aber auch da sagen die Reviewer oft, lohnt erst bei QHD. und selbst da auch nur wen man kein problem mit ghosting hat.
Das Ghosting von TAA ist meines Erachtens deutlich schlimmer. Ghosting nehme ich gar nicht mehr wahr.
Bin ich aber auch nicht anfällig für, wobei mir es in Indiana Jones mit PT schon an Zäunen manchmal leicht auffällt. Also schnell hin und her gehen, bzw. mit der Maus wischen.
 
1024 schrieb:
Ehrlich gesagt verstehe ich die Berichterstattung langsam nicht mehr. Warum testet man nicht auch mit MFG?
Hat man doch geschrieben, Nvidia hat den Release Verschoben um vor AMD zu starten und jetzt hat CB halt soviel Test gemacht wie sie konnten in der Kurzen Zeit.
 
  • Gefällt mir
Reaktionen: mydayyy, evilhunter und xXDariusXx
1024 schrieb:
Ich habe bei cyberpunk 2077 mit meinem neuen 480 hz OLED ganze 400 FPS in RayTracingOverdrive!
Diese benchmarks hier sind eben nur die halbe Wahrheit. Extrem flüssig im Vergleich zur fast gleich schnellen 4090, weil man Technologie weglasst um es vergleichbar zu machen!
Entweder deine Auge oder deine Wahrnehmung ist nicht mehr das beste.. oder du hängst dich an den FPS durch MFG etc auf. Als Beispiel sind konstante, echte 80 FPS DEUTLICH angenehmer zu spielen als die doppelten FPS mit mFGe etc
Ergänzung ()

1024 schrieb:
Meine RTX 5080 war schon ein Upgrade zur RTX 4090
Nein :p
 
  • Gefällt mir
Reaktionen: mydayyy, eXe777, evilhunter und 4 andere
Ich dachte ernsthaft Nvidia hat als Technologieführer im GPU-Segment einen höheren Anspruch, stattdessen machen sie einen Intel-Move und legen mehr oder minder einen Refresh hin.
Den Launch der Blackwell-CPU's kann man sich als Nvidia-Fan nicht schöntrinken ohne eine veritable Leberzirrhose zu riskieren...
 
  • Gefällt mir
Reaktionen: mydayyy, eXe777, Celinna und 3 andere
Robo32 schrieb:
Aber ja, die 12GB werden auf lange Sicht zu wenig sein - die Frage ist nur was "lange Sicht" bedeuten soll,....
Wenn ich mich da festlegen müsste dann schätze ich das spätestens nach der übernächsten Konsolengeneration 12 GB VRAM auf keinen Fall mehr ausreichen werden.^^

Nicht das ich glaube das es dann erst der Fall sein wird problematisch zu sein, aber das wäre ein Zeitpunkt wo es vermutlich ziemlich sicher überhaupt nicht mehr ausreichen wird.^^
 
Ach menno, also doch kein 4090 Killer wie es JH es versprochen hat. Für 450,- wär die Karte gut bezahlt.
 
  • Gefällt mir
Reaktionen: Celinna und Apocalypse
Quidproquo77 schrieb:
Das Ghosting von TAA ist meines Erachtens deutlich schlimmer. Ghosting nehme ich gar nicht mehr wahr.
:daumen::evillol:

Ich weiß nicht ob das so das verkaufsargument ist.... "Es flimmert so scheiße das ich mich am ende daran gewöhnt habe und es nicht mehr wahrnehme"

Das mit (T)AA stimmmt schon... AUf der anderen seite, flimmert aber auch alles wen man AA aus macht, dank transparenter "Gemüse"texturen und hoher auflösung....

Ich verstehe schon worauf du rauswillst. Wen DLSS alles super läuft hat man Supersampling und alles sieht gleich "schweiße" oder gleich "gut" aus. ge nach spiel. Hab mich aber nie daran gewöhnt das wen man sich bewegt, auch anfängft das "Bild" zu bewegen, und zwar anders als man es in der Realität war nimmt. Wenn dann anfangen die Texturen zu "schwimmen" und zu rauschen... auf und zu ploppen, so wie man fast bei clipping fehlern kennt....
Grafikfehler gab es schon immer... jetzt wirkte es die letzen Gens aber auch etwas so, als würde man versuchen Grafikfehler als Feature zu verkaufen.

Deshalb bin ich ja auch froh das sie bei DLSS4 so gewaltige fortschritte, zuminest ab 1440p gemacht haben. Das ist für mich aber noch immer unbezahlbar. Aber es freut mich dennoch das es fortschritte gibt. Aber bis das bezalbar bei 300€ auf 60p angekommt, und zwar so das es auch nicht schlechter ausieht wie auf 1080p gerendert, ich glaub nicht daran das es in dieser Gen sein wird. Dafür wurde leider die letzen Jahre zuviel "mist" versprochen. Die beste Spielerfahrung habe ich in den meisten Titeln wen ich alles so runterstelle das es flüssig aber gestochen scharf aussieht. Und da ging ich bis dato lieber 5, 10 jahre in den Setting zurück, als oft diesen Grafikmatsch anzutun, der standartmäsig von Devs eingestellt wird. Also Dune mit 60fps auf ner 1060_3gb zu erleben, war schon nen erlebnis sage ich dir... aber keine positives... vielicht mit FSR4 anders... vielicht aber erst fsr5.... oder erst wen ich mir eine 1440p gpu leisten kann. Also so in 5 jahren. :daumen:
 
Tornavida schrieb:
Ach menno, also doch kein 4090 Killer wie es JH es versprochen hat. Für 450,- wär die Karte gut bezahlt.
Für 380 auch!
 
Hahahaha. Also Kernschrott, wie erwartet und es gab hier dennoch genügend Experten, die der Meinung waren, eine 4090 sei jetzt wertlos. Pahahaha. 😂😂
 
Uiuiui was für ein schlechter Nachfolger. Verbraucht manchmal mehr, liefert weniger FPS und soll für mindestens 649€ über den Tresen gehen.

Mann hätte ja wenigstens 10-20% mehr Shader drauf packen können um den technologischen Fortschritt zu zeigen. Stattdessen versucht man mit Chipabfall den Kunden zu melken.

Gibt es wirklich Leute die für 1080p Gaming 650€ für eine Grafikkarte hinlegen? In der Enthusiastenbubble mit 4k und hunderten Hz etc. kann man das ja noch als Investition in das Hobby verstehen. Aber gibt es wirklich so viele Gelegenheitszucker, die 650€ für ihr FIFA 2025 auf 1080p ausgeben?
 
  • Gefällt mir
Reaktionen: mydayyy
Pisaro schrieb:
Stelle ich bei Monster Hunter Wild auf meinem 4K Oled TV von DLSS Quality auf Performance kommt mir sofort die Galle hoch.
Hast du dort DLSS Transformer per Swapper getauscht?
Ergänzung ()

Wichelmanni schrieb:
Gibt es wirklich Leute die für 1080p Gaming 650€ für eine Grafikkarte hinlegen? In der Enthusiastenbubble mit 4k und hunderten Hz etc. kann man das ja noch als Investition in das Hobby verstehen.
Wenn man die richtigen Spiele spielt, ist man auf 7900XT Niveau.^^

Screenshot 2025-03-04 214324.png
 
Pisaro schrieb:
Stelle ich bei Monster Hunter Wild auf meinem 4K Oled TV von DLSS Quality auf Performance kommt mir sofort die Galle hoch. Gar nicht mal sooooo sehr bei Standbildern. Klar, auch da sieht man einen Unteschied, im bewegten Bild allerdings sieht es echt grausam aus.
Ich sehe das bei CP2077 zB nicht so sehr. Das Bild an sich sieht gut aus, ich könnte nicht sagen ob es nativ ist oder nicht, was ich aber sehe ist zB wenn man das Game startet und in der Wüste in der Garage mit dem Auto steht und aus dem Stillstand dann nur eine sachte Bewegung macht wirds irgendwie unrund.

Ich kann nicht genau sagen was es ist, aber ohne groß Bewegung sieht es gut aus und knackscharf und sobald nur eine leichte Bewegung reinkommt merkt man wie bestimmte Ränder auf einmal wieder "normal" scharf sind statt "knackscharf".

Schwer zu erklären, aber ist mir hier zB direkt aufgefallen. Müsste das mal mit dem neuen Transformer Model mal testen ob das immer noch so ist. Generell kommt nicht jedes Spiel gleichermaßen gut damit zurecht.

Ich würde daher auch nur auf DLSS-Q spielen wollen, selbst in 4K, auch wenns mir beim Spielen selbst wenn man nicht wirklich auf jedes Detail achtet vermutlich kaum bis gar nicht auffallen würde.
Ergänzung ()

Quidproquo77 schrieb:
Wenn man die richtigen Spiele spielt, ist man auf 7900XT Niveau.^^
Ist halt leider auch kein großer Mehrwert hier: 3-4 fps für 650€ ? Nich so geil. Generell würde ich erwarten, dass das Nachfolgemodell den eine Klasse höheren Vorgänger schlägt. Also in dem Fall eine 4080 oder als Minimum eine 4070 Ti. So wie eine 5080 eine 4090 schlagen sollte.
 
  • Gefällt mir
Reaktionen: mydayyy und Icke-ffm
nach mehreren reviews ist klar das blackwell durchaus 96fp32 bedienen kann was für die amp Einheit spricht
Das kontra kommt aber das damit quasi Stillstand herrscht 48sm egalisieren 56sm und zieht in etwa gleich
Das macht im maximum + -3% zur rtx4070 super
Das heißt aber auch das die 4070 super nur bis 2,5ghz Taktet
Und der abstand zur rtx4070 nur zwischen 16-18% liegt

Die abstände sind viel zu klein mittlerweile es tummeln sich 6 gpu um die 10-20% rum was soll dass
preislich kommt mir nur ein Gedanke in den Sinn rx9070
Das ist der schlechtestes launch von nvidia seit 2008 wo gtx2xx tesla refresh gekommen ist +5-15% damals
Das gute war damals das damit auch der Strombedarf sank. dank 55nm vs 65nm
Da war 160w high end nur zum vergleich zu heute
 
  • Gefällt mir
Reaktionen: trommelmaschine und Wichelmanni
shaboo schrieb:
für 290 wäre sie die perfekte FHD Karte bis zur nächsten Konsolen Gen. da braucht es dann wohl 16GB für FHD
 
  • Gefällt mir
Reaktionen: mydayyy
Der Satz in dem Artikel passt nicht so recht…

„Abseits dieser spätestens in UHD maßgeblichen VRAM-Probleme zeigt die GeForce RTX 5070 Ti in den einzelnen Spielen in etwa dasselbe Verhalten wie die GeForce RTX 5090, RTX 5080 und RTX 5070 Ti„
 
Habe ich die ganzen Leaks und Zahlen richtig verstanden? Radeon 9070 kommt zum gleichen UVP, mit gleicher Raytracing Leistung, vmtl geringerer Verbrauch, mehr VRAM und FSR4 auf DLSS Niveau? Bin auf die AMD Test gespannt
Klingt gut, wenn das so eintritt. Aber für mehr Marktanteile wird es vmtl trotzdem nicht reichen.
 
  • Gefällt mir
Reaktionen: Vitche
Zurück
Oben