News Wochenrück- und Ausblick: Wenn 25 % Mehrleistung der RTX 5090 Spieler enttäuschen

Die GTX 5090 ist für mich eher eine ungelabelte KI-Grafikkarte.
Und ich finde die Technik der neuen GTX ist schon beeindruckend. Und das sage ich, obwohl ich kein Freund von Nvidia bin.

Und danke an das Computerbase.de-Team für die meist tollen Tests und News.
 
blackiwid schrieb:
Wem glaub ich nun eher einem halbwegs neutralen Tester oder dir, der viel Geld in Nvidia investiert hat
Das musst du für dich selbst ausmachen.. eingeladen wird eh nur derjenige der positiv bzw neutral rückhaltend über einen berichtet bei Presse Events.. das ist ganz normal.


Ich kann dir nur sagen was ich Persönlich live vor mir sehe.. FSR 1 bis 3.1 / DLSS 1 bis 4... Und da hat FSR3.1 als aktuel neuste Version schon keine Chance gegen DLSS3...
Und DLSS3 keine Chance gegen DLSS4 mit dem neuen Transformers model





blackiwid schrieb:
kostet die 4070 deutlich mehr wie ne 7800, 490 vs 650, außer du redest von den Nonsuper das ist aber ein Speichergrüppel das wird dir mit UE5 aber um die Ohren fliegen, außerdem ist das so ein Randargument, wir reden doch hier über die 50er gen und der Gegenspieler wird AMDs neueste Gen sein der zum Release eben FSR 4 können wird,
Diese 100-150€ sind es aber gerade wegen DLSS wert..von dem RAM bei der RTX4070 bin ich auch kein Freund.. aber gerade wegen DLSS ist das ganze nicht so schlimm und man hat etwas länger was von der Karte

Und die RX9000 Serie muss sich auch mit den RTX4000ern und den RX7000 messen.. gerade weil sie diese ebenfalls erstmal schlagen muss.
blackiwid schrieb:
Wenn du es dismissed wegen zu wenig spielen (das wissen wir noch nicht auch bei AMD kann man mitlerweile DLLs tauschen), dann kann ich das mit DLSS auch machen da sie ja auch incht 100% der Spiele unterstützen oder setzt du da willkürlich einen Cutoff point der Nvidia nicht betrifft aber AMD schon.
Man wollte das bei FSR3.1 auch möglich machen mit dem DLL Tausch.. ist sogar ne Vorgabe von AMD
praktisch gibt es jedoch kein Spiel wo das aktuell möglich ist... Da alles Traditionell ohne DLL Datei eingeflegt wurde.




blackiwid schrieb:
Und die aussage das DLSS4 performance so gut sei wie was auch immer Nativ sein soll ist Quality Nativ ich glaub nicht?
Du musst es live gesehen haben um es zu glauben.. je nach Spiel war DLSS3-Q schon besser als TAA-Nativ.
FSR3.1 ist nie an DLSS-Q rangekommen.

blackiwid schrieb:
Aber ja selbst wenn dann hast jetzt 2 Jahre nach Release der 4070 jetzt eben dlss4 bekommen warum soll ich dann nicht das in 1-2 Jahren FSR4 auf 7800 portiert auch zählen? Zumal auch FSR3 noch besser wird.
Nur bekommt die 4 Jahre alte RTX3070 das ebenso wie die 6 Jahre alte RTX2070

Ob FSR4 auf RDNA3 wirklich läuft ist zur Zeit noch Wunschdenken.. man hat sich seitens AMD dazu nur geäußert mit: man versucht wenn man Zeit hat soviel wie möglich Lauffähig zu machen.. was aber kein Garant dafür ist das alles funktioniert.
Und FSR3 ist raus aus der Entwicklung.. da wird nix mehr verbessert da der Focus auf FSR4 liegt.


blackiwid schrieb:
Selbst DLLs tauschen wird btw für die meisten z.B. 4070 Kunden genauso ein Unding sein wie PC Übertakten oder Linux installieren, damit sollte man auch nur begrenzt argumentieren.
Deswegen ist ab den nächsten Nvidia Treibern möglich das ganze automatisiert zu updaten und die alten Versionen zu überschreiben..
Und in Gegensatz zu FSR ist das möglich.. die Schwelle ist auch für unerfahrene viel einfacher da es bereits jede Menge Tools dafür gibt die das automatisiert haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Blackfirehawk schrieb:
Ich kann dir nur sagen was ich Persönlich live vor mir sehe.. FSR 1 bis 3.1 / DLSS 1 bis 4... Und da hat FSR3.1 als aktuel neuste Version schon keine Chance gegen DLSS3...
Und DLSS3 keine Chance gegen DLSS4 mit dem neuen Transformers model
Es gibt halt ein Punkt an dem es den meisten egal ist, um wieder der MP3 Vergleich zu bringen, ja AC3 und Ogg Vorbis und viele andere Codecs waren teilt deutlich besser aber 128bit und erst recht 192bit mp3 waren eben 99% der Leuten gut genug. Das wird spätestens mit FSR4 auch so eintreten. Selbst gute implimentierungen von FSR3 stehen DLSS 3 nichts nach, du sagst es so pauschal aber das schwankt laut den Tests hier immer extrem zwischen verschiedenen Spielen, im Schnitt ist sicher DLSS3 besser als FSR 3 oder wird noch von mehr Games unterstützt aber das ist halt nur der Schnitt und der Abstand wird ständig kleiner, am größten war er als AMD noch bei FSR2 war und Nvidia schon bei DLSS3, heck der Overlap war ja sogar 100% ende 2022 wurde beides released. FSR 3 kam dann schon Ende 2023 DLSS 4 jetzt erst Anfang 2025.
Und DLSS 4.5 war keine Grafikqualitätsverbesserung, es war nur schnelleres Raytracing.

für >50% der Games ist das egal, besonders wenn man nicht nur auf die >800 Euro karten schaut wo man RT eh nur maximal minimal an machen kann.

Aber klar es war ne Teilantwort AMD hat den größeren Sprung gemacht Nebenbei hatte man noch das überlegene bessere Frame Gen plattformübergreifend auch noch angeboten und dort Nvidia überholt (ja ich lästere über FG aber nur weil man es als Nativ Frames nimmt und als großen Punkt sieht das es an sich besser ist wie wenn man nichts hat hab ich nie gesagt in manchen Situationen kann das ein kleines Plus sein sicher).

Und jetzt macht FSR nen größeren Sprung nur postive keine Verschlechterungen zumindest von was wir bisher gesehen haben, mag Cherry gepickt sein werden wir sehen, wie auch immer der Trend ist klar AMD holt auf. Sie haben es jetzt auch Fertig zum release schon monate vor Release können sie es demonstrieren... das ist auch ein Fortschritt zu FSR 3.

Blackfirehawk schrieb:
Diese 100-150€ sind es aber gerade wegen DLSS wert..von dem RAM bei der RTX4070 bin ich auch kein Freund.. aber gerade wegen DLSS ist das ganze nicht so schlimm und man hat etwas länger was von der Karte
Ja aber das ist doch Gaga, Wenn ne 7900xt für 30 Euro mehr gibt oder ne 7800xt für 150 Euro weniger dann vergleich ichs doch mit ner 7900xt...

Blackfirehawk schrieb:
Und die RX9000 Serie muss sich auch mit den RTX4000ern und den RX7000 messen.. gerade weil sie diese ebenfalls erstmal schlagen muss.
Naja demnach muss die RTX 5080 auch mit der 40xx messen lassen weil die 4090 ist ja schneller (außer man glaubt das Fantasieframes gleichwertig sind). Es geht immer um Preisleistung, außer bei ner kleinen Käuferschicht die ok ist massive Aufpreise für kleine Verbesserungen zu blechen...

Klar ist dir Geld weitgehend egal ist die RTX 5090 die beste Karte (solange die Infrastruktur Netzteil gut gelüftetet Gehäuse hast/ kaufen bereit bist / das im Sommer weg kühlen kannst etc)

Blackfirehawk schrieb:
Man wollte das bei FSR3.1 auch möglich machen mit dem DLL Tausch.. ist sogar ne Vorgabe von AMD
praktisch gibt es jedoch kein Spiel wo das aktuell möglich ist... Da alles Traditionell ohne DLL Datei eingeflegt wurde.
Das wird man ja erst mal noch sehen, gibt ja noch kein FSR 3.2 also sieht man noch nicht ob man es updaten kann:
https://www.nexusmods.com/site/mods/1099?file_id=4420

Blackfirehawk schrieb:
Du musst es live gesehen haben um es zu glauben.. je nach Spiel war DLSS3-Q schon besser als TAA-Nativ.
Es juckt nur nicht oder nur Leute mit nem Budget >800 Euro, jeden Euro sollte man in Oled Display investieren da dadurch die Kontraste (HDR) und Farben und alles viel mehr bringen als ob in der Ferne sich irgend ein komisches Scheiss dreht oder Fahnen wehnen da muss man bei stillem Bild hin sitzen und schon fast mit der Lupe (polemik) hin sehen um es zu finden oder im direkten Vergleich ich sag es nochmal MP3 vs WAV ist der Vergleich ab irgend einem Punkt juckts 99% nimmer und ne gute FSR 3 und ne normale FSR4 wird diesen Punkt easy erreichen.

Ja bei der letzten Gen war DLSS sicher ein kaufargument warum man hier und da 100-200 Euro mehr blechen bereit war also manche, das versteh ich, auch weil FSR3 nicht zum Release schon da war und selbst danach nicht durchgehend oder nicht durchgehend gleich gut funtzte, aber ja dieses Fenster schließt sich. Auch die dekadenten Schnösel von Hardwareunboxed die vorher von ner Klippe springen als persönlich an nem PC mit ner Grafikkarte die weniger als 1000 Euro kostet zu spielen, waren von der Demo von FSR 4 begeistert. Wenn die zufrieden sind bin ichs 100x.
Blackfirehawk schrieb:
Ob FSR4 auf RDNA3 wirklich läuft ist zur Zeit noch Wunschdenken.. man hat sich seitens AMD dazu nur geäußert mit:
Ja zu den jetzigen Preisen würde ich niemandem Empfehlen noch RX 7xxx kaufen das selbe gilt aber auch für RTX 40... können wir bei den aktuellen bleiben, wenn wir Museumskarten bewerten dann solche wie rx 3060 /70 oder Rx 6800 oder sowas, denn das sind preislich interessante Karten (gebraucht).
Blackfirehawk schrieb:
Und FSR3 ist raus aus der Entwicklung.. da wird nix mehr verbessert da der Focus auf FSR4 liegt.
An der Technik muss ja auch nicht sooo viel verbessert werden, es läuft ja in manchen Games sehr gut, nur müssen die Entwickler halt man schauen wie man das bei den guten Games geschafft hat und in mehr games richtig implementieren.


Ich versteh natürlich das du mit RTX 40 ankommst da das Upgrade auf 50 so scheisse ist das die 40er plötzlich wieder relevant werden.
Aber letztlich ist zu erwarten das die Preisleistung deutlich steigt bei RX 90, daher ist RX 70 nur dann relevant wenn es deutlich rabbatiert wird, zu den jetzigen Preisen würde ich jedem sagen kauft den Wucherscheiss nicht, aber das gilt halt auch für das gesamte Nvidia angebot.

Hab grad vergessen das sie die 4070 Super ja weiterhin bei 12gb hatten, hab das mit der 4070 ti verwechselt, ja dann ist die 4070 ohne Super natürlich die deutlich bessere Karte zu den Preisen, und die super für den Preis Müll...

Die 7900xt die 30 Euro mehr kostet schlägt sie in Raster in allen auflösungen um 17-19% bei RT schlägt die 4070 Super die Radeon um 4-7%, also da ist die Wahl klar und mit 20gb VRAM wird sie deutlich besser altern aber ist auch heute schon klar besser.
 
Zuletzt bearbeitet:
@blackiwid Grafikkarten werden noch teurer das müsst ihr langsam einsehen. Wir müssen sogar froh sein das wir noch eine bekommen. An der Business Karte der 5090 mit mehr ram verdient der jens 5-10x soviel und die Firmen Kunden jammern nicht und senden nichts zurück...
 
  • Gefällt mir
Reaktionen: iron_monkey und Quidproquo77
@nuestra Ne ich lass mich nicht erpressen, wenn die unbezahlbar bleiben dann schau ich was mit APUs geht und was immer da dann halbwegs bezahlbar ist damit begnüge ich mich dann...

Wenn Autos zu teuer werden steige ich auf Motorräder um. bzw warte auf die neuen Steammachines, und dort irgendwelche mit vielleicht customsoc irgendwas... und oder hock noch einige Jahre mit meiner rx 5600xt rum...

Ich hab das Glück das meine Lust an 1st Person shootern oder generell 1st Person games begrentzt ist, ich nehms mal mit wenn ich upgrade was zu haben mit dem man das auch mal anspielen kann aber das ist kein Must für mich.

Das spiel das ich grad am interessantesten finde ist Slay the Spire 2.

Und AMD kann nicht einfach bei Wucherpreisen von Nvidia mit machen dafür sind sie schon zu klein... heck ich könnt mir irgendwann auch ne gemoddete PS5 oder irgendwas kaufen...
 
@blackiwid Ja ist doch in Ordnung wenn du nicht kaufst. Das blöde ist nur der mainstream ist bereit noch weit mehr für eine gpu zu bezahlen und das ist jens bekannt. Er tastet sich nur langsam hoch
 
@nuestra Das scheinen die Umfragen hier nicht her zu geben die Leute die Bereit waren so viel aus zu geben haben alle schon ne 4090, und die meisten dieser Leute wollen nicht umsteigen, alle anderen sind eh nicht bereit so viel zu zahlen oder mal die meisten weil sonst hätten sie schon ne 4090.
 
blackiwid schrieb:
Naja demnach muss die RTX 5080 auch mit der 40xx messen lassen weil die 4090 ist ja schneller
Natürlich muss sich auch die RTX5000er mit der RTX4000 vergleichen.. da geh ich komplett konform mit dir.

blackiwid schrieb:
jeden Euro sollte man in Oled Display investieren da dadurch die Kontraste (HDR) und Farben und alles viel mehr bringen als ob in der Ferne sich irgend ein komisches Scheiss dreht oder Fahnen wehnen da muss man bei stillem Bild hin sitzen und schon fast mit der Lupe (polemik) hin sehen um es zu finden oder im direkten
Nur hat AMD bei HDR ebenfalls das nachsehen.. nicht nur fehlt ein Gegenstück zu RTX HDR für Spiele und Videos.. auch hat man nach wie vor massive Probleme mit dem Tonemapping und Peak brightness auf OLEDs durch die Freesync Premium Pro HDR Pipeline.
 
Blackfirehawk schrieb:
Nur hat AMD bei HDR ebenfalls das nachsehen.. nicht nur fehlt ein Gegenstück zu RTX HDR für Spiele und Videos.. auch hat man nach wie vor massive Probleme mit dem Tonemapping und Peak brightness auf OLEDs durch die Freesync Premium Pro HDR Pipeline.
Das ändert nichts daran das Oled trotzdem besser ist auch mit AMD, denn die Farben die Reaktionszeit und all das kann AMD nicht "verhindern".

Perfekt lauft auch bei Nvidia nicht immer alles, also unqualifiziert zu sagen AMD hat mit was probleme ist zu wenig.
 
blackiwid schrieb:
@nuestra Das scheinen die Umfragen hier nicht her zu geben die Leute die Bereit waren so viel aus zu geben haben alle schon ne 4090, und die meisten dieser Leute wollen nicht umsteigen, alle anderen sind eh nicht bereit so viel zu zahlen oder mal die meisten weil sonst hätten sie schon ne 4090.
Die Umfragen hier beantworten meist nur Enthusiasten und nicht der 08/15 gamer. Die 5000 gen wird einschlagen genauso wie 4000 und 3000. Gaming ist jetzt im mainstream angekommen. Wer es günstig will kann ja eine kleine Karte nehmen oder Konsole.
 
@blackiwid Nein ich sag nur das wir uns an teure Preise gewöhnen müssen :) oder wer hätte gedacht das hier manche 2k+ für eine 4090 bezahlen oder 2000 für eine 3080
 
blackiwid schrieb:
Das ändert nichts daran das Oled trotzdem besser ist auch mit AMD, denn die Farben die Reaktionszeit und all das kann AMD nicht "verhindern".

Perfekt lauft auch bei Nvidia nicht immer alles, also unqualifiziert zu sagen AMD hat mit was probleme ist zu wenig.
Natürlich ist OLED immer besser.. ich nutze seit Jahren welche... Und gutes HDR schlägt Raytracing um längen ingame in meinen Augen.

Sowohl erst mit der 6800xt die Treiberseitig eine absolute Katastrophe war als auch mit der RTX4080 wo alles einfach nur funktioniert
 
nuestra schrieb:
@blackiwid Nein ich sag nur das wir uns an teure Preise gewöhnen müssen :) oder wer hätte gedacht das hier manche 2k+ für eine 4090 bezahlen oder 2000 für eine 3080
Naja die 5090 ist halt auch ne Workstationkarte... nur scheint das Nvidia nimmer klar auf zu teilen und die Workstation Karten waren ja immer schon sehr teuer.

Und die Karten werden dann mit AMDs nächster Unified Technologie neu gemischt, aber klar Nvidia wird lange odre immer leichte Premiumpreise verlangen, selbst wenn ihre Software nur noch 1% besser wäre. Solange sie auch nur 1% besser sind in irgendwas werden sie 30-80% Aufpreis verlangen.
 
  • Gefällt mir
Reaktionen: nuestra
blackiwid schrieb:
Auch merken viele diesen massiven Inputlag, und das einfach weg zu wischen ist,(...)
10ms mehr gegenüber Nativ + Reflex für 2 eingefügte Frames für 3 14ms. Das ist spielerisch als auch für die Augen weit besser als Nativ mit mehr Latenz und weit weniger FPS.
"Massiver Inputlag". Ein Märchen. Und dazu fehlt der Vergleich ohne Reflex.
Screenshot 2025-01-26 192054.png


blackiwid schrieb:
Von daher so zu tun, ach jetzt plötzlich bei hohen und oder schwankenden Inputlags merkt der Kunde mit gehobenen Ansprüchen nicht, von den Kopfweh mal ganz ab gesehen, halte ich für absurd.
Die Wahrheit liegt bekanntlich in der Mitte. Weder sind die erzeugten FPS so gut wie nativ berechnete, noch ist der Inputlag vergleichbar. Der Inputlag wird aber durch Reflex allerdings bereits reduziert und ist auf einem guten Niveau. Wenn ich die Wahl habe nehme ich immer die doppelten oder dreifachen FPS, gerade bei langsameren Shootern oder Rollenspielen.
blackiwid schrieb:
Aber ich kann auch auf Hardwareunboxed zeigen die bestenfalls neurtral sind, meiner Meinung nach aber nen klaren pro Nvidia Bias haben (aber halt nicht so nen starken das sie einfach das Marketing unkritisch 1:1 nach plappern), auch die sagen in ihrem Review direkt:
Hardware Unboxed und Nvidia Bias, niemals. Außerdem woher willst du wissen, dass so viele den "massiven Inputlag" bemerken, wenn noch keiner von den Usern MFG live getestet hat? ;)
blackiwid schrieb:
Es gibt halt ein Punkt an dem es den meisten egal ist...
Den es bei Input Lag natürlich niemals geben kann. :lol:
Bei einem schlechteren Upscaler jedoch plötzlich schon.
Man merkt regelrecht, wie du mit zweierlei Maß misst.
 
Zuletzt bearbeitet:
Wenn es mit der RTX 5090 schon CPU Probleme gibt ab 575 Watt was ist dann mit den OC Karten denn Nvidia 600 Watt stimmen nicht Asus auf Ihrer Karte hat schon für jeden Modus 632 Watt drauf und die richtigen OC Karten gehen bis 800 Watt z.b. Zoltac wenn Sie Luft und Wasserkühlung einbauen.Ist dann für die Grafikkarten überhaupt noch eine CPU in der Lage das zu steuern bei der Wattzahl?
 
Blackfirehawk schrieb:
ich kann dir nur sagen was ich Persönlich live vor mir sehe..

Kann ich dir auch sagen, immer wenn ich DLSS/FSR teste gibt es Schlieren, Artefakte oder Gitterstrukturen auf Texturen... manchmal auch alles auf einmal.

Stell dich bei Cyberpunk auf den Berg, guck auf die ganze Stadt, wechsel DLLs bis die SSD glüht und zeig mir ein 3 min Video wo nicht quasie alle Fahrzeuge am Boden/Luft Schlieren ziehen, die doppelt so lang wie das Fahrzeug sind.

Wähle bei bei Remnant 2 die Waldmap wo das Laub herunterfällt und mach mir auch ein Video wie du umherrennst und dich dabei öfter drehst und die unzähligen Blätter und Vögel am Himmel nicht Schlieren ziehen... ich dachte ich bin bei Regen im atomaren Foulout und meine Sicht verschwimmt weil der Char stirbt.

Bei Remnat 2 hatte ich noch diese dämliche Gitterstruktur auf Texturen sobald man die Taschenlampe nutz... das war bei FSR und DLSS gleich schlecht. Man sucht alles ab und immer wenn die Taschenlampe an muss, Gitternetz auf dem ausgeleuchteten Bereich...

Also zeig uns doch das was du siehst mit einem kleinen Video ;-) vielleicht ist das ja alles schon Geschichte, ist schon etwas her wo ich das gespielt habe oder es liegt an meinem VA Monitor, sollt beim Video dann ja egal sein..
 
Alle anderen 50er Karten werden noch mehr enttäuschen, weil die im schlimmsten Fall sogar minimal weniger Rohleistung auf dem Papier haben als die 40er.
Bin mal gespannt, wer dann auf die vielleicht insggesamt 10% Merhleistung anspringen und kaufen wird.
Das Zugpferd ist ienzig und allein DLSS4+MFG, wobei MFG nur ab 50-60FPS Rohleistung aktiviert werden sollten, um keine Ruckelorgie am PC zu haben, trotz einer irrtümlichen Fake 200FPS Anzeige auf dem Bildschirm.
Da werden aber sehr viele Menschen getäuscht und enttäuscht sein, die sich den Mist kaufen werden.
Die Karten werden nämlich gar nicht durch MFG beschleunigt.
Nur durch DLSS Upskaling, das könen ja aber alle Karten.
Also zählt nur die Rohleistung, und die ist nicht fühlbar unterschiedlich, außer gerade eben bei der 5090 ein wenig besser - udn der Stromzähler merkt das auch ganz gut.
 
@BxBender Wenn ich von meiner RTX 3080 (10 GB) auf die RTX 5080 umsteige, werde ich in 3440 x 1440 in den von mir präferierten Spielen ein Leistungsplus von 100 bis 400 % haben (ohne MFG / FG), und das bei leicht niedrigerem Stromverbrauch. Meine Asus Rog Strix OC verbraucht ohne Undervolting gerne mal 380 Watt in Spitze. Dagegen sehen die 360 Watt der RTX 5080 besser aus. Mit Undervolting komme ich dann bei gleicher Leistung vielleicht auf 300 bis 320 Watt runter.
 
Zurück
Oben