News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

Ich glaube, niemand muss und sollte sich rechtfertigen oder auch nur ein wenig begründen, weshalb er oder sie gewillt ist, eine bestimmte Summe für Dinge in die Hand zu nehmen, auf die man Lust hat oder die gebraucht werden.

Eine ziemliche Unsitte in meinen Augen, und absolut überflüssig.
 
  • Gefällt mir
Reaktionen: Oudenstekelig, bogge101, Gravlens und 13 andere
mibbio schrieb:
. Frame Generation hat aber schon als Grundprinzip, dass immer 1 oder bald 3 Frames ohne Eingabeverarbeitung angezeigt werden und nur in jedem 2. bzw. 4. Frame auf die Eingabe reagiert wird
Korrekt und auch der Grund warum ich Frame Generation als "Minderwertigere" Technologie als wie Upscaling betrachte. Upscaling kannst du immer und überall machen, völlig egal ob bei niedrigen oder hohen Frames, egal ob Monitor mit vielen oder niedrigen Hz und es läuft gut, während Frame Generation eben nur bei hohen Fps Sinn macht und bei schwachen Karten oder Bildschirmen mit keiner hohen Hz Zahl sehr schnell an Wert verliert. Deswegen wäre mir auch lieber gewesen wenn Nvidia gesagt hätte wir machen eine Option wo man nur einen Frame generiert auf zwei echte Frames, oder ein generierter Frame auf 3 echte Frames, dann hätte man bessere Abstufungsmöglichkeiten für Framegen bei besserer Latenz. Wenn man 40fps hat und auf 60 kommen will, braucht man ja nicht jeden zweiten Frame einen generierten. Finde Schade dass sie diese Möglichkeit und diese Abstufungen nicht bieten.

Ich bin echt gespannt was Nvidia mit Reflex 2 anstellen wird, für mich ist Reflex 2 der Angelpunkt an dem sich entscheidet ob DLSS4 gut wird und nutzbar ist oder ein kompletter Flop welcher nur ab 120Fps+ überhaupt eträglich ist. Und wenn DLSS4 nicht gut wird ist die komplette 5000er Serie ein Flop, da sich Hardwaretechnisch scheinbar kaum etwas an der Leistung getan hat.
 
  • Gefällt mir
Reaktionen: Obvision, PrimeskyLP, Pisaro und 2 andere
Rockbreak schrieb:
während Frame Generation eben nur bei hohen Fps Sinn macht und bei schwachen Karten oder Bildschirmen mit keiner hohen Hz Zahl sehr schnell an Wert verliert.
Und dann gibt es Spiele wie Monster Hunter Wilds, wo die Entwickler bei den Systemanforderungen schon für 60 fps als Ziel (in 1080p und "Mittel") die Nutzung von Frame Generation einkalkulieren. Also einem FPS-Bereich, wo FG nicht optimal ist.

https://www.computerbase.de/news/ga...ilds-will-frame-generation-fuer-60-fps.89774/
 
  • Gefällt mir
Reaktionen: Raider_MXD und Apocalypse
Rockbreak schrieb:
Wenn man 40fps hat und auf 60 kommen will, braucht man ja nicht jeden zweiten Frame einen generierten
Ja scheinbar doch, hatte nicht Digital Foundry dann in der Praxis von 71% mehr FPS geredet?
Also das sind bei 40 FPS Basis dann auch nur 68,4 ...

Ich verstehe echt nicht wie das mit der Frame Gen in der Praxis läuft und welche Frames dann angezeigt werden. Aber ich hab so einen Verdacht warum da einem schlecht von werden kann.
Ergänzung ()

mibbio schrieb:
Und dann gibt es Spiele wie Monster Hunter Wilds, wo die Entwickler bei den Systemanforderungen schon für 60 fps als Ziel (in 1080p und "Mittel") die Nutzung von Frame Generation einkalkulieren. Also einem FPS-Bereich, wo FG nicht optimal ist.

https://www.computerbase.de/news/ga...ilds-will-frame-generation-fuer-60-fps.89774/

Sein wir mal ehrlich, für MSFS wäre das durchaus noch im Voll ok Bereich, für Alan Wake vielleicht auch, für Monster Hunter, wahrscheinlich nicht, aber dramatisch bei einem relativ langsamen Controller Game wird es wahrscheinlich nicht sein, oder?
 
Wakasa schrieb:
Dieser Satz:
Nvidia verspricht schon mit der kleinsten neuen Grafikkarte, der GeForce RTX 5070, die Leistung der „alten“ GeForce RTX 4090 erreichen zu können.

Ich verstehe das nicht. Wie??
Wo ist da der tiefe Sinn? Dann kann doch jetzt jeder, der "nur" Gaming betreiben will die kleinsten Karten für knapp 600€ kaufen und dann is erstmal Ruhe für die nächsten Jahre. Aber das funktioniert doch so nicht.

Klar lässt sich sowas leicht behaupten, Tests gibt es ja so noch nicht.
Das muss doch Marketing sein. Die Frage ist nur, worauf soll das hinaus.
Ich habe mich vorher schon wie ein Esel gefühlt wegen meiner 4080. Jetzt fühle ich mich wie 2 Esel. Und das obwohl diese Karte für mich mehr als ausreichend ist!
Das ist alles Marketing Bullshit.
 

Anhänge

  • IMG_20250108_210505.jpg
    IMG_20250108_210505.jpg
    59 KB · Aufrufe: 131
  • Gefällt mir
Reaktionen: -Toad-, Rockbreak, Grundgütiger und 2 andere
Taxxor schrieb:
Klar, weil es MFG nicht für die 4090 gibt ^^
Sofern die 4090 also nicht doppelt so schnell ist wie die 5070, wird sie mit FG nicht rankommen.

Und vmtl wird sie nativ ca 50% schneller als eine 5070 sein
Ist bekannt, warum die 4000-Serie kein DLSS MFG erhält? Konnte jetzt keine richtigen Gründe aus den Berichten herauslesen. Technisch habe ich bisher auch nichts gesehen, warum die letzte Generation das nicht hinbekommen sollte.
 
Drummermatze schrieb:
Man stelle sich mal ein Leben ohne DLSS vor. Dann würden wir heute immer noch kein 4K mit >100FPS schaffen.
Ich bin froh dass es das gibt. Da ist 4K selbst für meine 4070Ti kein Problem mehr.
FG bzw. MFG ist dann das Mittel der Wahl um die Karte noch 1-2 Jahre länger zu nutzen.
Mmhhh?!

nur dass Du eben kein in 4k gerechnetes Bild bekommst, sondern zB in FHD gerechnet und hochskaliert wird

das ist bisher nicht die gleiche Bildqualität wie ohne Upscaling

anscheinend gibt es 2 Gruppen
ein Teil freut sich über mehr FPS durch KI
der andere Teil über die bestmögliche Qualität (wenn möglich nativ)

Irgendwann mag die KI so gut sein, dass man die gleiche oder gar bessere Qualität bekommt. Bis dahin bleibt es ein Kompromiss.

Die PS5 macht das ja auch regelmäßig, um 4k schaffen zu können. Meine läuft mit 230 Watt recht sparsam. Die Spiele sind allerdings festgedongelt in den Einstellungen und manchmal matschig oder ruckelig (im 30 FPS Quality Modus). Meistens klappt das richtig gut, die Spiderman Spiele liefen zB hervorragend.

Ich persönlich überlege eher, für den PC auf einen der neuen 27“ OLED QHD Monitore umzusteigen und bei weitgehend nativem (oder DLSS Quality) Gaming und der 4090 zu bleiben. Für Outlaws musste ich schon zurück auf den 27“ und Resident Evil 4 lief mit 200% Auflösung auch schon nur grad so bei 30-40 FPS.
 
Zuletzt bearbeitet:
RealSamFisher schrieb:
Ist bekannt, warum die 4000-Serie kein DLSS MFG erhält? Konnte jetzt keine richtigen Gründe aus den Berichten herauslesen. Technisch habe ich bisher auch nichts gesehen, warum die letzte Generation das nicht hinbekommen sollte.
Weil die dafür zuständigen Einheiten bei 4000 nicht schnell genug sind
Ergänzung ()

bogge101 schrieb:
Irgendwann mag die KI so gut sein, dass man die gleiche oder gar bessere Qualität bekommt.
Ist bei DLSS Quality schon heute der Fall, daher gibt’s auch nicht die von dir genannten 2 Gruppen denn viele aktivieren DLSS genau weil sie die beste Bildqualität wollen.
Über DLSS Quality steht in der Hinsicht nur noch DLAA
 
  • Gefällt mir
Reaktionen: Col.Maybourne, Fallout667, Pisaro und 3 andere
Raider_MXD schrieb:
Wie scharf bewegte Bilder dargestellt werden können, hat mit der Renderframerate nichts zu tun
Er wollte darauf hinaus, dass mit Multi Frame Generation das Bild in Bewegung auf Sample-and-Hold Bildschirmen potentiell mit bis zu 4-mal geringerer Unschärfe dargestellt werden kann als ohne und das liegt allein an der gesteigerten Bildrate. Das gilt auch für einen perfekten OLED Bildschirm mit einer Schaltzeit von 0ms.
 
  • Gefällt mir
Reaktionen: iron_monkey und Apocalypse
longusnickus schrieb:
ein "casual gamer" kauft sich keine GPU für 650€ (sein wir realistisch. das ding wird die ersten monate weit über 700€ kosten. sogar 800 halte ich für realistisch)
der holt sich max, eine arc b580 für 300€.... auch mit 12GB VRAM, oder gleich ein steam deck

GeForce RTX 4070 Super hat man bis November für knapp unter 600€ bekommen, und das war dann schon ein Preis den ich für Causal Gamer noch in Ordnung finde.

Wenn man dann auf den teuren Sockel AM5 oder 1851 als Basis verzichtet, sondern auf den preiswerteren Sockel AM4 oder 1700 setzt, zum Beispiel mit Ryzen 7 5700 X3D, Ryzen 7 5800XT, Core i5-13600KF oder Core i5-14600KF, dann hält sich auch der Gesamtpreis in Grenzen, und man hat ein schönes Upper Mid-Range System für Causal Gamer.

Aber wenn man sich eine richtige Grafikkarte kauft, dann führt kein Weg an Nvidia vorbei.

Natürlich muss es nicht unbedingt eine GeForce RTX4070 Super sein. Es gibt ja darunter auch noch die GeForce RTX 4060 Ti in der 8GB oder 16GB Variante und die normale GeForce RTX 4060. Und auch die GeForce 30 Serie ist noch immer aktuell genug. Da gibt es die GeForce RTX 3050 in 6GB oder 8GB Varianten, die GeForce RTX 3060 in 8GB oder 12GB Varianten und die GeForce RTX 3070 Ti.

Die Intel Arc B580 12GB ist für 350€ völlig unintressant, da ist eine Nvidia GeForce RTX 3060 12GB für 320€ sogar etwas günstiger, hat ebenfalls 12GB VRAM, ist sogar ein bisschen kompakter und stromsparender.

Arc B580 12GB vs. RTX 3060 12GB: https://technical.city/de/video/GeForce-RTX-3060-vs-Arc-B580

forum814.jpg


Aber nochmal zurück zur GeForce RTX 4070 Super die es bis November für knapp 600€ gab. Das sieht es dann schon so aus:

Arc B580 12GB vs. RTX 4070 Super 12GB: https://technical.city/de/video/GeForce-RTX-4070-SUPER-vs-Arc-B580

forum815.jpg


Da kann man schon sagen das Nvidia bei Grafikarten fast konkurrenzlos ist, und AMD und noch mehr Intel völlig hinterherhinken.
 
  • Gefällt mir
Reaktionen: Tr8or
Mal eine Frage: Ich habe ein Gigabyte Z790 Gaming X AX als Mainboard was nur PCIe 4 hat - ist das für die 5070TI ein Problem?
Prinzipiell ist die ja PCIe 5 - aber ich habe gehört dass das für Gaming keine Rolle spielen würde Sondern nur wenn mensch damit Harcore AI Berechnungen (mehr als DLSS) machen will, stimmt das oder ist der Anschluss ein Nachteil im Gaming?
 
RealSamFisher schrieb:
Ist bekannt, warum die 4000-Serie kein DLSS MFG erhält? Konnte jetzt keine richtigen Gründe aus den Berichten herauslesen. Technisch habe ich bisher auch nichts gesehen, warum die letzte Generation das nicht hinbekommen sollte.
Weil sonst die Balken bei der Präsentation der 5000er nicht 2x zur 4000er wären, sondern nur 20-30% höher.
Und man nicht so einen BS behaupten kann, wie 5070 = 4090 für 550$
 
  • Gefällt mir
Reaktionen: Kommando, Obvision, PrimeskyLP und 2 andere
RealSamFisher schrieb:
Technisch habe ich bisher auch nichts gesehen, warum die letzte Generation das nicht hinbekommen sollte.
Frames zu interpolieren kostet Rechenzeit. Wenn du also 3 statt einen interpolieren musst, dauert das auch 3x solange. Die Leistung sinkt also bei Ada anstatt zu steigen.
Ist jetzt nur ein theoretisches Beispiel, denn bei Blackwell funktioniert FG technisch auch anders als bei Ada.
Bei DLSS 3 wird aus Frame 1 und 2 ein Zwischenframe generiert. Bei DLSS 4 wird versucht die Zukunft vorher zu sagen und nach Frame 1 den 2-4 Frame zu generieren, anstatt einen Frame dazwischen. Das kann Ada nicht.
Siehe hier: https://www.pcgameshardware.de/Gefo...e-281029/News/Multi-Frame-Generation-1463150/

Taxxor schrieb:
Über DLSS Quality steht in der Hinsicht nur noch DLAA
Würde widersprechen. Darüber steht DLDSR, welches für mich ein besseres Bild und mehr FPS als DLAA liefert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RealSamFisher
Inxession schrieb:
Uff naja ...

Abwarten.
Wie bei nVidia üblich sind die hauseigenen Benchmarks im BEST-Case gegen den Vorgänger ...

Also 5090 mit RT+DLSS vs 4090 ohne DLSS und weniger RT.

Gilt bei den kleineren Karten sicher auch.

Die 5080 wird zur Scalper Karte schlechthin.
Da darf man also gut und gerne 1800 € rechnen im "freien Handel".

Mal schauen wie sich im März alles so langsam positioniert.
Eine RX 9070 klingt aktuell (für mich!) noch am attraktivsten.
Kommt natürlich auf das Preisgefüge an ...

MFG
Falsch falsch falsch

Die test sind 5090 mit RT + DLSS vs. 4090 mit RT +DLSS gemacht wurden.

Die 5070 kommt mit DLSS4 an die 4090 mit DLSS3 ran.

5080 gibt es zu vernünftigen Preisen, wenn du von Scalper kaufen möchtest, ist das dein Problem.

Die RX 9070 ist auf dem Niveau einer 4070

Die RX 9070XT ist auf dem Niveau einer 4080
Die RX 9070XT soll für ca. 1000€ kommen.

Die 5070 die deutlich schneller als die RX 9070XT ist kommt für 650€.

Es gibt keinen Grund mehr überhaupt mehr AMD zu kaufen. AMD GPU sind teurer und deutlich langsamer. Stromverbrauch wird bei selben FPS auch deutlich höher sein.

Also das nächste mal, bleib bei den Fakten und rede nicht so ein Unsinn. Man merkt einfach, das du keine Ahnung von der Technik hast und nur gegen Nvidia hetzt. ein typischer AMD F....
 
  • Gefällt mir
Reaktionen: legenddiaz
Nolag schrieb:
Er wollte darauf hinaus, dass mit Multi Frame Generation das Bild in Bewegung auf Sample-and-Hold Bildschirmen potentiell mit bis zu 4-mal geringerer Unschärfe dargestellt werden kann als ohne und das liegt allein an der gesteigerten Bildrate.

Nein, das Tempo, mit dem ein solches Display Farb- bzw. Helligkeitswechsel von Pixeln vornehmen kann, ist allein Abhängig von den Eigenschaften des Panels und nicht von der Renderfrequenz der Grafikkarte. Dass Displays mit einer gewissen Refreshrate beworben werden, beutet leider nicht, dass die verbauten Panels tatsächlich jeden beliebigen Farbwechsel eines Pixels von einem Frame zum nächsten vollständig realisieren können, denn die Dauer ist je nach Art des Farbwechsels völlig unterschiedlich da rühren auch die Unschärfeffekte her. Durch Overdrive wurde die Reaktonsgeschwindigkeit der Pixel ingesamt beschleunigt, aber diese konstellationsabhängigen Unterschiede bestehen nach wie vor, sprich je nach Bildinhalt erreichen manche Pixel den Zielzustand später als andere und werden u.U. gar nicht ganz fertig, bevor das nächste Bild nachgeschoben wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TobiD79 und iron_monkey
Lefty220 schrieb:
Die RX 9070 ist auf dem Niveau einer 4070

Die RX 9070XT ist auf dem Niveau einer 4080
Die RX 9070XT soll für ca. 1000€ kommen.

Die 5070 die deutlich schneller als die RX 9070XT ist kommt für 650€.

Es gibt keinen Grund mehr überhaupt mehr AMD zu kaufen. AMD GPU sind teurer und deutlich langsamer. Stromverbrauch wird bei selben FPS auch deutlich höher sein.

Also das nächste mal, bleib bei den Fakten und rede nicht so ein Unsinn. Man merkt einfach, das du keine Ahnung von der Technik hast und nur gegen Nvidia hetzt. ein typischer AMD F....
Quellen?
Du hast doch sicher Fakten für deine Aussagen, ansonsten ist das nur hetze gegen AMD, ein typischer Nvidia F.... ;)
 
  • Gefällt mir
Reaktionen: Kommando, Obvision, PrimeskyLP und 5 andere
Raider_MXD schrieb:
Mache Farbwechsel dauern länger als andere und dadurch ergeben sich Unschärfeffekte.
Die Unschärfe von der wir reden entsteht einzig und allein durch die Dauer, mit der das Bild dargestellt wird. Bewegt sich ein Objekt mit 1000 Pixel/s über den Bildschirm, wird es bei 60Hz mit einer Unschärfe von ca. 16 Pixel dargestellt. Bei einer Bildrate von 240Hz sind er nur noch 4 Pixel. Es ist seit langem bekannt, dass es sich mit der Anzeigedauer auf einem Bildschirm verhält wie mit der Belichtungszeit bei der Fotografie. Möchte ich mit einer statischen Digitalkamera ein Objekt aufnehmen, das sich mit 1000 Pixel/s durch das Bild bewegt, benötige ich eine Belichtungszeit von 1ms. Möchte ich auf einem Sample-and-Hold Monitor eine Bewegung mit 1000 Pixel/s scharf wiedergeben, benötige ich eine Anzeigedauer von 1ms.
 
  • Gefällt mir
Reaktionen: iron_monkey und Apocalypse
ElliotAlderson schrieb:
Frames zu interpolieren kostet Rechenzeit. Wenn du also 3 statt einen interpolieren musst, dauert das auch 3x solange. Die Leistung sinkt also bei Ada anstatt zu steigen.
Ist jetzt nur ein theoretisches Beispiel, denn bei Blackwell funktioniert FG technisch auch anders als bei Ada.
Bei DLSS 3 wird aus Frame 1 und 2 ein Zwischenframe generiert. Bei DLSS 4 wird versucht die Zukunft vorher zu sagen und nach Frame 1 den 2-4 Frame zu generieren, anstatt einen Frame dazwischen. Das kann Ada nicht.
Siehe hier: https://www.pcgameshardware.de/Gefo...e-281029/News/Multi-Frame-Generation-1463150/
Das verstehe ich nicht ganz. Wenn MFG die Zukunft vorhersagt, warum ist dann die Latenz im vergleich zu normalem FG nicht niedriger?
Wenn FG auf ein Frame warten muss um die Zwischenbilder zu berechnen und MFG direkt die Zukunft vorhersagt, müsste die Latenz doch 1 Frame niedriger sein.
 
whyme schrieb:
Quellen?
Du hast doch sicher Fakten für deine Aussagen, ansonsten ist das nur hetze gegen AMD, ein typischer Nvidia F.... ;)
hä nvidia Präsentation gesehen? Man man man hier AMD Leute seid echt witzig.
Schrei du mal weiter Fake. Ich lache nur über euch.
 
Zurück
Oben