News GeForce RTX 5090 & RTX 5080: Tests sollen am 24. und am 29./30. Januar 2025 erscheinen

Laphonso schrieb:
Für die 1070er, 1080er, 2070er etc sind die 5070, 5070Ti und 5080 hochspannend.
Sogar für mich mit 2080 ti ist eine 5080 spannend, wobei ich noch etwas Hoffnung zur 5080ti habe. Von einer zur nächsten Gen im gleichen Bereich wechseln fand ich noch nie sinnvoll.
 
  • Gefällt mir
Reaktionen: Laphonso
Habe gestern hier reingeschaut und da hat einer umfangreich umrissen, wie sich MFG in Bezug auf die Latenz verhalten könnte. Fazit war, man hat optimalerweise einen OLED mit 240Hz und die GPU liefert stabile 60 Frames mit gegebenfalls der Zuhilfenahme von DLSS upsampling, so käme man mit MFG bei 3 eingeschobenen generierten Frames auf 240 FPS (dlss regelt mit v-sync on ja angeblich automatisch den FPS Cap, damit die FPS immer in der sync range bleiben, also leicht unterhalb 240 FPS) bei vollkommen akzeptabler Latenz (unterhalb 60ms oder gar 50ms).

Hab die genauen Werte nicht mehr im Kopf, hoffe, dass ist halbwegs korrekt wiedergegeben...(Ansonsten die letzten Seiten abchecken)...

Naja, die deutliche Aussage war, man sollte für MFG eine gute Basis von 60 realen Frames zur Verfügung stellen, damit am Ende die Latenz im Rahmen bleibt. 30 FPS kommen ja mit einer doppelt so hohen Latenz (33,33ms) wie 60 FPS (16,66ms) daher und in Verbindung mit MFG könnte sich die resultierende Gesamtlatenz als zu hoch erweisen oder?
Ich weiss nicht mehr, was der Ausgangspunkt der groben Berechnung war...dass man im Rahmen von einer Latenz von unter 60ms bleibt?

Ich muss mir die letzten Seiten nochmal in Ruhe durchlesen....wie DLSS mit Reflex 2 die Latenz drücken und was für eine Gesamtlatenz sich geschätzt ergeben könnte.

Wie viele mit einem OLED-Panel mittlerweile festgestellt haben, macht die Bildschärfe erst so ab 100-120 FPS Spass. Daher sollten schon um die 120 FPS anliegen, damit das Bild flüssig und scharf wirkt. Für den Fall, dass eine GPU sogar mit upsampling nur auf 30 FPS kommt, würde MFG daraus die geforderten 120 FPS zaubern. Grenz-Szenario wären dann 25 Frames mit 100 Frames als Resultat, damit es auf einem OLED noch erträglich aussieht. Path-Tracing wird auch für die 5090 fordernd werden, so dass man MFG bemühen wird.

Interessant wird der Nutzen von MFG in semi-competitive MP-Spielen. Das Szenario, wo ein Gegner blitzartig aus einer Deckung heraus rausstrafen tut und man sich fragt ob da MFG mit der einhergehenden erhöhten Latenz nicht ein Hindernis darstellen wird, wenn man diesen move kontern will. Naja, abwarten und Tee trinken.

Aber auf jeden Fall macht Nvidia mächtig Druck mit dem verbesserten DLSS4, Reflex 2 und MFG. Mal schauen, wann und ob AMD darauf eine passende Antwort finden wird.
FSR4 sollte schon gut abliefern, sonst wird es immer schwerer, an DLSS dranzubleiben...

Bin auch neugierig, wie AMD die 9070XT preislich einordnen möchte...wenn die bei rasterizing auf dem Level einer 4080 und bei raytracing auf dem Level einer 4070 ti super sein soll (von den leaks ausgehend), dann müsste sie ja folgerichtig die 7900XT ersetzen oder? Also könnte AMD die 7900XT in den Ausverkauf/Ruhestand schicken und die 9070XT für 599€ ins Rennen schicken.
Wäre überrascht, wenn die günstiger kommen würde....Es sei denn, die liefert nicht die Leistung der 7900XT ab...
 
  • Gefällt mir
Reaktionen: shadACII
Laphonso schrieb:
Und genau DIESE Gruppe der Pascal, Turing und Ampere User wird nun bei den RTX5000ern zuschlagen.
Das vergessen viele.
Kann man eigentlich nicht oft genug wiederholen, die wenigsten tauschen ihre Grafikkarten wie Handtaschen aus und Raytracing ist endlich angekommen, wozu die älteren Karten kaum vernünftig in der Lage sind. Wer eine 4000er Generation bereits hat, der wird in den seltensten Fällen wechseln müssen, aber manchmal hat man hier das Gefühl man bräuchte dringend die neuste CPU und GPU und dann wird sich beklagt, wieso man das Zeug nicht geschenkt hinterhergeworfen bekommt.

Was hat bei Steam aktuell die höchste Verbreitung? Die 3000er Generation und die wird nun so langsam auf 5000er Gen updaten.
1736890667162.png


Der Leistungssprung von Ampere zu Blackwell ist enorm und die Leute bekommen nicht nur "Early Adopter" FG, sondern gleich ausgereiftes FG und MFG vorgesetzt, was die Frameraten zigfach steigen lassen wird. Die Kunden die von der 4000er Generation umsteigen werden sind geschenkt, die machen den Braten gar nicht fett, man muss nur ein wenig aus der CB Blase heraus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso und Nero1
Je nachdem, wie effektiv das MFG-Marketing beim weniger versierten/informierten Gamer wirken wird, welcher vielleicht hauptsächlich nur die FPS-Werte im Blick hat und die Latenz Problematik weniger auf dem Schirm, könnte Nvidia sehr viele 2000/3000/4000 User Richtung 5070 für um die 600€ treiben. Viele Frames zu haben (in Singleplayer- und entspannten MP-Games) bzw. fordernde Spiele spielbar zu machen (Path-Tracing lässt grüssen) ist schon verlockend. Da toleriert man die höhere Latenz, solange es sich noch ok anfühlt. Flüssige Bildwiedergabe bei max. Bildqualität geht meistens vor. Mal schauen, wie gut Reflex 2 gegen die durch MFG eingeführte Latenz arbeiten wird und ob schlussendlich MFG+Reflex2 ein Killer-Feature wird, auf welches AMD-user neidisch sein dürfen...(bis AMD dann irgendwann mal den Konter dazu liefert). Aber Nvidia legt erstmal gehörig vor!

Die Tests werden zeigen, wie allgemeingültig die Daten des Präsi-Materials sind (sprich Latenzverbesserung durch Reflex 2) oder die präsentieren Werte nur in "optimierten Labor-Bedingungen"/best-case-Szenarien zu erreichen sind...
 
Laphonso schrieb:
Eine 5070, die in full HD eine 9070 z.B. dann 50 bis 100 fps (oder mehr) hinter sich lässt in den DLSS + FG Benchmarks wird in den Augen der Käufer das liefern, was Jensen angekündigt hat.
Tellerrand: ich nutze kein FG/DLSS 3.5, weil in WQHD (in 4K deutlich besser) überall Fragmente sind und der Inputlag echt stört! 2 meiner 12 Spiele unterstützen es, mehr nicht... auch wenn Timberborn und so eh keine Hardwarefresser sind.
 
mTw|Marco schrieb:
Bubble war hier nicht in Negativen gemeint, sondern es ist eine simple Feststellung ;)
Exakt, ich zähle mich ja auch selbst dazu :) Und unsere gefühlte Welt hier und unsere Grundgesamtheit an aktiven ComputerBase Foristen hat mit der Masse der Casuals und des PC Gamings nur eine sehr kleine Schnittmenge.
Für die RDNA4 und RTX4000 stehen jetzt viele an, die die letzten 4 bis 6 Jahre (oder auch noch länger) nicht aufgerüstet haben.

Und genau daher wird es auch da wieder ein Kampf um Technologien und Featuresets, die man mitkauft = DLSS vs FSR
 
5hred schrieb:
Je nachdem, wie effektiv das MFG-Marketing beim weniger versierten/informierten Gamer wirken wird,
Das hat nichts mit "wenig informiert" zu tun, sondern hängt einzig und alleine davon ab wie gut es umgesetzt wurde. Dem Spieler ist es völlig egal wie die flüssigen Frameraten zustande kommen, Millionen von Spielern ist es auch völlig egal, dass ihre Playstation keine 4K in 120Hz erzeugt, sondern 1080p (oder weniger) @40FPS hochrechnet.

Das hier in der Blase jede neue Technologie gleich schlecht und böse sein muss, interessiert in der großen weiten Welt niemanden. Grundsätzlich ist alles was wir an "3D" Technik, seit den ersten Wireframe Spielen zu sehen bekommen haben eine große Verarsche und seit dem versucht man mit möglichst wenig Rechenaufwand, ein möglichst gutes visuelles Ergebnis zu erreichen.

Diskussionen darüber gab es ebenfalls vom ersten Tag an, vom Antialiasing bis zum Z-Buffering wurde schon alles irgendwie zerredet und heute ist das alles Standard.
 
  • Gefällt mir
Reaktionen: Holgmann75
Je nachdem, wie effektiv das MFG-Marketing beim weniger versierten/informierten Gamer wirken wird,

Ok, besser formuliert: wie effektiv MFG funktionieren wird und ob es als Feature einen Mehrwert darstellen wird und nicht nur ein Marketing-Blendwerk sein wird, sollten es Gamer aufgrund einer nicht erträglichen Latenz als Feature nicht nutzen...

Ich mit meiner 6700XT bin auch ein potentieller Upgrade-Kandidat in diesem Jahr. Aber da muss erst mal ein Kracher-Game rauskommen, welches das erzwingt. Aber eigentlich bräuchte ich wie so 99% der Gamer keine neue GPU für die nächsten Jahre, wenn man sich als Ziel setzen würde, erstmal den angehäuften Spiele-Backlog vollständig abzuarbeiten, bevor man sich eine neue GPU zulegt. Aber wer hat schon soviel Selbstbeherrschung???
 
Zuletzt bearbeitet:
5hred schrieb:
wenn man sich als Ziel setzen würde, erstmal den angehäuften Spiele-Backlog vollständig abzuarbeiten,
Kommt auf das Spiele-Backlog an, meiner besteht aus Titeln, die viel VRAM und Raytracing/Pathtracing Leistung benötigen, wie CP2077 oder Indy. Zähle mich also zu dem 1%... 😉
 
  • Gefällt mir
Reaktionen: Holgmann75
Japp, lieber weniger Spiele besitzen, aber dafür diese durchgespielt haben. Bin in die Steam-Sales-Falle getappt...ok, die meisten so mit 50-75% Rabatt mitgenommen und hauptsächlich günstigere Indie-Games aber hilft ja nix, wenn man gefühlt von 100 Games nur 1/5 durch hat, da man die letzten Jahre ein Escape from Tarkov Master-Studium absolviert hat schwitz

Killer-Spiel-Kandidat wäre ein next Doom/Quake mit optisch toller id-Engine @ Vulkan oder - sollten die Sterne am Himmel günstig ausgerichtet sein - ein mit Auszeichnungen von der Fachpresse überhäuftes Squadron 42.
Aber in der Zwischenzeit werden bestimmt noch einige eines GPU-Upgrades würdige Kandidaten erscheinen. Wie dem auch sei, vielleicht sind generierte frames die einzige vernünftige Lösung um in Verbindung mit bester Grafik (Path-Tracing, rtrt) ausreichend frames für eine flüssige Bildwiedergabe zu liefern.

Hardwaretechnisch kommt man mit den Transistoren in Regionen von 600w und mehr und irgendwann ist maschinell/physikalisch Schluss mit der Reduzierung der Fertigungstechnik mit den heute benutzten Materialien und Techniken. So muss man sich halt mit Software weiterhelfen, wenn die Hardware ans Limit stößt.
Oder man geht der bekannten Weg weiter, nur dann hat man eine 1kW GPU im PC, die vielleicht sogar 4k kostet, weil 2nm bei tsmc halt nicht günstig sein werden...
Ergänzung ()

Syrato schrieb:
Tellerrand: ich nutze kein FG/DLSS 3.5, weil in WQHD (in 4K deutlich besser) überall Fragmente sind[...]

Man hat mit einem 4K-Panel weniger Fragmente durch FG oder sieht man die einfach nur schlechter, da das Bild auf 4K besser hochskaliert wird? Ich überlege mir ernsthaft, 2k zu skippen und direkt auf 4K zu gehen, da von einem 4K-Panel ausgehend das upsampling ein deutlich besseres Resultat bei DLSS Performance liefern soll als wie es mit einem 2K-Panel der Fall wäre.
Bei der konsequenten Nutzung von DLSS Performance sollte alles für ein 4K-Panel sprechen. Ein 2K-Panel liefert sehr gute Resultate, solange man bei DLSS Quality bleibt. Aber durch das bessere Upscaling-Resultat bei gleicher Performance neige ich dann doch zum 4K-Panel.

Für die Bildbewegungsschärfe interessant finde ich weiterhin das "uralte" BFI, nur leider haben das nicht viele Monitore ordentlich implementiert. An die Bild-Bewegungs-Schärfe von gutem BFI kommt man nur bei 500Hz aufwärts, bestenfalls noch auf einem OLED. MFG könnte und in diese FPS-Regionen bringen, aber da muss die Latenz im akzeptablen Rahmen bleiben.

Kann wer berichten, wie gut BFI auf dem Asus 27" OLED ....DMG (glossy panel) aussieht? Bei stabilen 120 FPS oder mit wieviel FPS auf diesem Monitor das BFI zuverlässig arbeitet?
Sollte das BFI sehr gut funktionieren - sofern 120 FPS solide anliegen - könnte ich mir vorstellen, dass das eine sehr gute Zwischenlösung darstellt. Ohne BFI wird es immer eine Herausforderung sein, sagen wir mal 360 bis 500 FPS @ 360 bis 500Hz auf einem OLED abzuliefern mithilfe von allerlei Techniken wie MFG um in vergleichbare Regionen der Bewegungsschärfe zu kommen...

Ich erhoffe mir einiges von G-Sync Pulsar, könnte ein Game Changer werden: erstmals gutes BFI mit G-Sync. Bisher sah BFI nur gut aus, solange man variable sync aus hatte...
Und bei 120 FPS kann man tearing noch erkennen, erst in den typischen "Counter-Strike, cappe die FPS auf 244?" Regionen deutlich weniger, wenn überhaupt noch....
 
Zuletzt bearbeitet:
@5hred den genau en Grund kenne ich nicht und es ist ja alles subjektiv. Ich merke es in 4K schon auch (nicht bei mir, ich spiele in WQHD),jedoch viel weniger.

Aber jede Person hat da ihre eigenen Erfahrung.
 
Zurück
Oben