News Radeon RX 9070 XT: Release-Termin und Preise aus der Gerüchteküche

Shio schrieb:
Dann pack da nochmal eine 0 an die FPS Zahl um eine Systemlatenz von 0 zu erreichen.
12ms ohne Reflex oder Antilag halte ich bei solch niedrigen FPS für ausgeschlossen, außer du bist irgendwie mega CPU limitiert.
So schon, aber warum sollte man nativ auf Reflex oder Antilag verzichten? Die Technik ist da.

Der Vergleich ist also "nativ" + Reflex / Antilag
vs.
DLSS/FSR + (M)FG + Relfex2 / Antilag2

Ersteres dürfe noch immer die besten Latenzen haben.
Wie gross der Unterschied sein wird und ob das fühlbar ist sei dahingestellt.

Aber besser als nativ + Reflex / Antilag wirds mit (M)FG ganz sicher nicht.

Die Problematik sehe ich eher, dass die Baseline wegen Upscaling und FG immer weiter sinkt, und somit die minimale Latenz immer mehr steigt.
Wenn ich nativ 30 FPS habe, gibts bestenfalls 33ms (mit Reflex oder Antilag), vermutlich noch 2-4ms obendrauf. Dann habe ich das typische 30 FPS Spielgefühl wie auf der Konsole.

Selbst wenn Reflex2 mit MFG nun diese Latenz halten kann, wird das Spielgefühl nicht besser, auch wenn 120 FPS gezeigt werden.

Die Gefahr ist eher, dass Entwickler dann <30 native FPS anpeilen weil mit Upscaling & MFG noch immer 60+ FPS erreicht werden. Das Gefühl wird aber nicht besser so, weil die minimalste Latenz immer weiter steigt.
 
CadillacFan77 schrieb:
So schon, aber warum sollte man nativ auf Reflex oder Antilag verzichten? Die Technik ist da.
Ja klar, bin ich bei dir. Wurde jetzt zu Anfang aber nicht in der Kommentarkette jetzt nicht von gesprochen.
Zumal 12ms bei 80fps selbst mit aktuellem Reflex/Anti-Lag imo seeeeeehr sportlich sind. Ich würds jetzt nicht 100%ig ausschließen, da ich natürlich auch nicht alles mögliche kenne, aber insgesamt würde ich das als nicht möglich erachten.
Mit Reflex 2 ist das, wenn man Nvidia glauben kann, wohl ein anderes Thema.

CadillacFan77 schrieb:
Der Vergleich ist also "nativ" + Reflex / Antilag
vs.
DLSS/FSR + (M)FG + Relfex2 / Antilag2

Ersteres dürfe noch immer die besten Latenzen haben.
Würde ich pauschal nicht sagen, wenn die Reflex 2 Zahlen wirklich so kommen. Bei dem Beispiel von NV wurde die Latenz von Reflex zu Reflex 2 nochmals halbiert, was halt enorm ist.
In deinem Beispiel hast du aber auch eine Latenzveringerung durch DLSS. Die Veringerung wird dann wahrscheinlich von FG wieder aufgefressen, aber MFG scheint die Latenz nicht stark zu erhöhen wie man denkt, wenn man sich das Digital Foundry Video anguckt.
Da waren es auch nur von 53ms bei FG x2 zu 63ms bei MFG x4. Mit Reflex 2 könnte da schon eine bessere Latenz herauskommen, aber naja aktuell ist die Wissenslage recht beschränkt, deshalb ist natürlich auch recht müßig alles mögliche in die Videos herein zu interpretieren.

CadillacFan77 schrieb:
Wenn ich nativ 30 FPS habe, gibts bestenfalls 33ms (mit Reflex oder Antilag), vermutlich noch 2-4ms obendrauf.
Also bei 30 FPS bist du ja GPU limitiert (würde ich jetzt mal von ausgehen), dann ist deine Latenz auch maximal im Keller.
Deine Systemlatenz ist dann am größten. Deshalb würde ich jetzt überhaupt nicht mit 2-4ms, selbst mit Reflex, rechnen.
 
Shio schrieb:
Ja klar, bin ich bei dir. Wurde jetzt zu Anfang aber nicht in der Kommentarkette jetzt nicht von gesprochen.
Zumal 12ms bei 80fps selbst mit aktuellem Reflex/Anti-Lag imo seeeeeehr sportlich sind. Ich würds jetzt nicht 100%ig ausschließen, da ich natürlich auch nicht alles mögliche kenne, aber insgesamt würde ich das als nicht möglich erachten.
Mit Reflex 2 ist das, wenn man Nvidia glauben kann, wohl ein anderes Thema.
Naja, rechnerisch ist das Minimum bei 80 FPS halt 12ms. Da kommt sicher noch ein klein wenig Overhead drauf, egal woher.

Shio schrieb:
Würde ich pauschal nicht sagen, wenn die Reflex 2 Zahlen wirklich so kommen. Bei dem Beispiel von NV wurde die Latenz von Reflex zu Reflex 2 nochmals halbiert, was halt enorm ist.
Ja, aber man sieht nicht wie Relex2 bei nativ sich verhalten würde. Mit Reflex2 können sie die Differenz reduzieren, aber unter das rechnerische untere Limit geht halt nicht.

Shio schrieb:
In deinem Beispiel hast du aber auch eine Latenzveringerung durch DLSS. Die Veringerung wird dann wahrscheinlich von FG wieder aufgefressen, aber MFG scheint die Latenz nicht stark zu erhöhen wie man denkt, wenn man sich das Digital Foundry Video anguckt.
DLSS "verringert" keine Latenz, es erhöht ja nur die Framrate, ist aber weiterhin effektiv berechnet (wenn auch KI upscaled). Also klar, indirekt ist das eine Reduktion basieren auf der Rohleistung, aber halt keine Verringerung.

FG hingegen erhöht die Latenz immer, weil es die effektive Framerate (also die rechnerische) im Gegesnatz zu Hardwareleistung und DLSS nicht erhöht, sondern nur die angezeigten Bilder erhöht.

Shio schrieb:
Da waren es auch nur von 53ms bei FG x2 zu 63ms bei MFG x4. Mit Reflex 2 könnte da schon eine bessere Latenz herauskommen, aber naja aktuell ist die Wissenslage recht beschränkt, deshalb ist natürlich auch recht müßig alles mögliche in die Videos herein zu interpretieren.
Die Reihe fand ich komisch, MFG x3 war da tiefer als FG x2 und MFG x4. Könnte ich mir nur so erklären, dass FG x2 mit Reflex1 war und MFG x3 bereits mit Reflex2 (und nicht mit Reflex1) und MFG x4 ebenfalls.


Shio schrieb:
Also bei 30 FPS bist du ja GPU limitiert (würde ich jetzt mal von ausgehen), dann ist deine Latenz auch maximal im Keller.
Deine Systemlatenz ist dann am größten. Deshalb würde ich jetzt überhaupt nicht mit 2-4ms, selbst mit Reflex, rechnen.
Klar, die Rechnung war absoluter "Best-Case" und eigentlich unrealistisch. In der Realität haben 30 FPS bereits deutlich längere Latenzen als dort genannt. Eben dieser "Overhead" wird ja mit Reflex und Antlag reduziert. Aber selbst wenn die Technologien 100% effektiv wären (was sie nicht sind), ist 33ms halt der absolute untere Laborwert bei 30 FPS.
 
Shio schrieb:
Mit Reflex 2 ist das, wenn man Nvidia glauben kann, wohl ein anderes Thema.
Selbst dann quasi unmöglich,12.5ms ist die Zeit die der Frame selbst bei perfektem Frame Pacing zu sehen wäre, also der absolute Ideal-Wert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shio
CadillacFan77 schrieb:
Naja, rechnerisch ist das Minimum bei 80 FPS halt 12ms. Da kommt sicher noch ein klein wenig Overhead drauf, egal woher.
Klein wenig ist unterstrieben imo, die Systemlatenz ist schon ein großer Teil des eigentlichen Inputlags.

CadillacFan77 schrieb:
Mit Reflex2 können sie die Differenz reduzieren, aber unter das rechnerische untere Limit geht halt nicht.
Ja und nein, die Sache bei Reflex 2 ist ja, das durch Warp ein neuer Bildbereich generiert (oder nur simuliert?) wird.
Da könnte man vielleicht schon unterhalb der Latenz der FPS kommen, wenn die Systemlatenz irrelevant wird bei mega hohen FPS >600fps oder CPU Limit.
Generell gings mir aber nur um die relative Veringerung.

CadillacFan77 schrieb:
Also klar, indirekt ist das eine Reduktion basieren auf der Rohleistung, aber halt keine Verringerung.
Geht ja Hand in Hand. Habe die Veringerung auch nur Zusammenhang mit FG angesprochen.

CadillacFan77 schrieb:
FG hingegen erhöht die Latenz immer, weil es die effektive Framerate (also die rechnerische) im Gegesnatz zu Hardwareleistung und DLSS nicht erhöht, sondern nur die angezeigten Bilder erhöht.
Ja klar.

CadillacFan77 schrieb:
Die Reihe fand ich komisch, MFG x3 war da tiefer als FG x2 und MFG x4. Könnte ich mir nur so erklären, dass FG x2 mit Reflex1 war und MFG x3 bereits mit Reflex2 (und nicht mit Reflex1) und MFG x4 ebenfalls.
Hat mich auch überrascht. Glaube ich nicht, dass da was an den Settings falsch lief.
Bei den Tests war aber kein Reflex aktiv.
 
  • Gefällt mir
Reaktionen: CadillacFan77
SKu schrieb:
Das wird nicht reichen um Marktanteile gewinnen zu können.

NVIDIA hat RTX 4090 Performance für 549$ angekündigt und damit ist das Kind bereits in den Brunnen gefallen, weil NVIDIA Marketing kann, AMD hingegen nicht.
Ja mit DLSS, aber ohne schaffen die das garantiert nicht. Welche Karte soll das sein?
 
@Gamingboar 5070 und mit MFG, also Äpfel mit Birnen vergleichen, aber rein vom Marketing hats scheinbar funktioniert, die Leute stehen total drauf. An den Verkaufszahlen sehen wir dann obs auch geklappt hat.
 
  • Gefällt mir
Reaktionen: jonderson
@Apocalypse Und die Leute glaube es... AMD hat echt schlechtes Marketing.
Das Gerücht, dass AMD schlechte Treiber hätte etc. hält sich aber auch hartnäckig.
Alle reden von RT.... . Auch mittleres RT ist hübsch. Es muss nicht immer ultra sein. Ich kenne noch Zeiten, da hat man mit 512x384 schon zur Oberklasse gehört. High-End waren 640x480. Die Regler in den Grafikmenüs sind nicht fixiert. Die kann man sogar nach links bewegen..., was viele verlernt haben.
Aber manchen Menschen ist das halt doppelter Preis wert. Eine 5070 mit 12GB ist einfach nur frech und finanzielles Melken des Kunden. Solange man halbwegs vertretbar eine Radeon kaufen kann, werfe ich Team grün nichts in den Rachen. Das ist einfach zu gierig. Eine 4060 war auch viel zu teuer. Bis man bei Team Grün 16 GB erhält, muss man echt tief in die Tasche greifen.
RDNA2 war super konkurrenzfähig. RDNA3 war nur lange Zeit zu teuer, ansonsten auch gar nicht schlecht.
Ich hoffe, dass AMD ihren Radeon-Moment, wie damals den Ryzen-Moment auch noch schafft.
Was Nvidia echt gut kann ist den Menschen einzureden, dass RT soooo wichtig ist und das AMD-Karten das gar nicht könnten...
 
Gamingboar schrieb:
High-End waren 640x480.
Du meinst 640 × 350, EGA war 640 x 350 mit 16 Farben, also im Bestfall. ;-)

Das ist aber eigentlich egal, wenn wenn ich bei Nvidia für 600€ ne Karte bekomme mit der ich Alan Wake 2 oder Cyberpunk mit PT spielen kann ... warum nicht? AMD Karten können das bisher auch tatsächlich so gar nicht und es ist tatsächlich toll, alle beiden Spiele die damit im Jahr rauskommen. :evillol:

Man hat sich ja auch damals die ganzen High-End Karten gekauft, damit man eben nicht mit 160 × 100 mit 16 Farben spielen musste. ;-)
 
LauneBaer86 schrieb:
Puh, bin ja wirklich auf real world performance/Verbrauch von dem Ding gespannt. Aber ehrlicherweise fände ich ja 499.- € sehr charmant

Aber für 499 € erwarte ich auch nicht so viel.
 
Zurück
Oben