Test Latenz in Counter-Strike 2: AMD Anti-Lag 2 ist Nvidia Reflex im Benchmark ebenbürtig

eazen schrieb:
Dieses Review beweist dann aber auch wie unwichtig Reflex / AL ist, da es nur im starken GPU Limit einen Effekt hat, also hat man entweder eine schwache GPU oder spielt in settings die für competitive gaming nicht empfohlen werden, sonst profitiert man Null von Reflex / AL wie man sehen kann.

Je nach Spiel werden im vollen CPU Limit aber oft die Frametimes unsauber.

Kann also durchaus sinnvoll sein, im GPU Limit zu bleiben und dann Reflex oder AL2 zu aktivieren. Dann hat man saubere Frametimes und niedrige Latenzen.
 
MrHeisenberg schrieb:
Und wieder ne Nvidia-Technologie kopiert.
Hat AMD keine eigenen Ideen mehr?
Diese zwei Sätze sind wirklich nur da um zu provozieren. Glückwunsch Herr Heisenberg.
 
  • Gefällt mir
Reaktionen: JarlBallin, Nooblander, Derenei und 7 andere
Schmarall schrieb:
Auch das nicht. Nennt sich Messungenauigkeit. Da muss man noch nicht einmal mit Statistik ran.
Doch müsste man um einzuschätzen, ob der Unterschied signifikant ist oder nicht.
Ist er es, dann kann man Messungenauigkeiten als Einfluss ausschließen bzw. sind diese dann nicht signifikant genug.
Ist der Unterschied nicht statistisch signifikant, kann man ihn unter Messungenauigkeit bzw. andere Variablen einordnen.
Heißt, dass wir einen Haufen Tests durchführen müssten, damit wir genug Daten haben. Dann können wir eine ANOVA durchführen um das zu analysieren.

Einfach aus dem Stehgreif kann man nicht einfach so sagen "Ist Messungenauigkeit", dass muss man schon Wissenschaftlich machen ^^
 
  • Gefällt mir
Reaktionen: Bengart
eazen schrieb:
Dieses Review beweist dann aber auch wie unwichtig Reflex / AL ist, da es nur im starken GPU Limit einen Effekt hat, also hat man entweder eine schwache GPU oder spielt in settings die für competitive gaming nicht empfohlen werden, sonst profitiert man Null von Reflex / AL wie man sehen kann.
Oder eben bei Nutzung von FrameGens um deren negativen Auswirkungen wieder zu reduzieren.
 
Jan schrieb:
Die einzelnen Frames liefern halt Latenzen von 8 bis 18 ms, da spucken FPS-Messungen viel konstanter werte aus
Ist der Statistik ja erstmal egal. Auch wenn die Streuung und Stdabweichung groß ist, Mittelwert bleibt Mittelwert, oder?
Mimir schrieb:
Wenn es wie Jan schon sagt, Unterschiede von 8-18 ms gibt, dann kannst du das Ergebnis nicht auf die Nachkommastelle genau angeben, da du bereits einen Messfehler von 10ms hast.
Das ist kein Messfehler, sondern die Streuung. Dennoch im Mittel gibt es halt größere Abweichungen. Die Frage ist nur, sind diese Signifikant. Nur weil die Streuung mal größer ist, kann man ja trotzdem statistische Aussagen treffen. 80 Messungen sind ja schon recht belastbar.
 
Ganze 4 Jahre nach Reflex. Verstehe gar nicht, warum die Leute so stark Nvidia Grakas kaufen. :evillol:
 
  • Gefällt mir
Reaktionen: B3rry
MrHeisenberg schrieb:
Und wieder ne Nvidia-Technologie kopiert.
Hat AMD keine eigenen Ideen mehr?
Und wieder ein anti AMD Beitrag von dir.
Hast du keine eigenen Ideen mehr?


Die AMD Kunden wollten sowas schon sehr lange von AMD. Also bringt man es.

Wenn Nvidia irgendwann auf MCM Design geht, haben die dann AMD Technologie kopiert? Oder ist das dann keine nennenswerte Technologie, weil "es nichts besonderes ist", genauso wie 3D Cache bei den CPUs ja überhaupt nichts besonderes ist weil cache vergrößern ist was ganz einfaches.
 
  • Gefällt mir
Reaktionen: JarlBallin, jo0, h2f und 5 andere
Nooblander schrieb:
Es gibt ziemlich sicher nicht unzählig viele Softwareseitige Möglichkeiten Latenzen zu reduzieren. Deshalb finde ich es nicht unbedingt kritikwürdig wenn man einen vorhandenen Lösungansatz nutzt und für seine Nutzer zugänglich macht.
Stimmt man sollte eher sagen AMD hinkt Mal wieder hinterher. Zudem Nvidia Reflex schon von Anfang an bei frame generation vorraussetzt, das müsste man bei fsr3 auch machen und hätte auch gleich einen Latenz positiven Framelimiter...
 
  • Gefällt mir
Reaktionen: Mimir und MrHeisenberg
Ganz ehrlich? Das ist alles Einbildung. Kein Mensch kann da reproduzierbar einen Unterschied feststellen. Kann mich noch an den offiziellen Release erinnern, wo alle paar Sekunden in den Twitch Streams der Pros nach deren Settings gefragt wurden. Sogar m0nesy usw haben zu Relex gesagt, dass das für sie keinen spürbaren Unterschied macht und viele hatten das dementsprechend aus. Und wenn das Pro Spielern in 5 Monaten Beta nicht auffällt, wer soll das dann bitte bemerken :freak:
 
Epistolarius schrieb:
Preis/Performance?
Nein, nimmt man RT hinzu klar nicht.
Nimmt man Effizienz hinzu ist Nvidia auch besser
Epistolarius schrieb:
Effizienz bei RX 6000 vs RTX 3000?
7nm und 10nm hinzu kommt: nur beim Rastern
Epistolarius schrieb:
Stimmt, da schauts bei NV tatsächlich schlechter aus
Epistolarius schrieb:
Treibersoftware (UI)?
Kann ich nicht beurteilen, finde die Win9x Oberfläche von Nvidias Treibermenü nicht schön, aber funktional
 
TheInvisible schrieb:
müsste man bei fsr3 auch machen und hätte auch gleich einen Latenz positiven Framelimiter...
du weisst nicht was mit FSR 3.1 und weiteren versionen geplant ist. Das kann sehr gut kommen. FG ging bei AMD nur in zusammenspiel mit FSR3, da schon eine Latenz reduktion eingebaut war. Mit FSR3.1 wird FG auch ohne FSR3 gehen, wie bei Nvidia. Gut möglich das hier dann Antilag 2 dazu kommt.
 
  • Gefällt mir
Reaktionen: SweetOhm
Igor hat ein "nettes" Bild mit "schönen" Balken ... :cool_alt:
 

Anhänge

  • Anti Lag 2.jpg
    Anti Lag 2.jpg
    294,2 KB · Aufrufe: 126
Legalev schrieb:
Wieviel Kohle hat AMD und wieviel Nvidia?
Irrelevant an der Stelle. AMDs Problem ist Geld "heute" nur noch bedingt, das galt von 2011 bis 2019.

Interessant ist aber, dass AMD in der Zeit 2011 - 2017 bei Grafikkarten wesentlich mutiger war, was Technologie anging. Ich sage nur Primitive Shaders, Compute-Shaders und Co. Das sind alles Technologien, die AMD als erstes entwickelt hat. Primitive Shaders scheiterten leider, sind aber der Grundstein für die Mesh-Shader, Compute-Shaders sind heute allgegenwärtig.
5hred schrieb:
Da muss AMD mit deutlich weniger Geldmitteln irgendwie mit genialen Ideen dagegenwirken...
Nur das AMD genau das bedauerlicherweise verloren hat. Bis Vega hat man versucht, mit neuen Ideen gegen Nvidia anzukommen, hat sich aber oft entweder die Pfoten verbrannt oder später kam die Technik wurde aber durch "MS" noch mal so angepasst, dass die ursprüngliche Implementierung für die Tonne war.

TruForm als frühes Tesselation, wurde von ATi dann für DirectX 10 angepasst, dann fliegt Tesselation aus DirectX 10 und kommt erst mit 11 noch verändert.

FireStream wird 2006 für HPC vorgestellt, auch die Close-to-Metal-API dafür - X1900 XTX war quasi die erste "HPC"-Karte. Nvidia kommt mit CUDA erst später (hat aber das durchdachtere System und auch den Willen das effektiv durchzuziehen)

Compute Shaders gehen auf Mantle zurück, ebenso die Asynchronen Shader, Nvidia hatte quasi bis Turing damit Probleme, hat die Technik dahinter aber auch nur "kopiert".

Primitive Shaders als erste Iteration der Mesh-Shader - ja die waren kaputt.

DirectStorage ist euch eine Technik, die mit MS für XBox Series entwickelt wurde und als Antwort auf Sony gedacht war.

ATi und später auch AMD waren bis Vega darum bemüht, die Grafik wirklich voranzubringen. Das ist mit RDNA leider verloren gegangen.
bad_sign schrieb:
AMD hat genug Geld, aber ihr Schwerpunkt sind CPU/Server, APUs (auch im HPC/AI Kontext)
AMD hat aktuell hier den Mut verloren bei Radeon, das finde ich persönlich schade. Ich kann es aber verstehen. ATi und auch AMD haben viel Forschung betrieben, am Ende hat aber sowohl der Markt als ganzes als auch Mircosoft gerne mal den Mittelfinger gezeigt und die Ideen übernommen, die Spezifikationen und technischen Details aber so angepasst, dass ATi/AMD aus ihrer Arbeit keinen Profit schlagen konnten.

MrHeisenberg schrieb:
Und wieder ne Nvidia-Technologie kopiert.
Wollen wir mal all die Technologien aufzählen, die Nvidia von ATi und AMD kopiert hat in den Jahren 2000 - 2018? Darunter ist sowas Wichtiges wie CUDA, dass heute die Marktmacht von Nvidia ausmacht. Auch Compute- als auch Asynchrone-Shader sind Techniken, die AMD seit GCN 1.0 verfolgt und Mantel, die Nvidia kopiert hat und erst als Nvidia es mit Turing wirklich unterstützt, Erfolg feiert. Wie wäre es mit der Idee hinter den Mesh-Shader, die Mircosoft in Zusammenarbeit mit Nvidia von AMD kopiert hat für DirectX 12 Ultimate.

Wir können mal an der Stelle weiter gehen: Selbst Nvidias RT-Ansatz ist nichts weiter als eine Kopie. Da war Caustic Graphics vorher da, Imagination Technologies haben die sich geschnappt und entsprechende Papers da auch veröffentlicht, die stark nach dem Aussehen, was Nvidia später bei Turing vorstellten.

Oder wie wäre es mit den Tensor-Kernen, da stellte Google die ersten Produkte auch 2015 vor, Nvidia kam da erst 2017 mit Volta.

Wir können ja auch mal auf den Patentstreit zwischen 3dfx und Nvidia verweisen, da hat Nvidia die Schlacht verloren, den Krieg aber gewonnen, da wurde Nvidia allerdings nachgewiesen, dass sie hier Patente von 3dfx verletzt haben.

Selbst die Techniken, die man halbwegs auf Nvidia zurückführen können, sind quasi Kopien, weil entsprechende Ideen bereits in Standards vorhanden waren, nur nicht genutzt wurden. Die Basis für Adaptiv-Sync war bereits vor G-Sync vorhanden, nur eben im eDP-Standard für Notebooks, damit die Grafikkarten dort die Bildwiederholrate dynamisch zum Stromsparen anpassen kann. Im eDP-Standard ist Adaptiv-Sync seit 2009. G-Sync kam mit Kepler auf dem Markt, das war 2012, also 3 Jahre nachdem das Ganze in einen offiziellen Standard eingezogen ist. Entsprechend schnell konnte AMD ja auch reagieren, in dem man einfach den Standard nimmt.

Und das mit Nvidia Reflex ist auch so ein Ding, denn eine wirkliche Nvidia-Technik ist das auch nicht, sondern im Endeffekt auch nur eine "einfachere" Möglichkeit all die Stellschrauben anzuziehen, die in den verschiedenen APIs von Windows schlummern, damit die Eingabelatenz sinkt, und was zum Teil auch in entsprechenden Guides beschrieben wird.

Entschuldige, aber was "kopieren" von Technologien angeht, ist Nvidia immer ganz vorne dabei, nur wird das gerne durch das verdammt gute Marketing von Nvidia durch die meisten vergessen.

All das ändert aber auch nichts daran, dass Nvidia verdammt gute Arbeit abliefert und vieles auch oft weit durchdachter und reifer wirkt, als bei anderen, was ja auch dazu führt, dass solche Lösungen wie G-Sync am Anfang deutlich besser funktionieren. Genauso mit CUDA und Co.

Nur sollte man die Vorwürfe von "AMD kopiert von Nvidia" lieber außen vor lassen, das heizt nur sinnlos die Stimmung an und ist am Ende auch weitgehend falsch. Selbst Nvidia ist, wenn man es streng nimmt, oft eine Copycat.
 
  • Gefällt mir
Reaktionen: JarlBallin, milliardo, CadillacFan77 und 8 andere
Enyo79 schrieb:
Diese zwei Sätze sind wirklich nur da um zu provozieren. Glückwunsch Herr Heisenberg.
Funktioniert aber erstaunlicherweise auch immer wieder 🤣 und im Kern hat er ja auch noch leider Recht.

Ich würde mir wünschen dass NV den Counterpart zu AFMF kopieren würde.
 
Tornavida schrieb:
Ich würde mir wünschen dass NV den Counterpart zu AFMF kopieren würde.

Weiß nicht. Bei sowas hab ich eher die Befürchtung, dass das beim ein oder anderen Spiel dann dafür sorgt, dass gar kein natives Frame Gen ins Spiel integriert wird bzw. dass die Prio zumindest bei den Entwicklern niedriger ist, weil die Spieler das ja auch über den Treiber machen können. Spart dem Entwickler damit Geld.

Dazu dann fehlendes Reflex/AntiLag2 und bei AMD dann noch das Problem, dass es sich bei zu schnellen Kamerabewegungen abschaltet, mit HuD und Menüs verbuggt und generell schlechtere Qualität hat.

Die meisten User sind ja gerade so bereit, die Nachteile von FG bei den nativen Implementierungen zu akzeptieren. Bei externen Lösungen sind die Nachteile deutlich ausgeprägter und die Akzeptanz folglich viel geringer.


Ich würde das ganze Fass von Wegen "über treiber aber schlechter" gar nicht erst aufmachen. Wenn dann gleich richtig im Spiel und in "gut".

Für ältere Spiele die sowas nötig haben gibt's dann eh meistens Mods, was einer nativen Implementierung sehr nahe kommt oder sogar gleichwertig ist.
 
  • Gefällt mir
Reaktionen: SweetOhm und cbmik
Ich finde die Technik primär aus Stromsparsicht bzw. sich daraus ergebender Vorteile und für ältere Games interessant denn nicht alle Games verlangen nach 1a+ Settings und letztendlich kann ich immer noch selbst entscheiden ob ich es nutze oder nicht wie bei den anderen Features ja auch. Also für mich ein klares Habenwollen und ein +für AMD .

Wenn die Spielschmieden nicht liefern und faul werden wie du befürchtest sollte man das Spiel links liegen lassen, das wäre m.E. der richtige Ansatz. Dass man Karten ohne die neuesten Features zusätzlich unterstützt ist kundenfreundlich und somit m.E. nützlich und dem Enthusiasten mit der neuesten Hardware kann es ja egal sein wenn er inGame "bessere" Features nutzen kann.
 
Zuletzt bearbeitet:
Nach Anti-Lag+ war ja eigentlich klar das AMD einen Weg gefunden hatte. Das es jetzt auf dem Niveau von Nvidia performt hätte ich aber nicht erwartet.
Experte18 schrieb:
nicht in keinen Bereich
Schon mal gehört das doppelte Verneinung Bejahung ist? Überall?
 
  • Gefällt mir
Reaktionen: roaddog1337, cbmik und SweetOhm

Anhänge

  • FPS € WQHD.jpg
    FPS € WQHD.jpg
    341,7 KB · Aufrufe: 91
  • FPS € WQHD RT.jpg
    FPS € WQHD RT.jpg
    370,1 KB · Aufrufe: 89
  • FPS Watt.jpg
    FPS Watt.jpg
    319,6 KB · Aufrufe: 89
Zurück
Oben