Test Latenz in Counter-Strike 2: AMD Anti-Lag 2 ist Nvidia Reflex im Benchmark ebenbürtig

DevPandi schrieb:
Wollen wir mal all die Technologien aufzählen,(...)
Letztendlich wollte Heisenberg wohl darauf hinaus, dass AMD in den letzten Jahren immer nachgezogen ist was die Technik und das Featureset betraf. "Kopieren" ist negativ geframed und unsinnig.

Nvidia zwischen 2000 und 2018 als Dauer-Kopierer darzustellen ist aber genau so unzutreffend und substanzlos. Wie kommst du auf so etwas?!

Der Großteil von dem was du da behauptest stimmt nicht und lässt sich einfach widerlegen. Cuda als "Kopie" der Firestream CTM API? Uff. Das passierte alles parallel. CUDA wurde seit 2004 entwickelt und 2006 vorgestellt Das SDK kam sogar mitte 2007 ein halbes Jahr vor AMDs Lösung.

DevPandi schrieb:
Entschuldige, aber was "kopieren" von Technologien angeht, ist Nvidia immer ganz vorne dabei, nur wird das gerne durch das verdammt gute Marketing von Nvidia durch die meisten vergessen.
Du hast halt "vergessen" Nvidias Entwicklungen entsprechend zu erwähnen bzw. zu würdigen. Die Geschichte mit Gsync hast du auch teils falsch dargestellt.
DevPandi schrieb:
... dass solche Lösungen wie G-Sync am Anfang deutlich besser funktionieren.
Was daran lag, dass die nötige Hardware gar nicht existierte, damit Freesync aus dem Stand so funktionieren konnte wie Gsync. Es dauerte 5 Jahre bis das auf einem vergleichbaren Standard zu den Modulen war, danach war Gsync dann nachvollziehbar tot.
DevPandi schrieb:
Nur sollte man die Vorwürfe von "AMD kopiert von Nvidia" lieber außen vor lassen...
Um dann neue haltlose Vorwürfe Nvidia kopiere alles zu konstruieren? Sinn?
 
Zuletzt bearbeitet:
AMDs Anti-Lag+ war nVidia Reflex von der Latenz her i.d.R überlegen - wenn es denn auch RDNA3 exklusiv war - so dass ich mich wundere, wenn jetzt Anti Lag 2 für "nur" zu Reflex äquivalente Latenz in CS2 gefeiert werden soll..

Ja gut, es gibt die Probleme mit der durch Anti Lag + ausgelösten Cheaterausschlussmechanik nicht mehr, aber dafür ist es leistungstechnisch schwächer und wohl auf Basis von Anti Lag 1 und nicht + weiter entwickelt worden (sonst nur mit dem Vorteil nicht mehr RDNA3 exklusiv zu sein gegenüber der + Version).
 
Quidproquo77 schrieb:
Der Anfang ist getan, ganze 4 Jahre nach Reflex. Was lange währt wird gut.
Experte18 schrieb:
Immerhin. Aber übertreffen will oder kann AMD Nvidia nicht in keinen Bereich.
Zumindest bei der Latenz ist wohl eine technisch bedingte Barriere erreicht, sonst hätte Nvidia die vier Jahre Vorsprung genutzt, um mit Reflex noch bessere Ergebnisse hinzubekommen.

Ansonsten, nein, AMD will Nvidia nicht (mehr) schlagen - zumindest bei Gaming nicht - wozu auch? Ist ja nicht so, dass AMD/ATi in dem ewig währenden Kampf nicht öfters auch mal oben auf gesessen hätten. Nur haben die Leute einfach weiter Nvidia gekauft. Es bringt also nichts, besser als der Marktführer zu sein, dass braucht mehrere Generationen, bis ein Umdenken bei den Kunden stattfindet.

Überlege mal, wie lange Ryzen den Intels in vielen Punkten mindestens ebenbürtig sind, und trotzdem hält Intel immer noch den höheren Marktanteil.
 
  • Gefällt mir
Reaktionen: SweetOhm und cbmik
Quidproquo77 schrieb:
Nvidia zwischen 2002 und 2018 als Dauer-Kopierer darzustellen ist aber genau so unzutreffend und substanzlos. Wie kommst du auf so einen Unfug? Unglaublich...
Nein,er hat es sehr informativ dargelegt.
Außerdem ist es doch Gang und Gebe in jedem Gewerbe Sachen zu kopieren,zu verbessern und dann wieder als "neu" auf den Markt zu bringen.

Wenn AMD kein "AntiLAG" bringt wird es kritisiert. Wenn es eins bringt (was auch noch auf Augenhöhe funktioniert) wird AMD des kopierens beschuldigt. Oder es kommt zu spät.
 
  • Gefällt mir
Reaktionen: JarlBallin, SweetOhm und cbmik
Mimir schrieb:
dafür eine Quelle?

Es gab dazu einmal einen Vergleich hier auf CB, soweit ich mich erinnere.

Das war noch im Zusammehang mit (A)FMF, wo dann auch Anti Lag, Anti Lag + und Reflex sich gegenüber standen aber trotz Suchfunktion habe ich das jetzt nicht auf Anhieb finden können (evt. ein Spieletest), ich schaue mich aber noch einmal um.

Zumindest ein Video, dass Anti Lag mit Anti Lag + vergleicht gibt es auf die Schnelle, welches eine Latenzreduzierung um ca. die Hälfte zeigt durch Anti Lag + gegenüber Anti Lag in The Witcher 3 bspw. (was Anti Lag 2 oder Reflex wohl nicht schaffen dürften):


Das Problem war aber vermutlich die zu tiefe Implementierung bei Anti Lag + (daher die nachträgliche Evolution/Weiterentwicklung von Anti Lag zu Anti Lag 2), so dasss man Konflikte mit dem Code der Spiele nicht ausschließen konnte, schade.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Letztendlich wollte Heisenberg wohl darauf hinaus, dass AMD in den letzten Jahren immer nachgezogen ist was die Technik und das Featureset betraf.
so habe ich das auch interpretiert und ist letztendlich auch Das was mich als aktuellen Consumer interessiert und ein Bild/Eindruck des Produktes/Herstellers im aktuellen Stand bei mir hinterlässt
 
Komisch finde ich nur, wenn AMD diese Technik v. Nvidia kopiert haben soll, dass es bei Nvidia keine bekannten Anti-Cheat Probleme gab/gibt.
Also scheint AMD da doch eine andere Technik/Softwarecode zu nutzen.

Und man darf auch mal folgendes nicht vergessen, Nvidia macht nur Karten für Grafik/Ki., AMD auch noch CPUs!
Und dafür (weniger Geld, Man-Power etc.) macht sich meiner Meinung nach AMD ganz gut.

Hat Intel eigentlich auch solch ein Feature, welches hier getestet wurde?

Mich würde mal interessieren, sollte Nvidia CPUs entwickeln/bauen, wie diese so wären.
 
Zuletzt bearbeitet:
So viel Aufwand für 1 Spiel.

Würde mich interessieren ob sich das ohne großen Aufwand für weitere Spiele portieren lässt.
 
Experte18 schrieb:
Immerhin. Aber übertreffen will oder kann AMD Nvidia nicht in keinen Bereich.
Doch bei der Linux Unterstützung, da ist AMD weit vor Nvidia 😉
 
  • Gefällt mir
Reaktionen: JarlBallin, SweetOhm, h2f und eine weitere Person
Enyo79 schrieb:
Diese zwei Sätze sind wirklich nur da um zu provozieren. Glückwunsch Herr Heisenberg.
Hängt wahrscheinlich sein Ego dran.
 
  • Gefällt mir
Reaktionen: JarlBallin, SweetOhm, jo0 und eine weitere Person
polyphase schrieb:
Doch bei der Linux Unterstützung, da ist AMD weit vor Nvidia 😉
Ich finde den Funktionsumfang vom Adrenalin auch um Lichtjahre vorraus.
 
  • Gefällt mir
Reaktionen: JarlBallin und daknoll
Ähm.... Nein!

1. Adrenalin gibt's nicht unter Linux, da die Treiber in Kernel sind.
2. Meinte ich das AMD ind diesem Fall Out of the Box funktioniert, während man bei Nvidia noch proprietäre Software nachinstallieren muss
 
Chismon schrieb:
Zumindest ein Video, dass Anti Lag mit Anti Lag + vergleicht gibt es auf die Schnelle, welches eine Latenzreduzierung um ca. die Hälfte zeigt durch Anti Lag + gegenüber Anti Lag in The Witcher 3 bspw. (was Anti Lag 2 oder Reflex wohl nicht schaffen dürften):

Klar schafft Reflex das. Und AL2 mit Sicherheit auch, da das Prinzip ja des Selbe zu sein scheint.

Hier mal als Beispiel bei Witcher 3 aus dem CB Test der 4060ti. Leider nur mit Reflex.
1716888926706.png

https://www.computerbase.de/2023-05...itt_nvidia_dlss_3_in_the_witcher_3_untersucht

Das sind eben die Latenzreduktionen die man üblicherweise erwarten kann und mit AL2 erwarten wird...



Chismon schrieb:
Das Problem war aber vermutlich die zu tiefe Implementierung bei Anti Lag + (daher die nachträgliche Evolution/Weiterentwicklung von Anti Lag zu Anti Lag 2), so dasss man Konflikte mit dem Code der Spiele nicht ausschließen konnte, schade.

Warum sollte eine Lösung die von außen in das Spiel eingreift besser funktionieren, als eine Lösung die der Entwickler sauber in seinen Code implementiert?

Ich würde jede Wette eingehen, dass AntiLag+ und AntiLag2 gleichwertig sind oder tendenziell AntiLag2 eher besser abschneidet und niemals anders herum (außer es gibt einen Bug).

Und das normale AntiLag aus dem Treiber ist gegen Reflex/AL+/AL2 überhaupt nicht vergleichbar. Das ist ein simples Treiberfeature vergleichbar mit dem Ultra Low Latency Modus im Nvidia Treiber. Das bringt nur sehr sehr wenig und ein FPS limit ist in jedem Fall deutlich effektiver, als AntiLag oder Ultra Low Latency.


Hier kannst dir mal die Videos von Battlenonsense ansehen. Er hat zwar noch keines zu AL2 gemacht, aber damit siehst du trotzdem, was ich meine:

Im ersten Video siehst du, dass AntiLag+ und Reflex gleichwertig sind, wobei AntiLag+ in einem Fall auch ein gutes Stück langsamer ist. Kommt wahrscheinlich durch die quasi inkomaptibilität dadurch dass sich die Funktion von außen ins Spiel hacked. Also auch wieder ein gutes Beispiel dafür, dass die Lösung nicht optimal war.


Hier beim zweiten Video siehst du, dass der Ultra Low Latency Modus keine Chance gegen Reflex hat und dass AMDs normales AntiLag genauso schlecht ist, wie Nvidias ULL Modus.


Also zusammengefasst:

AMD AntiLag = Nvidia Ultra Low Latency Modus
AMD AntiLag+ ≈ AntiLag2 = Nvidia Reflex
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Suspektan und cbmik
Was man bei NV gut sieht: Jensen denkt wie Heisenberg:

"Corner the market!"

Dazu empfehle ich, die passende Episode dazu zu schauen. Zusammenfassung der Serie + die Economics dahinter erörtert



Mittel zum Ziel ist Hardware-Raytracing. AMD wurde mit heruntergelassener Hose kalt erwischt. Wer das Produkt beherrscht, kann die Preise bestimmen.

KI-Gpus, das komplette Sorglos-Paket für Firmen, die nicht nach dem Preis fragen. Halo-Gaming-Gpus, die anscheinend keine mehr sind, weil gefühlt zu viele eine 4090 drin haben.... läuft bei NV, stabile Marge....

Jensen hat sich in Ruhe einen Masterplan ausgearbeitet die letzen 5 oder gar 10 Jahre: Raytracing zu forcieren um die Konkurrenz auszustechen. Die geben jetzt nur noch Vollgas und wenn AMD und Intel nicht dranbleiben, verlieren sie den Anschluss. Punkt.

NV wird dann gebetsmühlenartig jedem Gamer RTX in die Birne prügeln bis die Dominanz auf 90% steigt. Aber auch wichtig ist die Gewinnmarge: AMD wird versuchen, mit günstigen Preisen dagegenzuhalten. Deren Marge wird darunter leiden während NV nicht nur den Umsatz als auch die Marge ausbauen wird.
Der feuchte Traum für einen CEO.

Jensen so:

“I’m not in the gpu business. I’m in the empire business.”

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, SweetOhm und jo0
Quidproquo77 schrieb:
Die Geschichte mit Gsync hast du auch teils falsch dargestellt.
Ach, was habe ich denn an der Stelle falsch dargestellt? Dass Adaptiv-Sync Bestandteil von eDP seit 2009 ist, ist eine Tatsache. Dass Adaptiv-Sync bereits damals die der GPU ermöglichen sollte, dem Display die Wiedergabe der GPU anzupassen ebenso.

Adaptiv-Sync und dessen Funktionalität waren vor Gsync bereits vorhanden und macht im Prinzip genau das, was Gsync macht. Nvidia hat hier also einen Standard kopiert. Dank gutem Marketing glaubt jeder, dass später die VESA als auch AMD "Gsync" mit Adaptiv-Sync kopiert haben, nur ist das absolut falsch. Wie soll die VESA sich bitte selbst kopieren?

Adaptiv-Sync wurde sogar in DP 1.2a bereits Anfang 2013 aufgenommen, also ist da die VESA sogar Nvidia erneut zuvor gekommen.
Quidproquo77 schrieb:
Du hast halt "vergessen" Nvidias Entwicklungen entsprechend zu erwähnen bzw. zu würdigen.
Nein, das habe ich an der Stelle nicht vergessen, weil es an dieser Stelle kein Bestandteil meines Kommentars sein muss. Hier wurde AMD vorgeworfen - genauso, wie du es sehr oft macht - dass sie von Nvidia nur kopieren.

Dieser Vorwurf dient hier nur dazu, dass man AMD diskreditieren kann in euren absolut sinnlosen Grabenkämpfen, die teilweise bereits an Obsession grenzt. Es gibt kein Thema zu den Entwicklungen bei AMD, bei denen nicht irgendeiner den Vorwurf bringt, dass AMD nur kopiert.

Und genau auf diesen Vorwurf habe ich nun entsprechend auch reagiert und mal all das aufgezählt, bei denen man Nvidia des "Kopieren" beschuldigen könnten. Ich habe das ganze natürlich auch aus stilistischen Gründen überspitzt bzw. übertrieben.

Quidproquo77 schrieb:
Nvidia zwischen 2002 und 2018 als Dauer-Kopierer darzustellen ist aber genau so unzutreffend und substanzlos. Wie kommst du auf so einen Unfug? Unglaublich...
Unglaublich ist an der Stelle viel eher, dass du nicht in der Lage bist zu erkennen, dass ich hier absichtlich provokant und überspitzt all das aufgezählt habe, bei denen ATi/AMD oder eine andere Firma vor Nvidia die Initiative hatten und sich Nvidia hat selbst inspirieren lassen.

Wenn man in der Welt der Wissenschaft und Technik, selbst in der Welt der Kunst aktiv ist, dann lernt man sehr schnell, dass "Kopieren" quasi eine Selbstverständlichkeit ist und wir Menschen immer uns inspirieren zu lassen. Egal ob jetzt andere Menschen oder die Natur im Allgemeinen.

Man könnte nämlich das ganze auch mal deutlich positiver schreiben, ohne dass man hier jedes Mal negativ einer Firma was vorwirft.

Nvidia hat wie ATi bei CUDA die Zeichen erkannt und hat eine deutlich überlegtere API auf den Markt gebracht und hat dann auch den deutlich längeren Atem gehabt, um das durchzuziehen.

Bei G-Sync hat sich Nvidia durch den eDP-Standard inspirierne lassen, hat die damaligen Schwächen erkannt und hat diese effektiv auch mit G-Sync behoben. Dazu haben sei erkannt, dass sie strenge Regeln den Display-Herstellern geben müsse, weil sonst das alles nichts bringt.

Genauso beim RT, sie haben auch daran gearbeitet, erkannt, dass es jetzt an der Zeit ist und haben mutig den Sprung gewagt, während andere Firmen noch haderten oder am PC-Markt nicht aktiv waren.

Sie waren es ebenso, die die Tensor-Kerne in ihre GPU implementierten und damit eine "GP"-Lösung anboten und so auch den Weg ebneten, dass KI weitgehend direkt in die Grafikpipline integriert werden kann, ohne Umwege oder zusätzliche Prozessoren.

Nvidia ist aktuell ohne Frage ein Innovator am Markt und treibt KI und RT voran und leistet ihr tolle Arbeit, da besteht kein Zweifel daran.

ATi und AMD hatten diese Rolle bis Vega auch Inne und das ist AMD verloren gegangen. Sie rennen aktuell nur noch hinterher und reagieren.
 
  • Gefällt mir
Reaktionen: JarlBallin, Jagdwurst, SweetOhm und 2 andere
aufkrawall schrieb:
Ist die Frage, ob man das ohne Gefahr für SP-Spiele zurückbringen könnte. Falls auch nur ein Hauch Restwahrscheinlichkeit besteht, dass das wieder mit MP-Spielen irgendwie in die Hose geht (Bugs, unsachgemäße Benutzung...), lässt man es besser für immer in der Mülltonne, wo es dann auch hingehört.
Man hätte es für Konsolen verwenden können, da ist der Lag z.T. höher als auf der pc Version. (Bei gleichen fps)
Ergänzung ()

DevPandi schrieb:
Dass Adaptiv-Sync Bestandteil von eDP seit 2009 ist, ist eine Tatsache. Dass Adaptiv-Sync bereits damals die der GPU ermöglichen sollte, dem Display die Wiedergabe der GPU anzupassen ebenso.
Funktioniert nur irgendwie bis heute nicht, notebook ist nicht gsync o. freesync zerifiziert -> vrr nicht möglich, unabhängig vom eDP.
Ein standard, den niemand unterstützt?
 
Zuletzt bearbeitet:
Zurück
Oben