Test Latenz in Counter-Strike 2: AMD Anti-Lag 2 ist Nvidia Reflex im Benchmark ebenbürtig

Suspektan schrieb:
Ein standard, den niemand unterstützt?
Die Fähigkeiten sind auch - wie in DP 1.2a - optional und wie das so mit Kosten ist: Wenn gespart werden kann, wurde und wird gespart.

Ansonsten stimmt das so nicht, viele Laptops, die heute ein G-Sync oder FreeSync-Display haben, greifen auf den Adaptiv-Sync-Standard von eDP oder DP zurück. *Ergänzung: G-Sync Compatibel und FreeSync setzten auf den Standard auf, haben aber auch entsprechende Mindestanforderungen, die erfüllt werden müssen. Nvidia und AMD stellen mit den Zertifikaten sicher, dass es eben läuft.

Man muss an der Stelle dann auch sagen, dass Nvidia mit G-Sync um genau eben diese Probleme wusste mit den Bauteilen und was passiert, wenn man billige verwendet und hat im Endeffekt auch die richtige Entscheidung getroffen, in dem sie den Scaler entworfen haben und den als Verpflichtung erklärt haben. Damit haben sie viele der Probleme von Free Sync im Keim erstickt.

Das zeigt sich halt auch in den ganzen Jahren: Nvidias Lösungen wirken immer durchdachter und ausgereifter.
 
Zuletzt bearbeitet:
Ich mit meinem Input bin bisschen in off-topic-Gefilden unterwegs aber was ich mir noch wünschen würde: oled ohne vrr flackern mit optional zugeschaltetem BFI (strobing). ELMB, aber das blöde vrr flackern muss weg. Oled sind schon schnell genug, BFI wäre einfach nur noch ne Schippe drauf.... könnte ich gut drauf verzichten, da der fix für das vrr Flickenring Problem eindeutig Vorrang hat. Bin erstmal raus hier.

Mir [la]n[g]ts!!!!!
 
  • Gefällt mir
Reaktionen: cbmik
BAR86 schrieb:
Das ist genau was ich meine, Effizienz und RT ist bei NV nunmal besser
Minimal, bei mehr €uronen.
Ich sehe da eher ein Pari (je nach Brille) ... :cool_alt:
 
  • Gefällt mir
Reaktionen: JarlBallin
TheInvisible schrieb:
Zudem Nvidia Reflex schon von Anfang an bei frame generation vorraussetzt, das müsste man bei fsr3 auch machen und hätte auch gleich einen Latenz positiven Framelimiter...
FSR3 FrameGen beinhaltet ja bereits eine namenlose "In Feature" Latenzreduzierung.
Das steht so im offiziellen FSR3 Blog.
Natürlich wäre ein Anti-Lag 2 also Bonus zur Latenzreduzierung wünschenswert. So war ja ursprünglich auch mit Anti-Lag + angedacht.
 
Ich gehe mal stark davon aus, dass in Zukunft auch Spiele kommen werden, die FSR + FG + Anti-Lag² nutzen werden.

@MrHeisenberg der NV-Fanboy und AMD-Hater zeigt mal wieder, dass diese Aussage zutrifft LUL

Edit: LOL er wurde gebannt OMG. Naja, hat bestimmt schon wieder einen neuen Account. Wird man früher oder später bemerken.
 
  • Gefällt mir
Reaktionen: JarlBallin
Mimir schrieb:
Klar schafft Reflex das. Und AL2 mit Sicherheit auch, da das Prinzip ja des Selbe zu sein scheint.

Hier mal als Beispiel bei Witcher 3 aus dem CB Test der 4060ti. Leider nur mit Reflex.
Wenn es nur mit Reflex ist, dann kannst du das wohl kaum behaupten, da Du keine direkten Orientierungswerte hast, dass Reflex doppelt so wenig Latenz erzeugt (in The Witcher 3) wie Anti Lag (1) und nicht im Vergleich zum nativem (anti lag-losem) Spiel.

Ich kann mich noch erinnern, dass zu meiner Überraschung Anti Lag+ geringere Latenzen geschafft hat als Reflex (welches bekanntermaßen besser Latenzen als Anti Lag (1) auch dort schaffte) in vergleichbarem Szenario, aber ich weiss leider nicht mehr wo der damalige Artikel (vermutlich von @Wolfgang ) bzw. Teil des Artikels mit anderem Fokus zu finden ist.

Problematisch war aus meiner Sicht bei Anti Lag + aber schon immer die Limitierung auf RDNA3 Karten und dann natürlich der konflikterzeugende Eingriff in Spiele, so dass die etwas bessere Leistung gegenüber Reflex oder deutlich bessere Leistung gegenüber Anti Lag (1) dann nicht wirklich ausschlaggebend war, weil die einhergehenden anderen technischen Limitierungen zu groß waren.

P.S.: Wer suchet, der findet (anderweitig):


Allerdings sind die Techniken oder deren Implementierungen immer noch sehr spielspezifisch und das bedingt, wie gut diese die Latenz reduzieren, wie es scheint (in einigen Titeln bringt auf Anti Lag + auch nicht viel gegenüber Anti Lag).

Vielleicht besser für Dich, dass Du nicht gewettet hast (bzgl. Anti Lag+ vs. Anti Lag 2) ;).
 
Zuletzt bearbeitet:
Suspektan schrieb:
Funktioniert nur irgendwie bis heute nicht, notebook ist nicht gsync o. freesync zerifiziert -> vrr nicht möglich, unabhängig vom eDP.
Ein standard, den niemand unterstützt?
Also mein Laptop (RTX 2060) ist "Adaptive Sync" zertifiziert ... :rolleyes:
 

Anhänge

  • Laptop.jpg
    Laptop.jpg
    667,3 KB · Aufrufe: 66
SweetOhm schrieb:
Minimal, bei mehr €uronen.
Ich sehe da eher ein Pari (je nach Brille) ... :cool_alt:
Ja so eine Brille hab ich nicht: ich kaufe solch teure GPUs nicht, aber WENN ich so viel Geld ausgeben würde, erwarte ich, dass ich Spiele wie Cyberpunk @ Overdrive ordentlich spielen kann. Entgegen der Ankündigung vor 6 Jahren kriegt das AMD einfach nicht hin mit der RT Performance
 
  • Gefällt mir
Reaktionen: SweetOhm
DevPandi schrieb:
Ach, was habe ich denn an der Stelle falsch dargestellt?
Reichlich. Der eDP Standard hat quasi erklärt was ein Rad sein könnte und Nvidia hat eine fertige Modul Lösung entwickelt die quasi ein Auto zur Eliminierung von Tearing inkl. Framedoubling und Co. ohne nervige Intervalle und Einschränkungen darstellt.

Der eigentlich notwendige Standard 1.2a, damit VRR "halbwegs" funktionierte kam mit Produkten später, nachdem das Gsync Modul und die ersten Monitore längst auf dem Markt waren. Dein Vorwurf Nvidia hätte den eDP Standard lediglich kopiert ist sachlich falsch.

Und Marketing war das auch keines, da die Funktionsweise von Freesync lange faktisch unterlegen war, da es die passenden Scaler inkl. Treiber von AMD gar nicht gab, geschweige denn die nötigen Vorgaben für ein Freesync Gerät.
DevPandi schrieb:
Adaptiv-Sync und dessen Funktionalität waren vor Gsync bereits vorhanden und macht im Prinzip genau das, was Gsync macht.
Nein, eben nicht. Siehe AMDs Demo auf der CES 2014. Halte dich bitte an nachprüfbare Fakten.
DevPandi schrieb:
Nein, das habe ich an der Stelle nicht vergessen, weil es an dieser Stelle kein Bestandteil meines Kommentars sein muss.
Sollte es aber, denn deine Vorwürfe des Kopierens von Technologien, unter anderem Cuda, eDP, Raytracing und Co sind alles olle Kamellen, die immer wieder widerlegt werden. Jeder Hersteller nutzt dafür eigene IP und genauso ist AMDs Antilag 2 sehr wahrscheinlich auch kein 1:1 Nachbau von Nvidias Reflex, genauso wie Nvidias RT Ansatz sich nicht alleinig aus Folien und Überlegungen von Imagination Folien speist. Wie kommst du überhaupt dazu solche Behauptungen als Redakteur eines seriösen Online Magazins ins Netz zu stellen?

Kein Vergleich zu deinen sonstigen Beiträgen oder Tests.
DevPandi schrieb:
Hier wurde AMD vorgeworfen - genauso, wie du es sehr oft macht - dass sie von Nvidia nur kopieren.
Ich sage sie sind mit einer eigenen Entwicklung nachgezogen. Ich sagte nie etwas von Kopieren. Unterstelle mir bitte nichts.
https://www.computerbase.de/forum/search/2843844/?q=AMD+Kopie&c[users]=Quidproquo77&o=relevance
DevPandi schrieb:
Dieser Vorwurf dient hier nur dazu, dass man AMD diskreditieren kann(...)
Ja, deswegen sagte ich das auch nicht?!
DevPandi schrieb:
in euren absolut sinnlosen Grabenkämpfen, die teilweise bereits an Obsession grenzt.
Du führst hier einen Grabenkampf gegen Nvidia und merkst es nicht mal selbst.
DevPandi schrieb:
Und genau auf diesen Vorwurf habe ich nun entsprechend auch reagiert und mal all das aufgezählt, bei denen man Nvidia des "Kopieren" beschuldigen könnten.
Ja und mit lauter neuen unzutreffenden Beschuldigungen wieder neues Futter geliefert. Kann man sich doch auch sparen.

DevPandi schrieb:
Unglaublich ist an der Stelle viel eher, dass du nicht in der Lage bist zu erkennen, dass ich hier absichtlich provokant und überspitzt all das aufgezählt habe(...)
So wie das alles dort steht hört sich das aber nicht so an. Hört sich eher so an als seist du davon überzeugt, dass es genau so auch ist.
DevPandi schrieb:
Wenn man in der Welt der Wissenschaft und Technik, selbst in der Welt der Kunst aktiv ist, dann lernt man sehr schnell, dass "Kopieren" quasi eine Selbstverständlichkeit ist und wir Menschen immer uns inspirieren zu lassen.
Sich inspirieren lassen wäre ja dann auch keine Kopie, sondern etwas positives.
Ohne Gsync würde ich nämlich stark bezweifeln, dass ich 2018 ein vernünftiges Freesync Display bekommen hätte.
DevPandi schrieb:
Man könnte nämlich das ganze auch mal deutlich positiver schreiben, ohne dass man hier jedes Mal negativ einer Firma was vorwirft.
Warum hört sich das dann bei dir und Heisenberg so negativ an?
DevPandi schrieb:
Bei G-Sync hat sich Nvidia durch den eDP-Standard inspirierne lassen, hat die damaligen Schwächen erkannt und hat diese effektiv auch mit G-Sync behoben. Dazu haben sei erkannt, dass sie strenge Regeln den Display-Herstellern geben müsse, weil sonst das alles nichts bringt.
Ja, so stimmt es dann auch halbwegs.
Wobei auch der 1.2a Standard mit AMD/ATI Technologie noch lange genug unter Schwächen litt. Natürlich hatte Nvidia auch Gsync im Notebookbereich mit dem später veröffentlichten Standard Mitte 2015 dann mit Einschränkungen kompatibel gemacht.
 
Zuletzt bearbeitet:
DevPandi schrieb:
AMD hat aktuell hier den Mut verloren bei Radeon, das finde ich persönlich schade. Ich kann es aber verstehen. ATi und auch AMD haben viel Forschung betrieben, am Ende hat aber sowohl der Markt als ganzes als auch Mircosoft gerne mal den Mittelfinger gezeigt und die Ideen übernommen, die Spezifikationen und technischen Details aber so angepasst, dass ATi/AMD aus ihrer Arbeit keinen Profit schlagen konnten.

Ist auch schwierig als der deutlich kleinere Player, Techniken zu entwickeln, die einer weiten Adoption bedürfen. Entweder man hat die Killerinnovation oder man lässt es bleiben, denn wenn sich der größere Konkurrent einer Implementierung verweigert, ziehen auch die Softwareentwickler nicht nach. Dann "verhungert" man mit seiner Erfindung.

Insofern kann doch nvidia ruhig den Innovator spielen und das Risiko tragen. Für AMD lohnt das eher nicht. AMD zieht dann (teilweise mit begrüßenswerten open-Source-Lösungen) etwas später nach.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Enyo79
Verstehe nicht, warum sich hier immer wieder Streitigkeiten auftun. Wir können doch froh sein, wenn immer wieder Neuerungen bzw. Verbesserungen (egal welcher Hersteller) auf den Markt kommen.
Somit bleibt das ganze Thema interessant.
Wären doch nur noch weitere Player unterwegs, dann würde es viel interessanter für den Endverbraucher sein.

Bin irgendwie kein Fan von Firmen (leider inzwischen in fast allen Bereichen), die sich börsennotiert so sehr hochschaukeln, dass das alles irgendwie nur noch unrealistisch wirkt.
1000€ für eine beschissene Nvidia Aktie...jetzt weiß ich auch, warum Preise sich so katastrophal entwickeln...schaue man sich die Aktien noch vor 10 Jahren an...lol
Somit steckt so viel "virtuelles" Geld in solche Firmen. Dass die damit dann auch mal technisch Fortschritte machen bzw. Neuigkeiten (KI - und dieses Thema macht mir für die Zukunft Angst), erwartet man ja dann auch.
Diese künstlichen Preisschrauben werden (wäre ja nicht das erste Mal) die Wirtschaft ganz sicher in den Ruin treiben.....früher oder später.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cbmik
SweetOhm schrieb:
Also mein Laptop (RTX 2060) ist "Adaptive Sync" zertifiziert ... :rolleyes:
Hmm, es braucht eine eigene Zertifizierung?
Von wem eigentlich?
Mein notebook mit rtx3050 bietet jedenfalls keine Form von vrr bei Nutzung des internen Displays, da nützt auch kein eDP.
 
BAR86 schrieb:
Ja so eine Brille hab ich nicht: ich kaufe solch teure GPUs nicht, aber WENN ich so viel Geld ausgeben würde, erwarte ich, dass ich Spiele wie Cyberpunk @ Overdrive ordentlich spielen kann. Entgegen der Ankündigung vor 6 Jahren kriegt das AMD einfach nicht hin mit der RT Performance
Wer braucht denn schon RT ?!?
Dass es auch OHNE geht zeigt doch ...

https://www.computerbase.de/artikel/gaming/ghost-of-tsushima-benchmark-test.88153/

https://www.pcgameshardware.de/Ghos...se-Directors-Cut-Test-Review-GPU-CPU-1447963/
 
  • Gefällt mir
Reaktionen: JarlBallin
DevPandi schrieb:
Die Fähigkeiten sind auch - wie in DP 1.2a - optional und wie das so mit Kosten ist: Wenn gespart werden kann, wurde und wird gespart.
Achso, naja, braucht also eine eigene kostenpflichtige Zertifizierung?
irgendwie lächerlich, ein standard von 2009, der schon damals kaum unterstützt wurde und heute auch nicht.
Aber freesync/ gsync zertfizierte Notebooks, ja DIE existieren natürlich zu Hauf.
Ergänzung ()

DevPandi schrieb:
Ansonsten stimmt das so nicht, viele Laptops, die heute ein G-Sync oder FreeSync-Display haben, greifen auf den Adaptiv-Sync-Standard von eDP oder DP zurück. *Ergänzung: G-Sync Compatibel und FreeSync setzten auf den Standard auf, haben aber auch entsprechende Mindestanforderungen, die erfüllt werden müssen. Nvidia und AMD stellen mit den Zertifikaten sicher, dass es eben läuft.
Ich weiß, dass nvidia gsync auf notebooks KEIN eigenes Modul benötigt, da eDP bereits von sich aus vrr unterstützt.
Ich rede aber von adaptive sync Unterstützung, ohne freesync/ gsync Zertifizierung, sollte ja möglich sein.
 
Chismon schrieb:
Vielleicht besser für Dich, dass Du nicht gewettet hast (bzgl. Anti Lag+ vs. Anti Lag 2) ;).

Nö, ich würde weiterhin wetten.
Nochmal, wie kommst du darauf, dass AL+ besser abschneiden würde, als AL2 oder Reflex?

Es gibt einfach keinerlei Grundlage dafür. Wenn AL+ in einem Spiel bessere Latenzen als Reflex erreicht hat, wie du meinst, dann wird das auch mit AL2 der Fall sein. Ist halt dann ein Spiel das auf der AMD Karte besser auf die Latenreduktion reagiert. Auch wenn ich mir ziemlich sicher bin, dass der Unterschied zwischen AL2/+ und Reflex minimal sein dürfte, da die ganze Latenreduzierungsgeschichte ja nur darauf basiert, den Renderqueue leer zu halten. Da gibt's keinen Spielraum für AMD oder Nvidia, noch bessere Latenzen herauszuholen, alles was man da macht, ist den Flaschenhals entfernen.

Der beste Beweis dafür ist, dass ein FPS Limit die gleichen latenzen wie Reflex erzeugt, wie dein Video ja auch zeigt (und meines auch)
 
  • Gefällt mir
Reaktionen: Quidproquo77
DevPandi schrieb:
Man muss an der Stelle dann auch sagen, dass Nvidia mit G-Sync um genau eben diese Probleme wusste mit den Bauteilen und was passiert, wenn man billige verwendet
Was für billige Bauteile bei Notebooks, man verwendet dort keine eigene Hardware für gsync?
 
der Unzensierte schrieb:
Nach Anti-Lag+ war ja eigentlich klar das AMD einen Weg gefunden hatte. Das es jetzt auf dem Niveau von Nvidia performt hätte ich aber nicht erwartet.
Also ich habe das so erwartet. Wer 4 Jahre später nachzieht, muss mindestens das gleiche Niveau erreichen. Alles andere wäre peinlich. Es gab genug Zeit herauszufinden, wie das alles genau funktioniert und welche Probleme beim Konkurrenten aufgetreten sind.

Das hätte alles schon bei der ersten AL+ Variante passieren müssen, wofür einige Gamer gebannt worden sind.
 
Mimir schrieb:
Es gibt einfach keinerlei Grundlage dafür.
Wenn Dir das oblige Video mit direktem AMD Anti Lag + zu nVidia Reflex Vergleich nicht reicht oder Du es nicht akzeptieren möchtest, dann dann ich Dir auch nicht helfen.

Ich denke eine weitere Diskussion auf Basis Deiner Theorien erübrigt sich dann, denn die Realität sieht nun einmal in den Beispielen anders aus (siehe Video) mit geringeren Latenzen für Anti Lag+ als für Reflex (und damit Anti Lag 2).

Dass das aber nicht allgemeingültig ist, sondern in einigen Spielen auch unterschiedlich sein kann, hatte ich ja bereits erörtert (sieht man ja auch an dem Spiel im Video bei dem Anti Lag (1) und Anti Lag + fast auf gleichem Niveau liegen, was die Latenzreduzierung angeht).

Was auch immer dafür verantwortlich ist, dass in vergleichbaren Spielen Anti Lag+ signifikant bessere Latenzen zeigt als Reflex (und damit maximal AntiLag 2), es zeigt auch, dass Anti Lag 2 nicht Anti Lag+ von der Leistung her ist und somit nicht das gleiche ist, was von Dir nahegelegt wurde (zumal Anti Lag 2 vergleichbar zur Reflex Leistung war/ist, aber nicht auf stärkerem Anti Lag+ Niveau).

Alleine die RDNA3 Voraussetzung (für Anti Lag +) war schon klarer Indikator, dass es anders als Anti Lag 2 (welches nicht auf RDNA 3 und neuere Architekturen beschränkt ist) implememtiert ist und letzteres dabei wohl auch mehr Kompromisse eingehen muss, die sich wohl in der Leistungsfähigkeit nachteilig ausgewirkt haben dürften (so dass man nicht mehr deutlich vor Reflex damit landet).

Aus dem Grund ist Anri Lag 2 auch kein großer Wurf, sondern nur eine überfällige Weiterentwicklung seitens AMD.
 
Zuletzt bearbeitet:
1716906150876.png

RDNA2 + Anti Lag 2 funktioniert in CS2, top
 
  • Gefällt mir
Reaktionen: SweetOhm
SweetOhm schrieb:
Ghost of Tsushima sieht halt aus wie ein PS4 Spiel, was es ja auch ist.
Im PCGH Test hast du ja sogar eine extra Bildreihe "Ghost of Tsushima: Im Kern ein PS4-Spiel", wo unter anderem flache/fehlende Beleuchtung, falsche Beleuchtung, unnatürliche Schatten und Probleme mit den Screen Space Reflections zu sehen sind.
Ghost of Tsushima ist daher so etwas wie eine Zeitreise in die Vergangenheit der Spiele-Grafik
Mir persönlich fällt beim Spielen auch immer wieder auf, vor allem in Cutscenes, dass die Charaktere oft einfach von allen Seiten gleich beleuchtet sind.
Wenn, dann ist das Spiel ein gutes Beispiel dafür, wie sehr Raytracing hier geholfen hätte.

Du hättest jetzt Hellblade 2 als Beispiel anführen können, wo es eine insgesamt ziemlich stimmige Beleuchtung gibt und auch die Screen Space Reflections zumindest so gemacht sind, dass nicht die komplette Spiegelung verschwindet, aber das?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und BAR86
Zurück
Oben