Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Latenz in Counter-Strike 2: AMD Anti-Lag 2 ist Nvidia Reflex im Benchmark ebenbürtig
Quidproquo77
Lt. Commander
- Registriert
- Okt. 2023
- Beiträge
- 1.789
Letztendlich wollte Heisenberg wohl darauf hinaus, dass AMD in den letzten Jahren immer nachgezogen ist was die Technik und das Featureset betraf. "Kopieren" ist negativ geframed und unsinnig.DevPandi schrieb:Wollen wir mal all die Technologien aufzählen,(...)
Nvidia zwischen 2000 und 2018 als Dauer-Kopierer darzustellen ist aber genau so unzutreffend und substanzlos. Wie kommst du auf so etwas?!
Der Großteil von dem was du da behauptest stimmt nicht und lässt sich einfach widerlegen. Cuda als "Kopie" der Firestream CTM API? Uff. Das passierte alles parallel. CUDA wurde seit 2004 entwickelt und 2006 vorgestellt Das SDK kam sogar mitte 2007 ein halbes Jahr vor AMDs Lösung.
Du hast halt "vergessen" Nvidias Entwicklungen entsprechend zu erwähnen bzw. zu würdigen. Die Geschichte mit Gsync hast du auch teils falsch dargestellt.DevPandi schrieb:Entschuldige, aber was "kopieren" von Technologien angeht, ist Nvidia immer ganz vorne dabei, nur wird das gerne durch das verdammt gute Marketing von Nvidia durch die meisten vergessen.
Was daran lag, dass die nötige Hardware gar nicht existierte, damit Freesync aus dem Stand so funktionieren konnte wie Gsync. Es dauerte 5 Jahre bis das auf einem vergleichbaren Standard zu den Modulen war, danach war Gsync dann nachvollziehbar tot.DevPandi schrieb:... dass solche Lösungen wie G-Sync am Anfang deutlich besser funktionieren.
Um dann neue haltlose Vorwürfe Nvidia kopiere alles zu konstruieren? Sinn?DevPandi schrieb:Nur sollte man die Vorwürfe von "AMD kopiert von Nvidia" lieber außen vor lassen...
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.451
Ja gut, es gibt die Probleme mit der durch Anti Lag + ausgelösten Cheaterausschlussmechanik nicht mehr, aber dafür ist es leistungstechnisch schwächer und wohl auf Basis von Anti Lag 1 und nicht + weiter entwickelt worden (sonst nur mit dem Vorteil nicht mehr RDNA3 exklusiv zu sein gegenüber der + Version).
Chismon schrieb:AMDs Anti-Lag+ war nVidia Reflex von der Latenz her i.d.R überlegen - wenn es denn auch RDNA3 exklusiv war
Hast du dafür eine Quelle?
Das ist genau was ich meine, Effizienz und RT ist bei NV nunmal besserSweetOhm schrieb:
Balikon
Captain
- Registriert
- Juni 2008
- Beiträge
- 3.465
Quidproquo77 schrieb:Der Anfang ist getan, ganze 4 Jahre nach Reflex. Was lange währt wird gut.
Zumindest bei der Latenz ist wohl eine technisch bedingte Barriere erreicht, sonst hätte Nvidia die vier Jahre Vorsprung genutzt, um mit Reflex noch bessere Ergebnisse hinzubekommen.Experte18 schrieb:Immerhin. Aber übertreffen will oder kann AMD Nvidia nicht in keinen Bereich.
Ansonsten, nein, AMD will Nvidia nicht (mehr) schlagen - zumindest bei Gaming nicht - wozu auch? Ist ja nicht so, dass AMD/ATi in dem ewig währenden Kampf nicht öfters auch mal oben auf gesessen hätten. Nur haben die Leute einfach weiter Nvidia gekauft. Es bringt also nichts, besser als der Marktführer zu sein, dass braucht mehrere Generationen, bis ein Umdenken bei den Kunden stattfindet.
Überlege mal, wie lange Ryzen den Intels in vielen Punkten mindestens ebenbürtig sind, und trotzdem hält Intel immer noch den höheren Marktanteil.
Ghostfacekalle
Lieutenant
- Registriert
- Okt. 2020
- Beiträge
- 912
Nein,er hat es sehr informativ dargelegt.Quidproquo77 schrieb:Nvidia zwischen 2002 und 2018 als Dauer-Kopierer darzustellen ist aber genau so unzutreffend und substanzlos. Wie kommst du auf so einen Unfug? Unglaublich...
Außerdem ist es doch Gang und Gebe in jedem Gewerbe Sachen zu kopieren,zu verbessern und dann wieder als "neu" auf den Markt zu bringen.
Wenn AMD kein "AntiLAG" bringt wird es kritisiert. Wenn es eins bringt (was auch noch auf Augenhöhe funktioniert) wird AMD des kopierens beschuldigt. Oder es kommt zu spät.
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.451
Mimir schrieb:dafür eine Quelle?
Es gab dazu einmal einen Vergleich hier auf CB, soweit ich mich erinnere.
Das war noch im Zusammehang mit (A)FMF, wo dann auch Anti Lag, Anti Lag + und Reflex sich gegenüber standen aber trotz Suchfunktion habe ich das jetzt nicht auf Anhieb finden können (evt. ein Spieletest), ich schaue mich aber noch einmal um.
Zumindest ein Video, dass Anti Lag mit Anti Lag + vergleicht gibt es auf die Schnelle, welches eine Latenzreduzierung um ca. die Hälfte zeigt durch Anti Lag + gegenüber Anti Lag in The Witcher 3 bspw. (was Anti Lag 2 oder Reflex wohl nicht schaffen dürften):
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Das Problem war aber vermutlich die zu tiefe Implementierung bei Anti Lag + (daher die nachträgliche Evolution/Weiterentwicklung von Anti Lag zu Anti Lag 2), so dasss man Konflikte mit dem Code der Spiele nicht ausschließen konnte, schade.
Tornavida
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.346
so habe ich das auch interpretiert und ist letztendlich auch Das was mich als aktuellen Consumer interessiert und ein Bild/Eindruck des Produktes/Herstellers im aktuellen Stand bei mir hinterlässtQuidproquo77 schrieb:Letztendlich wollte Heisenberg wohl darauf hinaus, dass AMD in den letzten Jahren immer nachgezogen ist was die Technik und das Featureset betraf.
Also scheint AMD da doch eine andere Technik/Softwarecode zu nutzen.
Und man darf auch mal folgendes nicht vergessen, Nvidia macht nur Karten für Grafik/Ki., AMD auch noch CPUs!
Und dafür (weniger Geld, Man-Power etc.) macht sich meiner Meinung nach AMD ganz gut.
Hat Intel eigentlich auch solch ein Feature, welches hier getestet wurde?
Mich würde mal interessieren, sollte Nvidia CPUs entwickeln/bauen, wie diese so wären.
Doch bei der Linux Unterstützung, da ist AMD weit vor Nvidia 😉Experte18 schrieb:Immerhin. Aber übertreffen will oder kann AMD Nvidia nicht in keinen Bereich.
daknoll
Lieutenant
- Registriert
- Jan. 2014
- Beiträge
- 604
Hängt wahrscheinlich sein Ego dran.Enyo79 schrieb:Diese zwei Sätze sind wirklich nur da um zu provozieren. Glückwunsch Herr Heisenberg.
Ghostfacekalle
Lieutenant
- Registriert
- Okt. 2020
- Beiträge
- 912
Ich finde den Funktionsumfang vom Adrenalin auch um Lichtjahre vorraus.polyphase schrieb:Doch bei der Linux Unterstützung, da ist AMD weit vor Nvidia 😉
Chismon schrieb:Zumindest ein Video, dass Anti Lag mit Anti Lag + vergleicht gibt es auf die Schnelle, welches eine Latenzreduzierung um ca. die Hälfte zeigt durch Anti Lag + gegenüber Anti Lag in The Witcher 3 bspw. (was Anti Lag 2 oder Reflex wohl nicht schaffen dürften):
Klar schafft Reflex das. Und AL2 mit Sicherheit auch, da das Prinzip ja des Selbe zu sein scheint.
Hier mal als Beispiel bei Witcher 3 aus dem CB Test der 4060ti. Leider nur mit Reflex.
https://www.computerbase.de/2023-05...itt_nvidia_dlss_3_in_the_witcher_3_untersucht
Das sind eben die Latenzreduktionen die man üblicherweise erwarten kann und mit AL2 erwarten wird...
Chismon schrieb:Das Problem war aber vermutlich die zu tiefe Implementierung bei Anti Lag + (daher die nachträgliche Evolution/Weiterentwicklung von Anti Lag zu Anti Lag 2), so dasss man Konflikte mit dem Code der Spiele nicht ausschließen konnte, schade.
Warum sollte eine Lösung die von außen in das Spiel eingreift besser funktionieren, als eine Lösung die der Entwickler sauber in seinen Code implementiert?
Ich würde jede Wette eingehen, dass AntiLag+ und AntiLag2 gleichwertig sind oder tendenziell AntiLag2 eher besser abschneidet und niemals anders herum (außer es gibt einen Bug).
Und das normale AntiLag aus dem Treiber ist gegen Reflex/AL+/AL2 überhaupt nicht vergleichbar. Das ist ein simples Treiberfeature vergleichbar mit dem Ultra Low Latency Modus im Nvidia Treiber. Das bringt nur sehr sehr wenig und ein FPS limit ist in jedem Fall deutlich effektiver, als AntiLag oder Ultra Low Latency.
Hier kannst dir mal die Videos von Battlenonsense ansehen. Er hat zwar noch keines zu AL2 gemacht, aber damit siehst du trotzdem, was ich meine:
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Also zusammengefasst:
AMD AntiLag = Nvidia Ultra Low Latency Modus
AMD AntiLag+ ≈ AntiLag2 = Nvidia Reflex
"Corner the market!"
Dazu empfehle ich, die passende Episode dazu zu schauen. Zusammenfassung der Serie + die Economics dahinter erörtert
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Mittel zum Ziel ist Hardware-Raytracing. AMD wurde mit heruntergelassener Hose kalt erwischt. Wer das Produkt beherrscht, kann die Preise bestimmen.
KI-Gpus, das komplette Sorglos-Paket für Firmen, die nicht nach dem Preis fragen. Halo-Gaming-Gpus, die anscheinend keine mehr sind, weil gefühlt zu viele eine 4090 drin haben.... läuft bei NV, stabile Marge....
Jensen hat sich in Ruhe einen Masterplan ausgearbeitet die letzen 5 oder gar 10 Jahre: Raytracing zu forcieren um die Konkurrenz auszustechen. Die geben jetzt nur noch Vollgas und wenn AMD und Intel nicht dranbleiben, verlieren sie den Anschluss. Punkt.
NV wird dann gebetsmühlenartig jedem Gamer RTX in die Birne prügeln bis die Dominanz auf 90% steigt. Aber auch wichtig ist die Gewinnmarge: AMD wird versuchen, mit günstigen Preisen dagegenzuhalten. Deren Marge wird darunter leiden während NV nicht nur den Umsatz als auch die Marge ausbauen wird.
Der feuchte Traum für einen CEO.
Jensen so:
“I’m not in the gpu business. I’m in the empire business.”
- Registriert
- Juli 2021
- Beiträge
- 2.717
Ach, was habe ich denn an der Stelle falsch dargestellt? Dass Adaptiv-Sync Bestandteil von eDP seit 2009 ist, ist eine Tatsache. Dass Adaptiv-Sync bereits damals die der GPU ermöglichen sollte, dem Display die Wiedergabe der GPU anzupassen ebenso.Quidproquo77 schrieb:Die Geschichte mit Gsync hast du auch teils falsch dargestellt.
Adaptiv-Sync und dessen Funktionalität waren vor Gsync bereits vorhanden und macht im Prinzip genau das, was Gsync macht. Nvidia hat hier also einen Standard kopiert. Dank gutem Marketing glaubt jeder, dass später die VESA als auch AMD "Gsync" mit Adaptiv-Sync kopiert haben, nur ist das absolut falsch. Wie soll die VESA sich bitte selbst kopieren?
Adaptiv-Sync wurde sogar in DP 1.2a bereits Anfang 2013 aufgenommen, also ist da die VESA sogar Nvidia erneut zuvor gekommen.
Nein, das habe ich an der Stelle nicht vergessen, weil es an dieser Stelle kein Bestandteil meines Kommentars sein muss. Hier wurde AMD vorgeworfen - genauso, wie du es sehr oft macht - dass sie von Nvidia nur kopieren.Quidproquo77 schrieb:Du hast halt "vergessen" Nvidias Entwicklungen entsprechend zu erwähnen bzw. zu würdigen.
Dieser Vorwurf dient hier nur dazu, dass man AMD diskreditieren kann in euren absolut sinnlosen Grabenkämpfen, die teilweise bereits an Obsession grenzt. Es gibt kein Thema zu den Entwicklungen bei AMD, bei denen nicht irgendeiner den Vorwurf bringt, dass AMD nur kopiert.
Und genau auf diesen Vorwurf habe ich nun entsprechend auch reagiert und mal all das aufgezählt, bei denen man Nvidia des "Kopieren" beschuldigen könnten. Ich habe das ganze natürlich auch aus stilistischen Gründen überspitzt bzw. übertrieben.
Unglaublich ist an der Stelle viel eher, dass du nicht in der Lage bist zu erkennen, dass ich hier absichtlich provokant und überspitzt all das aufgezählt habe, bei denen ATi/AMD oder eine andere Firma vor Nvidia die Initiative hatten und sich Nvidia hat selbst inspirieren lassen.Quidproquo77 schrieb:Nvidia zwischen 2002 und 2018 als Dauer-Kopierer darzustellen ist aber genau so unzutreffend und substanzlos. Wie kommst du auf so einen Unfug? Unglaublich...
Wenn man in der Welt der Wissenschaft und Technik, selbst in der Welt der Kunst aktiv ist, dann lernt man sehr schnell, dass "Kopieren" quasi eine Selbstverständlichkeit ist und wir Menschen immer uns inspirieren zu lassen. Egal ob jetzt andere Menschen oder die Natur im Allgemeinen.
Man könnte nämlich das ganze auch mal deutlich positiver schreiben, ohne dass man hier jedes Mal negativ einer Firma was vorwirft.
Nvidia hat wie ATi bei CUDA die Zeichen erkannt und hat eine deutlich überlegtere API auf den Markt gebracht und hat dann auch den deutlich längeren Atem gehabt, um das durchzuziehen.
Bei G-Sync hat sich Nvidia durch den eDP-Standard inspirierne lassen, hat die damaligen Schwächen erkannt und hat diese effektiv auch mit G-Sync behoben. Dazu haben sei erkannt, dass sie strenge Regeln den Display-Herstellern geben müsse, weil sonst das alles nichts bringt.
Genauso beim RT, sie haben auch daran gearbeitet, erkannt, dass es jetzt an der Zeit ist und haben mutig den Sprung gewagt, während andere Firmen noch haderten oder am PC-Markt nicht aktiv waren.
Sie waren es ebenso, die die Tensor-Kerne in ihre GPU implementierten und damit eine "GP"-Lösung anboten und so auch den Weg ebneten, dass KI weitgehend direkt in die Grafikpipline integriert werden kann, ohne Umwege oder zusätzliche Prozessoren.
Nvidia ist aktuell ohne Frage ein Innovator am Markt und treibt KI und RT voran und leistet ihr tolle Arbeit, da besteht kein Zweifel daran.
ATi und AMD hatten diese Rolle bis Vega auch Inne und das ist AMD verloren gegangen. Sie rennen aktuell nur noch hinterher und reagieren.
Man hätte es für Konsolen verwenden können, da ist der Lag z.T. höher als auf der pc Version. (Bei gleichen fps)aufkrawall schrieb:Ist die Frage, ob man das ohne Gefahr für SP-Spiele zurückbringen könnte. Falls auch nur ein Hauch Restwahrscheinlichkeit besteht, dass das wieder mit MP-Spielen irgendwie in die Hose geht (Bugs, unsachgemäße Benutzung...), lässt man es besser für immer in der Mülltonne, wo es dann auch hingehört.
Funktioniert nur irgendwie bis heute nicht, notebook ist nicht gsync o. freesync zerifiziert -> vrr nicht möglich, unabhängig vom eDP.DevPandi schrieb:Dass Adaptiv-Sync Bestandteil von eDP seit 2009 ist, ist eine Tatsache. Dass Adaptiv-Sync bereits damals die der GPU ermöglichen sollte, dem Display die Wiedergabe der GPU anzupassen ebenso.
Ein standard, den niemand unterstützt?
Ähnliche Themen
- Antworten
- 108
- Aufrufe
- 9.687
- Antworten
- 330
- Aufrufe
- 39.825