News GeForce 551.46 Hotfix: Nvidia-Grafiktreiber behebt Mikroruckler und Stottern

Nolag schrieb:
Wenn man in der Adaptive-Sync Range bleibt, hat man somit auch ohne VSync kein Tearing.
Das stimmt nicht und genau das wird hier seit einigen Posts versucht zu erklären. Man muss bei diesem Thema zwischen vorhandenem und subjektiv nicht wahrgenommenem oder sichtbarem Tearing unterscheiden.

Vorhanden ist das Tearing grundsätzlich auch mit aktivem adaptive sync. Egal wie hoch die fps sind und egal wie hoch die Hz-Zahl des Monitors ist. Jedoch sinken die Chancen, dass man es sieht, mit steigender Frequenz des Monitors und/oder mit steigender/sinkender fps Zahl, je nach Szenario.

Bei Tearing geht es nicht allein um fps > Hz. Es geht um eine Abstimmung zwischen Bereitstellungszeit des Bildes seitens GPU und der benötigten Darstellungsdauer seitens Display. Es geht um konsequentes Zuendezeichnen eines Bildes, bevor ein neues angefangen wird. Es geht darum, dass die GPU das Bild im Puffer nicht ersetzt, bevor es nicht zu Ende dargestellt wurde.

Mit adaptive Sync erfolgt das nicht. Hier stellt sich das Display, abgeleitet aus der jeweiligen Bildzeit der GPU, nur auf eine durchschnittliche Hz-Zahl ein um die Wahrscheinlichkeit von Bildrissen drastisch zu reduzieren. Es wird aber nicht darauf gewartet, bis Bild x zu Ende gezeichnet wurde, sodass erst dann mit Bild x+1 angefangen wird. Genau dieses fehlende Stückchen im Prozess wird durch das zusätzliche Aktivieren von V-Sync gedeckt.

Es sei ein Monitor mit starren 240 Hz und ein fps-cap sei auf 100 fps gesetzt. Die 100 fps seien durchgehend erreicht.
Der Monitor braucht zum Zeichnen von ganz oben links bis ganz unten rechts 4,167 ms.
Deine GPU legt im Puffer alle 10 ms (wg. 100 fps) ein Bild ab. Der Monitor fängt an zu zeichnen, die 4,67 ms sind um, das Bild wurde vollständig gezeichnet. Bis zum nächsten Bild vergehen aber noch 10 ms - 4,67 ms = 5,33 ms. Das selbe Bild liegt also noch im Puffer. Also zeichnet der Monitor dieses Bild erneut. Nun müssen noch 0,66 ms vergehen, bis ein neues Bild im Puffer vorliegt. Der Monitor stoppt aber nicht. Es fängt an, dieses Bild wieder zu zeichnen, und zwar 0,66 ms lang. Dabei ist er bei rund 3,5% unterhalb vom oberen Bildschirmrand angekommen. Just hat die GPU jetzt das Bild im Puffer ersetzt. Der Monitor fängt jetzt an, mit diesem Bild zu zeichnen und da das vom vorigen Verschieden ist, hat sich jetzt ab der o.g. Position des Monitors ein Riss gebildet.

Was würde mit adaptive sync passieren?
Der Monitor würde sich auf 100 Hz bzw. auf ein mögliches, ganzzahliges Vielfaches davon einstellen, sprich 200 Hz. Bei 100 Hz würde er das Bild im Puffer nur einmal zeichnen, weil es selbst 10 ms dafür braucht. Bei 200 Hz würde es das Bild zwei mal zeichnen.

Wunderbar, kein Tearing, ist doch schön?
Nicht ganz richtig, weil wir die ganze Zeit davon ausgegangen sind, dass das Bild im Puffer der GPU auch wirklich exakt alle 10 ms ersetzt wird. In Realität wird das Bild aber durchgehend zu unterschiedlichen Zeiten ersetzt. Mal nach 10 ms, mal nach 9,8 ms, mal nach 10,4 ms, mal etwas stärker abweichend mit 12 ms etc. pp.

Auf genau diese Abweichungen kann der Monitor trotz adaptive Sync nicht in vollem Maße reagieren. Es entsteht Tearing. Je näher diese Abweichungen zu den Zeitpunkten am oberen und unteren Bildschirmrand auftreten, umso unwahrscheinlich wird die Sichtbarkeit für den Nutzer. Sie sind aber vorhanden.

Ein jetzt aktiviertes V-Sync sorgt dafür, dass die GPU das Bild nur dann austauscht, wenn der Monitor es zu Ende gezeichnet hat. Weil dieser Bildwechsel bei zusätzlich aktivem adaptive sync dann nur noch Bruchteile von milisekunden betrifft, wie z.B. 6,90 ms statt 6,94 ms, beschränkt sich die dadurch verursachte Latenz auch nur auf zusätzliche 0,04 ms. Da der Nutzer bei 144 Hz aber eh von 6,94 ms ausgeht, ändert sich für ihn nichts bzw. verliert er dadurch nichts. Deshalb bezeichnet man diese Latenz auch als virtuelle Latenz.
 
  • Gefällt mir
Reaktionen: inge70, xman00, DeMeP und 5 andere
FR3DI schrieb:
Ich danke NVIDIA für das schlichte Design.
Schlichtheit ohne Funktionsumfang ist auch kein Kunststück. Oder das Auslagern von Funktionen in Tools wie Geforce Experience, Nvidia Broadcast usw oder Notwendigkeit von Drittanbieter Tools wie MSI Afterburner für Anwendungsfälle wie OC/UV, vernünftige Overlays usw. (Ich weiß das Geforce Experience hier auch rudimentäre Funktionen bietet aber die nutzt hoffentlich wohl Niemand ernsthaft)
Desweiteren ist die Nutzeroberfläche weit entfernt auch Nutzerfreundlich zu sein.

Das die Adrenalin Software teils sehr umfangreich ist und durch die Ganze Funktionen erstmal die Ein oder Anderen überfordern kann, gehe ich mit.
Aber dafür hat mehr Funktionen/Features und diese eben "alle unter einem Dach".
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Snoop7676, anarchie99, SweetOhm und eine weitere Person
ShiftC schrieb:
Das stimmt nicht und genau das wird hier seit einigen Posts versucht zu erklären.
Bitte Quellen angeben. Adaptive Sync wäre völlig unbrauchbar, wenn das stimmen würde. Ich glaube deine Behauptung basiert auf dem Irrtum, dass die Frametime auch die Scanout-Zeit ist. Der Scanout passiert immer mit der Maximalfrequenz, weshalb man VSync nicht benötigt, wenn man einen Limiter unterhalb der Maximalfrequenz setzt. Ein Überschreiben des Puffers während des Scanout ist dann unmöglich.
 
Zuletzt bearbeitet:
0ssi schrieb:
Bei V-Sync mit Triple Buffering gibt keine Anpassung per Teiler wie mit Double Buffering aber dafür Ruckler.
Kannst Du bitte noch mal etwas ausführlicher schreiben, was Du meinst, da auch ich das genannte Problem mit einem 60Hz Monitor und Vsync On sowie Triple Buffering On habe 🤔
 
Mr. Vega schrieb:
Das die Adrenalin Software teils sehr umfangreich ist und durch die Ganze Funktionen erstmal die Ein oder Anderen überfordern kann, gehe ich mit.
Aber dafür hat mehr Funktionen/Features und diese eben "alle unter einem Dach".

hier liegt mmn der hase im pfeffer. die oft als "billig" verschriene marke AMD macht es in meinen augen besser, als der "teure" konkurrent NVidia, wobei das NV control panel wirklich aussieht, wie ein shareware-programm der 90er. das ist meine meinung dazu und ich denke, AMD macht hier vieles richtig.

besonders die zentralisierte verfügbarkeit aller features auf einer programmseite gefällt mir. ganz nebenbei, ich weiß auch nicht, ob ich wieder NVidia kaufen würde. mir stimmt das preis-leistungsverhältnis nicht. auch hier hat AMD viel boden wett gemacht, über die jahre.
 
  • Gefällt mir
Reaktionen: Snoop7676, anarchie99 und SweetOhm
The_Void schrieb:
wahrnehmung ist individuell verschieden. wenn jetzt einer sagt "ich sehe keinen untrschied zwischen 60 und 120hz", sollte man ihm entweder etwas zeit geben oder ihm schlicht glauben schenken.

Naja, ich bin inzwischen ein alter Sack (51 Jahre alt), war noch nie ein Hibbel-Gamer-Kiddie (aber auch keine ganz lahme Schnecke ;) ) und halte mich nun wahrlich nicht für jemanden mit übersinnlichen Fähigkeiten, ABER wenn entweder mein Monitor mit 60Hz läuft oder ein Spiel "nur" mit 60 statt 120fps, dann merke ich das sofort.

Ist beides vor kurzem erst wieder passiert: Das Spiel war Plague Tale Requiem, was mit RT und DLAA in 4K Ultra trotz RTX 4090 nur noch mit ca. 60fps läuft. RT aus und es flutscht wieder alles mit ca. 90 - 100fps, was man (ich) sofort merkt.
Und beim Monitor ist mir das neulich auch sofort aufgefallen, nachdem ich mit DDU nach einigen Experimenten den Treiber komplett gekillt hatte. Treiber neu installiert und es fühlte sich alles komisch laggy an bis ich gemerkt habe, dass die Auflösung zwar auf 4K stand, aber nur 60Hz statt 144Hz anlagen.
 
Orok91 schrieb:
Dachte immer Nvidia hat keine Grafikktreiber bugs😜 zumindest klingt das immer so von Bestimmten Leuten;)

hat niemand behauptet aber die sind nicht so gravierend wie bei amd und nicht so viele in der anzahl ;)
 
PTS schrieb:
gravierend wie bei amd und nicht so viele in der anzahl
Wenn man sich die Open/Known Issues der Treiber Erscheinungen anschaut nehmen die sich am Ende des Tages nichts.
 
  • Gefällt mir
Reaktionen: Snoop7676 und SweetOhm
Taxxor schrieb:
bei AMD macht man das bequem im Treiber Overlay
Das allein hat dich zumindest nicht überzeugt, deine "RTX 4090" aus dem Grünen Lager, gegen eine Brechstange aus dem Roten Lager zu ersetzen.
0ssi schrieb:
vermutlich gar nicht wissen was Tearing überhaupt ist
Ab wann sprechen wir denn vom sogenannten Tearing?

Für die V-Sync ON Experten unter uns;
Einen Lösungsansatz bietet in den Einstellungen von Grafikkarten die Option V-Sync (Vertikale Synchronisation). Hier werden die zu zeichnenden Einzelbilder so gedrosselt, dass sie mit der Anzahl der Bildwiederholungen des Monitors synchronisiert werden.[3] Ein Nachteil dieser Option, insbesondere für Videospieler, ist das dadurch entstehende Input lag, wodurch die per Peripherie getätigten Eingaben deutlich merkbar verzögert werden.[4]

Mr. Vega schrieb:
Schlichtheit ohne Funktionsumfang ist auch kein Kunststück.
Der ehemalige CCC war ehemals nicht anders. Aber mit Generation RGB a la Kinderdisco, hat sich das geändert.
Mr. Vega schrieb:
Oder das Auslagern von Funktionen in Tools wie Geforce Experience
Ist das etwa verkehrt?
Mr. Vega schrieb:
oder Notwendigkeit von Drittanbieter Tools wie MSI Afterburner für Anwendungsfälle wie OC/UV
89% aller Leute die einen Rechner bedienen, Wissen nicht mal was OC ist. Und ja, UV ist ebenfalls OC.
Mr. Vega schrieb:
aber die nutzt hoffentlich wohl Niemand ernsthaft)
Doch, ich.
Unteranderem setze ich hier das Powertarget/Limit.
Mr. Vega schrieb:
Aber dafür hat mehr Funktionen/Features und diese eben "alle unter einem Dach".
Inklusive Werbung. Wie man ja an wie folgt sehen konnte;
Klick mich!

Gruß Fred.
 
  • Gefällt mir
Reaktionen: Sinatra81
FR3DI schrieb:
Das allein hat dich zumindest nicht überzeugt, deine "RTX 4090" aus dem Grünen Lager, gegen eine Brechstange aus dem Roten Lager zu ersetzen.
Dafür hatte ich davor nur AMD Karten, es ist ja auch nur ein Punkt den man ankreiden kann und den ich auch vermisse
FR3DI schrieb:
Ist das etwa verkehrt?
Dass man dafür ein Konto anlegen muss, find ich blöd deshalb hab ich es auch nicht
Ergänzung ()

FR3DI schrieb:
Und ja, UV ist ebenfalls OC.
OC ist es nur wenn sich deine taktraten erhöhen
Im Grunde kann man sogar sagen Betriebe ich UV und UC weil mein Max Takt niedriger gesetzt ist, um mit der niedrigeren Spannung zu laufen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FR3DI und SweetOhm
Mr. Vega schrieb:
Und in diesen Bubbles die Hersteller Liebhaber, der jeweiligen Seiten nie eine Option anklicken würden, die ihren Herstellern XY schlecht dastehen lässt und versuchen die positiven Antworten pushen.

Und es gibt Trolle, die klicken:

„Nein, die Ruckler-Probleme bleiben bestehen.“, obwohl sie keine nVidia Karte haben.

Von den 17/18%, welche angeblich nach wie vor Probleme haben, liest man in dem Thread sehr wenig. 🤷🏻‍♂️

Taxxor schrieb:
Dass man dafür ein Konto anlegen muss, find ich blöd deshalb hab ich es auch nicht

Find ich auch doof(bei jeder Software), aber das hindert mich nicht am Installieren.

Mitunter für genau sowas hat man ne billige Zweit-Email Adresse.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FR3DI
Hier Alles gut bisher wie auch ohne Hotfix zuvor.

Screenshot 2024-02-09 061435.png
 
  • Gefällt mir
Reaktionen: t3chn0
Mr. Vega schrieb:
oder Notwendigkeit von Drittanbieter Tools wie MSI Afterburner für Anwendungsfälle wie OC/UV,
Weil das ja so super im AMD Treiber funkioniert
Die Möglichkeiten mit dem AB sind da für eine Nvidia Karte erheblich größer. Erst mit dem MPT (Drittanbieter) hat man bei AMD einen Vorteil. Mit RDNA3 kannste das aber knicken.
 
Mr. Vega schrieb:
Einmal weil Computerbase eine kleine Bubble ist im Vergleich zu allen Nutzern von Geforce Karten.
Und du lebst in keiner Bubble mit so einer Aussage wie dein ganzer Post ?

Schau mal über den Tellerrand, ich für meinen Teil hab beides zu Hause.

RTX4090 und noch eine RedDevil 6900XT <- beide aktiv im Gebrauch. Beides mit Pro und Contra zu betrachten. Bei NVIDIA musste man ne Zeitlang mit dem MSI Tool v3 arbeiten, was bei AMD Karten nicht der Fall war. NVIDIA halt lange Murks gemacht seinem Treiber, wohin Gegend bei meiner Frau mit der 6900XT seit Jahren alles läuft.
 

Anhänge

  • Screenshot 2024-02-09 073532.png
    Screenshot 2024-02-09 073532.png
    84,6 KB · Aufrufe: 88
Zuletzt bearbeitet:
Orok91 schrieb:
Dachte immer Nvidia hat keine Grafikktreiber bugs😜 zumindest klingt das immer so von Bestimmten Leuten;)
Genau das dachte ich mir auch, wie wird immer auf AMD und deren Treiber geschimpft, da wird von Rot zu Grün gewechselt, wegen mangelhafter Treiber und Bugs.
Ich hab zwar auch noch eine Grüne in meiner Kiste stecken, aber war davon nicht betroffen.
Allerdings weiß ich auch nicht, wann ich das letzte Mal ein Treiberupdate gemacht habe, schon bestimmt mehr als ein Jahr her, aber warum auch Treiber noch updaten, bei einer ollen 1070ti, sehe ich dafür keinen Grund.
Wenn allerdings der Browser ruckelt, wegen eines fehlerhaften Treibers: Pfui Deibel Nvidia, schämt euch
Aber diese Firma ist ja ansonsten sowas von perfekt, kann machen was sie will, ihre User halten ihr die Stange, koste es, was es wolle
 
  • Gefällt mir
Reaktionen: Snoop7676 und SweetOhm
Nolag schrieb:
Bitte Quellen angeben. Adaptive Sync wäre völlig unbrauchbar, wenn das stimmen würde. Ich glaube deine Behauptung basiert auf dem Irrtum, dass die Frametime auch die Scanout-Zeit ist. Der Scanout passiert immer mit der Maximalfrequenz, weshalb man VSync nicht benötigt, wenn man einen Limiter unterhalb der Maximalfrequenz setzt. Ein Überschreiben des Puffers während des Scanout ist dann unmöglich.

Die Quelle wurde mehrmals verlinkt und dein Kommentar zeigt, dass du das Problem überhaupt nicht verstanden hast. Adaptive sync ist doch nicht unbrauchbar, nur weil nahe der Maximalfrequenz tearing entsteht. Der Scanout erfolgt auch nicht immer mit der Maximalfrequenz und selbst wenn das so wäre hätte das keinen Einfluss auf das Tearing verhalten.

FR3DI schrieb:
Für die V-Sync ON Experten unter uns;
Warum hast du jetzt das Thema Inputlag fett markiert?

Wenn du entweder die Erklärungen verstanden oder der verlinkten BlurBusters seite gefolgt wärst, hättest du auch verstanden, warum bei der Config kein Vsync Lag entstehen kann.

Hauptsache mal wieder irgend was random in die diskussion geworfen. Super…


Komplett lächerlich hier. ShiftC hat sich auch Zeit genommen es euch zu erklären.
Sorry wenn ich so patzig bin, aber die Diskussion ist komplett sinnlos, wenn ständig aufs neue Dinge angezweifelt werden, die bereits mehrfach erklärt wurden und zu denen man Quellen liefert die das Thema ausführlichst (!) behandeln.
Aber die kommentare zeigen mir nur, dass sich das ja eh keiner durchliest weil die Diskussion ständig bei null anfängt. Es macht keinen Sinn darauf einzugehen, wenn nichtmal die Problemsituation verstanden wurde.

Also wozu das ganze? Ich bin raus. Hier kommt man sich vor, als müsste man nem Schuhverkäufer erklären wie ein Teilchenbeschleuniger funktioniert.
 
  • Gefällt mir
Reaktionen: garfield296 und Lurtz
Mimir schrieb:
Sorry wenn ich so patzig bin, aber die Diskussion ist komplett sinnlos, wenn ständig aufs neue Dinge angezweifelt werden, die bereits mehrfach erklärt wurden und zu denen man Quellen liefert die das Thema ausführlichst (!) behandeln.
Aber die kommentare zeigen mir nur, dass sich das ja eh keiner durchliest weil die Diskussion ständig bei null anfängt. Es macht keinen Sinn darauf einzugehen, wenn nichtmal die Problemsituation verstanden wurde.

Also wozu das ganze? Ich bin raus. Hier kommt man sich vor, als müsste man nem Schuhverkäufer erklären wie ein Teilchenbeschleuniger funktioniert.
Ich sehe es nicht also kann es nicht da sein111!!1
 
Ich hatte auch mit dem alten „Vor Hotfix Treiber“ keine Probleme. Ich warte mal auf den nächsten und überspringe den Hotfix.
 
Mimir schrieb:
Die Quelle wurde mehrmals verlinkt und dein Kommentar zeigt, dass du das Problem überhaupt nicht verstanden hast.
Blur Busters erklärt genau, warum in der Sync Range kein VSync nötig ist. Dein 100 fps Beispiel ergibt daher keinen Sinn.
Within its range, G-SYNC is the only syncing method active, no matter the V-SYNC “On” or “Off” setting.
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/15/
Die Aussagen von Blur Busters, dass ein Limiter nicht dazu geeignet sei, die Bildrate in der Sync-Range zu halten sind rein akademischer Natur. In eigenen Experimenten hat Blur Busters selbst wiederholt nachgewiesen, dass Limiter auf 1ms genau sind. Setzt man also den Limiter so, dass man 1ms oberhalb der Zeit für den Scanout liegt, ist Tearing praktisch ausgeschlossen.
 
  • Gefällt mir
Reaktionen: Snoop7676 und FR3DI
Zurück
Oben