Notiz GeForce 431.36 WHQL: Offizieller Treiber für die neuen Super-Modelle

The Professor schrieb:
Sehe ich das richtig, dass der Treiber mich nun zwingt, Geforce Experience zu installieren? Kann den Harken nicht mehr abwählen...

Du mußt auch am Anfang auswählen:

798412


Dann sieht es so aus:

798415
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: TorgardGraufell, Zitterrochen, SilvanV und eine weitere Person
Stimmt funktioniert wie gehabt, habe ich wohl gestern verpeilt. Die Idee mit dem Überflüssigen löschen ist natürlich auch gut
 
Ich finde das immernoch schade, dass die mobile 600er Serie nicht mehr unterstützt werden. Die Karten liegen ab der GTX 660m noch sehr weit oben im Ranking.
 
Es soll ja diverse Performance Verbesserungen geben für u.a The Division 2, bis zu 16 Prozent. Gilt dies für alle "noch" Support Karten (Pascal) oder nur für die neue Super Reihe sowie RTX? Finde dazu nichts aussagendes. Danke
 
Also ich finde Gsync auch eher meeeh.

Mit Gsync hat man definitiv mehr Inputlag. Bei Battlefield merkt man das schon hart.

Gsync ist auch nur dann smooth, wenn man Vsync im Control Panel aktiviert und im Spiel deaktiviert. Damit bleiben dann die FPS auch in der Gsync Range, aber die Maus fühlt sich katastrophal an.

Wer das nicht merkt, zockt nur casual.

Von daher sind 144Hz+ wichtiger als irgendwelches Gsync / Freesync.


Und mit Gsync On, Vsync im CP und Spiel off, sieht genau so aus, wie ohne Gsync.. Von daher....
 
  • Gefällt mir
Reaktionen: Zitterrochen
DasUnding schrieb:
Also adaptive Synchronisation ist für mich die wichtigste Neuerung seit 20 Jahren in diesem Bereich. Kein Bildruckeln, viel geringere Eingabelatenz und das sind doch genau die Dinge, die einen dazu bewegen aufzurüsten. Mit adaptiver Synchronisation sind selbst 50 Bilder pro Sekunde noch sehr angenehm, während es mit V-Sync für mich nicht mehr spielbar wäre. Viele Hz helfen dagegen natürlich auch, löst aber das Problem nicht und ist viel schwieriger zu gewährleisten und manche Spiele unterstützen das nicht mal.

Ich bin von einer Vega64 auf eine RTX 2080 umgestiegen und kann mit beiden in UHD eigentlich alles mit guten Einstellungen spielen. D.h. 57 Bilder pro Sekunde bei den maximal möglichen Settings. Wenn man die RTX 2080 günstig bekommt, reicht sie meiner Meinung nach für UHD aus, zumindest für die aktuelle Konsolengeneration.

Das wird sich dann in den nächsten Jahren wohl ändern und mit der 2080 Ti ist Mann besser unterwegs, aber der Preis ist exorbitant und sie wird auch in die Knie gehen.
Ich schreibe es aus überzeugung und meinte das durchaus ernst, ich habe letztens noch World of Warships gezockt
und mit aktivierten G-Sync war das Bild bei einem vom Spiel forcierten 80-85fps cap extrem ruckelig dargestellt.

Kurz nachdem ich G-Sync ausgestellt habe, waren die selben fps um einiges flüssiger weil die Hz von 80-85 auf stabile 144Hz raufgeschossen sind.

Übrigens glaube ich das du mit Adaptive Synchronisation das Thema verfehlt hast, das hat soviel ich weiß, nicht mit Freesync/G-Sync zu tun sondern ist eine andere Art von V-Sync... mit 57fps = 57Hz wäre dann der 144Hz Monitor wirklich für die Tonne.

Die meisten die G-Sync/Freesync bei den Monitor Reviews auf Amazon & Co hypen, hatten vorher nur mit einen 60hz Monitor gezockt und sind zu dumm es zu begreifen das in erster Linie nur die 144Hz hier das flüssige Bild macht und nicht die Synchronisation der fps/hz!
 
t3chn0 schrieb:
Gsync ist auch nur dann smooth, wenn man Vsync im Control Panel aktiviert und im Spiel deaktiviert. Damit bleiben dann die FPS auch in der Gsync Range, aber die Maus fühlt sich katastrophal an.

Wer das nicht merkt, zockt nur casual.
Nicht verallgemeinern. Der Test hier ist nach wie vor aktuell:
https://www.blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/

Und ich habe kein katastrophales Mausgefühl ;) Ich war allerdings nicht bei der ESL Cologne dabei. Vllt. reicht es also nicht.
Es mag aber durchaus Monitor/Maus Konstellationen geben, wo es diese Probleme gibt. Aber das ist sicher nicht bei jedem so.
 
Stimmt...der die das Expierienz oder so lässt sich nicht abwählen aber danach in der Systemsteuerung deinstallieren. Bischen Mehraufwand wenn man das Ding loswerden will. Bei mir ist nur der Grafiktreiber und der Physiktreiber installiert. Mehr brauche ich nicht zum Spielen. Sound macht der Realtek Chip. Und das gut!
 
Phear schrieb:
Nicht verallgemeinern. Der Test hier ist nach wie vor aktuell:
https://www.blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/

Und ich habe kein katastrophales Mausgefühl ;) Ich war allerdings nicht bei der ESL Cologne dabei. Vllt. reicht es also nicht.
Es mag aber durchaus Monitor/Maus Konstellationen geben, wo es diese Probleme gibt. Aber das ist sicher nicht bei jedem so.

Ich hatte jetzt 4 unterschiedliche Gsync Monitore mit bestimmt 5-6 unterschiedlichen Grafikkarten. Sobald man Vsync im Control Panel aktiviert hat man ein smoothes Bild, aber die Maus ist gefühlt total crap.

Es sind Nuancen, aber es ist so. Dabei ist es egal ob ich die G Pro, Sensei, Abyssus oder jetzt G305 benutze. Es ist definitiv reproduzierbar.

Alleine auf dem Desktop bewegt sich der Cursor anders.
 
m.Kobold schrieb:
Ich schreibe es aus überzeugung und meinte das durchaus ernst, ich habe letztens noch World of Warships gezockt
und mit aktivierten G-Sync war das Bild bei einem vom Spiel forcierten 80-85fps cap extrem ruckelig dargestellt.

Kurz nachdem ich G-Sync ausgestellt habe, waren die selben fps um einiges flüssiger weil die Hz von 80-85 auf stabile 144Hz raufgeschossen sind.

Übrigens glaube ich das du mit Adaptive Synchronisation das Thema verfehlt hast, das hat soviel ich weiß, nicht mit Freesync/G-Sync zu tun sondern ist eine andere Art von V-Sync... mit 57fps = 57Hz wäre dann der 144Hz Monitor wirklich für die Tonne.

Die meisten die G-Sync/Freesync bei den Monitor Reviews auf Amazon & Co hypen, hatten vorher nur mit einen 60hz Monitor gezockt und sind zu dumm es zu begreifen das in erster Linie nur die 144Hz hier das flüssige Bild macht und nicht die Synchronisation der fps/hz!

Ich würde der Sache noch eine Chance geben. Wenn du einen Framecap mit RTSS (bei Afterburner dabei) auf 141 Bilder pro Sekunde stellst und im Nvidia-Panal die Synchronisation auf "Schnell" oder "Immer ein" stellst und im Spiel die Synchronisation immer aus hast, bekommst du meiner Meinung nach eine nahezu perfekte Bildwiedergabe auf einem 144 Hz Bildschirm mit adaptiver Synchronisation - egal ob von AMD oder Nvidia. Ausnahmen sind dann eben Sachen wie Fallout 4, die über 60 Hz Probleme machen, dann müsstest du die Bildrate auf rund 57 Hz begrenzen. Das Ganze würde dann so aussehen (Vollbild und Fenstermodus nicht vergessen).
so muss es sein.jpg

AMD-Karten sind meiner Meinung nach in Sachen Inputlag noch besser, manche Tests zeigen aber ein gleichartiges Verhalten. Der Unterschied kommt meiner Meinung nach dann zum tragen, wenn die Nvidia-Karte voll ausgelastet ist. Die Nvidia-Karte hält zwar die Bildrate oben, der Inputlag fühlt sich aber an, als ob nur 2/3 der Bildrate erreicht würden, was ja nicht der Fall ist. Woran es liegt, kann ich nicht sagen, ist mir aber beim Wechsel auf eine R9 290x zum ersten mal aufgefallen und setzte sich mit Polaris und Vega fort. Also die Kurzfassung: wenn das Spiel gerade so die gewünschte Bildrate erreicht, fühlt sich AMD oft besser an, unabhängig von der totalen Leistung.
 
Zuletzt bearbeitet von einem Moderator:
FatalFury schrieb:
Schon krass jetzt wird schon für die RTX 2060/2070/2080 nicht mehr Optimiert.

Bei der 980GTX und 1080GTX hatte man zumindest 1 Jahr ruhe bevor die Lederjacke mit der Sabotage anfängt, aber jetzt die Super Karten ...
Drückt dir der Alu Hut aufs Hirn?
Die Treiber werden für die neuen Karten angekündigt, dass heißt aber nicht, dass Bug Fixes und Optimierungen für andere Grafikkarten nicht mehr stattfinden.
Nur weil der Turing Refresh jetzt gerade frisch rausgekommen ist, heißt das nicht, dass nicht die gesamte Turing Familie weiter optimiert wird. Und alle Optimierungen, die auf die Pascal und Maxwell Familien übertragbar sind, kommen natürlich auch da immer noch.
CB hat doch mal getestet, wie Nvidia angeblich alte Karten verlangsamt und siehe da. Alte Karten waren mit neuen Treibern unwesentlich schneller als mit alten Treibern. Jedoch nicht langsamer.
Was raucht ihr hier eigentlich alle?
 
  • Gefällt mir
Reaktionen: BenZ_67 und adius
Wer im Controlpanel V-Sync auf AUS stellt hat natürlich keine G-Sync Funktion.
Hat schon fast etwas von Facepalm...
 
BVB2016 schrieb:
Es soll ja diverse Performance Verbesserungen geben für u.a The Division 2, bis zu 16 Prozent. Gilt dies für alle "noch" Support Karten (Pascal) oder nur für die neue Super Reihe sowie RTX? Finde dazu nichts aussagendes. Danke

Nicht wirklich:
430.64
benchmark_20190711_20h55m.png
431.36
benchmark_20190711_21h10m.png

SyntaX schrieb:
Wer im Controlpanel V-Sync auf AUS stellt hat natürlich keine G-Sync Funktion.
Hat schon fast etwas von Facepalm...

Man hat dann trotzdem G-Sync solange man mit den FPS in der range ist.
 
BVB2016 schrieb:
Es soll ja diverse Performance Verbesserungen geben für u.a The Division 2, bis zu 16 Prozent.
Vom Launch Treiber der Grafikkarten gerechnet. Zum letzten Treiber 3,6% oder so. Steht im Detail aber auch in die Notes zum Treiber.
Strange Brigade 7,7% und Metro Exodus 10,5% im Vergleich zum letzten GR Driver.

Die Erwähnung zu irgendwelchen Launch Treiber mit Peaks und Average Werten ist reines Marketing ;)
 
  • Gefällt mir
Reaktionen: Infi88 und adius
HalfEmpty schrieb:
Mit der Lusche wirst du keinen Spaß bei 2.5k haben!

Kauf dir eine RTX2070Super oder noch besser RTX2080Super und dann was mit G-Sync. Ich bin (von Preisen will ich 2019 eh net mehr reden...) allerderdings doch sehr zufrieden mit meinem RTX2080 - LG 32GK850G - i7 9700 setup (halt leider nur eine 970 EVO von Samsung mit 250GB und 8GB 2400MHz dual channel...man muß halt auch sparen!)

Bullshit, ich zocke nur mit einer 980TI, welche mindestens gleichwertig ist und die meisten Spiele laufen bei UWQHD-Auflösung dank G-Sync spielbar. Nur bei sowas wie The Division 2 und Shadow of the Tomb Raider wirds langsam grenz wertig und man muss bei den Details zurückschrauben.
 
Frage an die Experten: Lohnt es sich bei einer 1070er, die Treiber aktuell zu halten?
Bislang nutze ich 425.31 in Kombination mit einem FreeSync Monitor und bin zufrieden. Muss dazu sagen, dass ich keines der aktuellstenen Games zocke sondern meistens LoL, World of Tanks und ein paar andere.
 
t3chn0 schrieb:
Von daher sind 144Hz+ wichtiger als irgendwelches Gsync / Freesync.

Kommt halt drauf an, was man haben will.

Ich bin kein Pro-FPS-Spieler. Dass Spiele möglichst gut aussehen und dabei flüssig laufen, ist mir wichtiger, als mögliche, kleinere Abstriche beim Lag.
G-Sync bietet mir die Möglichkeit, hässliches Tearing zu vermeiden, ohne die Framerateeinbrüche durch V-Sync.
Die Qualitätseinstellung der Spiele immer so weit runter zu drehen, dass ich nie unter die maximale Frequenz des Monitors (in meinem Fall "nur" 120Hz) komme, ist für mich keine Option.
 
Zurück
Oben