Bericht Nvidia „G-Sync“ im Praxistest

wenn ich ehrlich bin, hat es mich nicht gestört, nur als ich es hier gelesen habe --- ist es mir bewusst geworden, DANKE NIVEA jetzt starr ich drauf! Es Gibt problemlöser und es gibt Nvidia!
 
Leider passiert das auch heute noch viel zu oft. Viele aktuelle Spiele unterstützen kein TB
Wie einer schon sagte steigt das Input Lag bei TB was ja bei G-Sync weg fällt. Und ich bin von V-Sync ohne Trippe Buffer ausgegangen. Was aber im Prinzip aufs gleiche hinausläuft. Das gefühlte Erlebnis mit G-Sync wird wohl viel viel besser sein als mit normalen V-Sync, da hier die FPS gleichmäßig ausgegeben werden und man immer das Optimum erhält. Darum nochmal, es ist sehr schwer ein %Wert zu ermitteln da man das ja quasi schlecht benchen kann. Spielt am Ende aber keine Rolle, AMD hat sowas nicht und bei NV fühlt sich alles so an als ob gar kein VSync an wäre, nur eben ohne Tearing. Das beste beider Welten. Wenn da Mantle 20% zb. in BF4 bringt, absolut nicht mithalten. 20% wären niemals vergleichbar mit so einem Sprung indem die V-Sync Nachteile einfach mal wegfallen. Ich schätze auf min 50% gefühlter Erhöhung der Leistung/Bildqualität bei einem Game das ständig von 30-60FPS schwankt, also quasi alle Games wenn man sie richtig einstellt und die Bildqualität hochstellt.
 
Ich hab nie was anderes behauptet. Ich finde G-Sync toll, da es viele Probleme löst und stimme da voll und ganz zu. Ich wollte nur nochmal klarstellen, dass Vsync eigentlich keine Leistung kosten muss, so wie es von vielen behauptet wird. Hier ist nur das fehlende TB schuld.

Wer Vsync will und sich über zu wenig FPS beschwert soll einfach TB aktivieren und gut ists. Wer keinen input lag will, deaktiverts doch sowieso komplett und hat dafür Tearing. G-Sync kombiniert beide Vorteile ohne Nachteile... Aber ich lass es nun sein, da wir uns hier irgendwie mit unseren Aussagen im Kreis drehen.
 
Was auch noch von Interessants sein dürfte ist wie weit man mit dem fps Limiter runter gehen kann. Sollte man in Strategietiteln auf 35 fps runter gehen können, ohne Immersionsverlust, dann dürfte sich das sehr positiv auf den Stromverbrauch, die Kühle der Karte und somit auch auf das OC Verhalten in der heutigen Boostwelt auswirken. Denn die ganzen schwankenden Nonsens fps zwischen 35 und 60 hz, die dann keiner mehr braucht, kann man sich ja schön schenken...
 
Kasmopaya schrieb:
Wie einer schon sagte steigt das Input Lag bei TB was ja bei G-Sync weg fällt. ... Wenn da Mantle 20% zb. in BF4 bringt, absolut nicht mithalten. 20% wären niemals vergleichbar mit so einem Sprung indem die V-Sync Nachteile einfach mal wegfallen.

Nochmal: Wenn Spiele VSync mit tripple buffering korrekt unterstützen und es die Möglichkeit gibt die FPS auf einen bestimmten Wert zu begrenzen (am besten im Spiel selber per Konsole oder Config-Datei) gibt es keine Nachteile. Sobald man die FPS auf einen festen Wert unter der HZ-Zahl des Monitors begrenzt fällt der input Lag komplett weg! Man hat dann zwar den Bruchteil eines Frames doppelt, was sich aber bei den richtigen Einstellungen nicht bemerkbar macht. Input Lag spielt oft bei Shootern eine Rolle und in der Regel gibt es bei Shootern immer die Möglichkeit per Befehl die FPS zu begrenzen. Geht z.B. bei dem von dir angesprochenem BF4 super, null Tearing da ganze Bilder über VSync und mit Konsolenbefehl FPS auf 59.6 begrenzen dadurch null input Lag.

Hier mal ein Video zu dem Thema: How to: VSync ohne Inputlag
 
Warum verliert CB kein Wort ueber den Effekt, das bei 30-40 fps der Monitor auf ebend jene 30-40 Hz runterschaltet und das Ganze uebelst flimmert???
Noch viel schoener ist der Gesamteffekt, wenn man von 60 oder mehr fps mal auf 30+ abfaellt. Das ist, durch die mitgedrosselte Hz-Zahl, "als wuerde man gegen eine Wand rennen".
Bei groesseren Schwankungen in der fps Zahl (wie so bei fast allen aktuellen 3D-Titeln vorkommt) ist die Technik in der jetzigen Version ne Katastrophe. (Ausser man hat dauerhaft!!!!! 50+ fps)
Kein Wunder also, das die Werbevideos gleichmaessige Bewegungen bei nahezu kosternter fps zeigen. Bloss bloed das das so bei der realen Nutzung (so gut wie) nie vorkommt.


Aber hey, aber braucht schon 50/60/100/120/144 Hz wenn es 30-40 Nvidia-Hz gibt ...

Der Artikel ist reine Werbung. Hier gibt es weder Praxis noch Test.
 
Woher nimmst du deine flimmer Weisheit GreatEvil ?
 
Warum sollte ein LCD-Monitor überhaupt flimmern, selbst wenn die Framerate unter 30 geht?

Es handelt sich ja nicht um Röhrenmonitore, die das Bild ständig neu aufbauen müssen. Bei den LCDs wird immer ein konstantes Bild angezeigt und die Framerate bestimmt nur, wie oft der Bildinhalt wechselt.
Selbst mit 1 FPS hätte man ein ruhiges, flimmerfreies Bild. (Nur halt eine Diashow.)

Ich wüsste deshalb nicht, warum G-Sync bei niedrigen Frameraten zu Flimmern führen sollte. Dafür müssten ja immer wieder z.B. schwarze Bilder eingefügt werden. Warum sollte man das machen?
 
Wenn ich bei mir (60Hz Monitor) Vertikale Synchronisation (NVIDIA Systemsteuerung) + Dreifach-Puffer (NVIDIA Systemsteuerung) + Framerate-Limit (MSI Afterburner) auf 60 einstelle, habe ich Ingame konstante 60 fps (-16,6 ms) kein Tearing und kein InputLag! Wieso?
 
ist das echt so eine aufwändige extra Platine mit eigenem SOC und extra Bildspeicher?
Das muss ja ziemlich teuer sein!

Wenn der Monitor zB. einfach über ein extra USB-Kabel mitgeteilt bekäme, wann er mit 50, 40 oder 30 Hz Bildwiederholrate arbeiten soll, statt mit 60 Hz, müsste man doch beinahe das selbe Ergebnis erhalten können, praktisch ohne Extrakosten.
 
Irgendwas zwischen 50,- und 100,- Euro soll es wohl kosten. Das geilste wäre doch, wenn man diese G-Sync-Platine in eine Art Adapter-Kästchen mit Displayport-Anschlüssen einbauen könnte, welches dann einfach zwischen Grafikkarte und Monitor angeschlossen wird. Somit wäre man nicht auf einen Monitor-Neukauf festgenagelt und könnte G-Sync einfach nachrüsten. Wahrscheinlich würden so auch viel mehr User dieses Feature nutzen aber wahrscheinlich ist das technisch nicht möglich?
 
usopia schrieb:
Irgendwas zwischen 50,- und 100,- Euro soll es wohl kosten. Das geilste wäre doch, wenn man diese G-Sync-Platine in eine Art Adapter-Kästchen mit Displayport-Anschlüssen einbauen könnte, welches dann einfach zwischen Grafikkarte und Monitor angeschlossen wird. Somit wäre man nicht auf einen Monitor-Neukauf festgenagelt und könnte G-Sync einfach nachrüsten. Wahrscheinlich würden so auch viel mehr User dieses Feature nutzen aber wahrscheinlich ist das technisch nicht möglich?

Das ist aber nciht möglich. Wenn man es so realiesieren könnte, könnte man es ja auch gleich vollständig in die Grafikkarte bauen.

Ein solches zusatzkästchen könnte nur als Puffer dienen und damit ähnlich wie Vsync und TB wirken. Aber es hätte ja keinen Einfluss darauf, wann der Monitor das Bild neu aufbaut.
 
Herdware schrieb:
Dafür müssten ja immer wieder z.B. schwarze Bilder eingefügt werden. Warum sollte man das machen?

Die Farbe ist egal. Könnte genauso gut weiss sein. ;)
Gehe mal stark davon aus das das Problem beim Backlight liegt und das zusammen mit der sehr niedrigen Frequenz diesen Effekt gibt.

CB kann das ja mal bei unterschiedlichen Helligkeitseinstellungen testen ...
 
GreatEvil schrieb:
Die Farbe ist egal. Könnte genauso gut weiss sein. ;)

Deshalb hatte ich ja "z.B." geschrieben. ;)

Die Hintergrundbeleuchtung könnte natürlich unter gewissen Umständen flimmern, wenn sie per PWM geregelt wird, aber das hat ja nichts mit G-Sync oder niedrigen FPS zu tun, sondern mit der eingestellten Helligkeit.
Wie gesagt, grundsätzlich ist bei einem LCD-Monitor die Bildfrequenz egal. Es dürfte überhaupt nichts flimmern, es sei denn, man gibt halt absichtlich ein flimmerndes Bild wieder. Warum G-Sync also bei niedrigen Bildfrequenzen zu einem Flimmern führen soll, muss mir erst mal jemand erklären.
Klar kann es bei sehr niedrigen FPS ruckeln, weshalb G-Sync und VSync usw. irgendwann witzlos werden, aber eben nicht flimmern.
 
Warum wird in den meisten Artikeln eigentlich nicht erwähnt, dass G-SYNC (wie VSYNC auch) nicht im window mode funktioniert? (fullscreen/boderless)

Ich dachte immer G-SYNC wird das Problem irgendwie umgehen können, aber dem ist anscheinend nicht so - sehr schade. Nicht jeder Leser ist auf diesem Gebiet derart erfahren und kann sich das gleich von alleine herleiten.

Das wird nicht gerade wenig Leuten die Vorfreude auf G-SYNC verderben.

source:

2. Seite @ guru3d
 
Weiß hier jemand wo man die gsync pendulum/clock demo herbekommt? würde das gerna mal auf dem eigenen Monitor sehen.
 
soweit ich weiß, gibt's die Software nicht zum Runterladen. Wird wohl nur bei den entsprechenden Monitoren mitgeliefert. Ich denke, es ist eh relativ uninteressant, das auf einem Monitor ohne G-Sync laufen zu lassen. ;)
 
Im Wesentlichen würde ich dem Fazit zustimmen, aber so "echt" die Farben eines "hochwertigen" Panels auch sind, Spielen möchte ich NIE NIE wieder auf einem IPS Panel. Die Trägheit ist unerträglich für Kopf und Augen.

Für die Arbeit habe ich ein IPS und finde es "gut", aber NIE wieder starte ich darauf ein Spiel.
 
Bin ein wenig verwirrt, was ist denn jetzt besser? 144 bzw. 120Hz mit V-Sync oder 60Hz mit G-Sync ??
 
Ich würde sagen 120 Hz gsync > 144 hz > 60 hz gsync...
 
Zurück
Oben