Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Nvidia „G-Sync“ im Praxistest
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Nvidia „G-Sync“ im Praxistest
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Wie einer schon sagte steigt das Input Lag bei TB was ja bei G-Sync weg fällt. Und ich bin von V-Sync ohne Trippe Buffer ausgegangen. Was aber im Prinzip aufs gleiche hinausläuft. Das gefühlte Erlebnis mit G-Sync wird wohl viel viel besser sein als mit normalen V-Sync, da hier die FPS gleichmäßig ausgegeben werden und man immer das Optimum erhält. Darum nochmal, es ist sehr schwer ein %Wert zu ermitteln da man das ja quasi schlecht benchen kann. Spielt am Ende aber keine Rolle, AMD hat sowas nicht und bei NV fühlt sich alles so an als ob gar kein VSync an wäre, nur eben ohne Tearing. Das beste beider Welten. Wenn da Mantle 20% zb. in BF4 bringt, absolut nicht mithalten. 20% wären niemals vergleichbar mit so einem Sprung indem die V-Sync Nachteile einfach mal wegfallen. Ich schätze auf min 50% gefühlter Erhöhung der Leistung/Bildqualität bei einem Game das ständig von 30-60FPS schwankt, also quasi alle Games wenn man sie richtig einstellt und die Bildqualität hochstellt.Leider passiert das auch heute noch viel zu oft. Viele aktuelle Spiele unterstützen kein TB
L
Laggy.NET
Gast
Ich hab nie was anderes behauptet. Ich finde G-Sync toll, da es viele Probleme löst und stimme da voll und ganz zu. Ich wollte nur nochmal klarstellen, dass Vsync eigentlich keine Leistung kosten muss, so wie es von vielen behauptet wird. Hier ist nur das fehlende TB schuld.
Wer Vsync will und sich über zu wenig FPS beschwert soll einfach TB aktivieren und gut ists. Wer keinen input lag will, deaktiverts doch sowieso komplett und hat dafür Tearing. G-Sync kombiniert beide Vorteile ohne Nachteile... Aber ich lass es nun sein, da wir uns hier irgendwie mit unseren Aussagen im Kreis drehen.
Wer Vsync will und sich über zu wenig FPS beschwert soll einfach TB aktivieren und gut ists. Wer keinen input lag will, deaktiverts doch sowieso komplett und hat dafür Tearing. G-Sync kombiniert beide Vorteile ohne Nachteile... Aber ich lass es nun sein, da wir uns hier irgendwie mit unseren Aussagen im Kreis drehen.
Pumpi
Lt. Commander
- Registriert
- Juni 2010
- Beiträge
- 1.173
Was auch noch von Interessants sein dürfte ist wie weit man mit dem fps Limiter runter gehen kann. Sollte man in Strategietiteln auf 35 fps runter gehen können, ohne Immersionsverlust, dann dürfte sich das sehr positiv auf den Stromverbrauch, die Kühle der Karte und somit auch auf das OC Verhalten in der heutigen Boostwelt auswirken. Denn die ganzen schwankenden Nonsens fps zwischen 35 und 60 hz, die dann keiner mehr braucht, kann man sich ja schön schenken...
btong1
Lieutenant
- Registriert
- Aug. 2005
- Beiträge
- 843
Kasmopaya schrieb:Wie einer schon sagte steigt das Input Lag bei TB was ja bei G-Sync weg fällt. ... Wenn da Mantle 20% zb. in BF4 bringt, absolut nicht mithalten. 20% wären niemals vergleichbar mit so einem Sprung indem die V-Sync Nachteile einfach mal wegfallen.
Nochmal: Wenn Spiele VSync mit tripple buffering korrekt unterstützen und es die Möglichkeit gibt die FPS auf einen bestimmten Wert zu begrenzen (am besten im Spiel selber per Konsole oder Config-Datei) gibt es keine Nachteile. Sobald man die FPS auf einen festen Wert unter der HZ-Zahl des Monitors begrenzt fällt der input Lag komplett weg! Man hat dann zwar den Bruchteil eines Frames doppelt, was sich aber bei den richtigen Einstellungen nicht bemerkbar macht. Input Lag spielt oft bei Shootern eine Rolle und in der Regel gibt es bei Shootern immer die Möglichkeit per Befehl die FPS zu begrenzen. Geht z.B. bei dem von dir angesprochenem BF4 super, null Tearing da ganze Bilder über VSync und mit Konsolenbefehl FPS auf 59.6 begrenzen dadurch null input Lag.
Hier mal ein Video zu dem Thema: How to: VSync ohne Inputlag
GreatEvil
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.198
Warum verliert CB kein Wort ueber den Effekt, das bei 30-40 fps der Monitor auf ebend jene 30-40 Hz runterschaltet und das Ganze uebelst flimmert???
Noch viel schoener ist der Gesamteffekt, wenn man von 60 oder mehr fps mal auf 30+ abfaellt. Das ist, durch die mitgedrosselte Hz-Zahl, "als wuerde man gegen eine Wand rennen".
Bei groesseren Schwankungen in der fps Zahl (wie so bei fast allen aktuellen 3D-Titeln vorkommt) ist die Technik in der jetzigen Version ne Katastrophe. (Ausser man hat dauerhaft!!!!! 50+ fps)
Kein Wunder also, das die Werbevideos gleichmaessige Bewegungen bei nahezu kosternter fps zeigen. Bloss bloed das das so bei der realen Nutzung (so gut wie) nie vorkommt.
Aber hey, aber braucht schon 50/60/100/120/144 Hz wenn es 30-40 Nvidia-Hz gibt ...
Der Artikel ist reine Werbung. Hier gibt es weder Praxis noch Test.
Noch viel schoener ist der Gesamteffekt, wenn man von 60 oder mehr fps mal auf 30+ abfaellt. Das ist, durch die mitgedrosselte Hz-Zahl, "als wuerde man gegen eine Wand rennen".
Bei groesseren Schwankungen in der fps Zahl (wie so bei fast allen aktuellen 3D-Titeln vorkommt) ist die Technik in der jetzigen Version ne Katastrophe. (Ausser man hat dauerhaft!!!!! 50+ fps)
Kein Wunder also, das die Werbevideos gleichmaessige Bewegungen bei nahezu kosternter fps zeigen. Bloss bloed das das so bei der realen Nutzung (so gut wie) nie vorkommt.
Aber hey, aber braucht schon 50/60/100/120/144 Hz wenn es 30-40 Nvidia-Hz gibt ...
Der Artikel ist reine Werbung. Hier gibt es weder Praxis noch Test.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
Warum sollte ein LCD-Monitor überhaupt flimmern, selbst wenn die Framerate unter 30 geht?
Es handelt sich ja nicht um Röhrenmonitore, die das Bild ständig neu aufbauen müssen. Bei den LCDs wird immer ein konstantes Bild angezeigt und die Framerate bestimmt nur, wie oft der Bildinhalt wechselt.
Selbst mit 1 FPS hätte man ein ruhiges, flimmerfreies Bild. (Nur halt eine Diashow.)
Ich wüsste deshalb nicht, warum G-Sync bei niedrigen Frameraten zu Flimmern führen sollte. Dafür müssten ja immer wieder z.B. schwarze Bilder eingefügt werden. Warum sollte man das machen?
Es handelt sich ja nicht um Röhrenmonitore, die das Bild ständig neu aufbauen müssen. Bei den LCDs wird immer ein konstantes Bild angezeigt und die Framerate bestimmt nur, wie oft der Bildinhalt wechselt.
Selbst mit 1 FPS hätte man ein ruhiges, flimmerfreies Bild. (Nur halt eine Diashow.)
Ich wüsste deshalb nicht, warum G-Sync bei niedrigen Frameraten zu Flimmern führen sollte. Dafür müssten ja immer wieder z.B. schwarze Bilder eingefügt werden. Warum sollte man das machen?
F
fjjn
Gast
Wenn ich bei mir (60Hz Monitor) Vertikale Synchronisation (NVIDIA Systemsteuerung) + Dreifach-Puffer (NVIDIA Systemsteuerung) + Framerate-Limit (MSI Afterburner) auf 60 einstelle, habe ich Ingame konstante 60 fps (-16,6 ms) kein Tearing und kein InputLag! Wieso?
HITCHER_I
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.784
ist das echt so eine aufwändige extra Platine mit eigenem SOC und extra Bildspeicher?
Das muss ja ziemlich teuer sein!
Wenn der Monitor zB. einfach über ein extra USB-Kabel mitgeteilt bekäme, wann er mit 50, 40 oder 30 Hz Bildwiederholrate arbeiten soll, statt mit 60 Hz, müsste man doch beinahe das selbe Ergebnis erhalten können, praktisch ohne Extrakosten.
Das muss ja ziemlich teuer sein!
Wenn der Monitor zB. einfach über ein extra USB-Kabel mitgeteilt bekäme, wann er mit 50, 40 oder 30 Hz Bildwiederholrate arbeiten soll, statt mit 60 Hz, müsste man doch beinahe das selbe Ergebnis erhalten können, praktisch ohne Extrakosten.
usopia
Commodore
- Registriert
- Okt. 2004
- Beiträge
- 4.763
Irgendwas zwischen 50,- und 100,- Euro soll es wohl kosten. Das geilste wäre doch, wenn man diese G-Sync-Platine in eine Art Adapter-Kästchen mit Displayport-Anschlüssen einbauen könnte, welches dann einfach zwischen Grafikkarte und Monitor angeschlossen wird. Somit wäre man nicht auf einen Monitor-Neukauf festgenagelt und könnte G-Sync einfach nachrüsten. Wahrscheinlich würden so auch viel mehr User dieses Feature nutzen aber wahrscheinlich ist das technisch nicht möglich?
usopia schrieb:Irgendwas zwischen 50,- und 100,- Euro soll es wohl kosten. Das geilste wäre doch, wenn man diese G-Sync-Platine in eine Art Adapter-Kästchen mit Displayport-Anschlüssen einbauen könnte, welches dann einfach zwischen Grafikkarte und Monitor angeschlossen wird. Somit wäre man nicht auf einen Monitor-Neukauf festgenagelt und könnte G-Sync einfach nachrüsten. Wahrscheinlich würden so auch viel mehr User dieses Feature nutzen aber wahrscheinlich ist das technisch nicht möglich?
Das ist aber nciht möglich. Wenn man es so realiesieren könnte, könnte man es ja auch gleich vollständig in die Grafikkarte bauen.
Ein solches zusatzkästchen könnte nur als Puffer dienen und damit ähnlich wie Vsync und TB wirken. Aber es hätte ja keinen Einfluss darauf, wann der Monitor das Bild neu aufbaut.
GreatEvil
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.198
Herdware schrieb:Dafür müssten ja immer wieder z.B. schwarze Bilder eingefügt werden. Warum sollte man das machen?
Die Farbe ist egal. Könnte genauso gut weiss sein.
Gehe mal stark davon aus das das Problem beim Backlight liegt und das zusammen mit der sehr niedrigen Frequenz diesen Effekt gibt.
CB kann das ja mal bei unterschiedlichen Helligkeitseinstellungen testen ...
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
GreatEvil schrieb:Die Farbe ist egal. Könnte genauso gut weiss sein.
Deshalb hatte ich ja "z.B." geschrieben.
Die Hintergrundbeleuchtung könnte natürlich unter gewissen Umständen flimmern, wenn sie per PWM geregelt wird, aber das hat ja nichts mit G-Sync oder niedrigen FPS zu tun, sondern mit der eingestellten Helligkeit.
Wie gesagt, grundsätzlich ist bei einem LCD-Monitor die Bildfrequenz egal. Es dürfte überhaupt nichts flimmern, es sei denn, man gibt halt absichtlich ein flimmerndes Bild wieder. Warum G-Sync also bei niedrigen Bildfrequenzen zu einem Flimmern führen soll, muss mir erst mal jemand erklären.
Klar kann es bei sehr niedrigen FPS ruckeln, weshalb G-Sync und VSync usw. irgendwann witzlos werden, aber eben nicht flimmern.
Neutra
Cadet 4th Year
- Registriert
- Sep. 2008
- Beiträge
- 89
Warum wird in den meisten Artikeln eigentlich nicht erwähnt, dass G-SYNC (wie VSYNC auch) nicht im window mode funktioniert? (fullscreen/boderless)
Ich dachte immer G-SYNC wird das Problem irgendwie umgehen können, aber dem ist anscheinend nicht so - sehr schade. Nicht jeder Leser ist auf diesem Gebiet derart erfahren und kann sich das gleich von alleine herleiten.
Das wird nicht gerade wenig Leuten die Vorfreude auf G-SYNC verderben.
source:
2. Seite @ guru3d
Ich dachte immer G-SYNC wird das Problem irgendwie umgehen können, aber dem ist anscheinend nicht so - sehr schade. Nicht jeder Leser ist auf diesem Gebiet derart erfahren und kann sich das gleich von alleine herleiten.
Das wird nicht gerade wenig Leuten die Vorfreude auf G-SYNC verderben.
source:
2. Seite @ guru3d
styletunte
Lt. Commander
- Registriert
- Sep. 2004
- Beiträge
- 1.152
Im Wesentlichen würde ich dem Fazit zustimmen, aber so "echt" die Farben eines "hochwertigen" Panels auch sind, Spielen möchte ich NIE NIE wieder auf einem IPS Panel. Die Trägheit ist unerträglich für Kopf und Augen.
Für die Arbeit habe ich ein IPS und finde es "gut", aber NIE wieder starte ich darauf ein Spiel.
Für die Arbeit habe ich ein IPS und finde es "gut", aber NIE wieder starte ich darauf ein Spiel.
bigfatih42
Lt. Junior Grade
- Registriert
- Dez. 2008
- Beiträge
- 380
Bin ein wenig verwirrt, was ist denn jetzt besser? 144 bzw. 120Hz mit V-Sync oder 60Hz mit G-Sync ??
Ähnliche Themen
- Antworten
- 12
- Aufrufe
- 930
- Antworten
- 148
- Aufrufe
- 12.589
- Antworten
- 33
- Aufrufe
- 4.555
- Antworten
- 61
- Aufrufe
- 11.513
Leserartikel
LG OLED48CX8LX - Die Eierlegende Wollmilchsau?
- Antworten
- 856
- Aufrufe
- 176.155