Bericht Nvidia „G-Sync“ im Praxistest

G-Sync behebt doch viele Probleme ohne ein Inputlag zu erzeugen (wie es 3 Vorgehaltene Frames tun würden).
Ich kann mir vorstellen, es würde auch als externe kleine Kiste funktionieren wenn man eine art "Tachosignal" vom Monitor abgreifen und dem PC zur verfügung stellen kann.

Hier scheint große verwirrung zu herrschen.

Ohne Inputdelay hat die Grafikkarte einen "Ausgabeframe" der wird instantan ausgetauscht wenn der nächste Frame Fertig ist.
Der Monitor kann nur auf den aktuellen "Ausgabeframe" zugreifen (auch wenn bestimmt signaltechnisch falsch), egal ob 10,30,60 oder 144hz.
Ändert sich der Ausgabeframe WÄHREND des bildaufbaus, dann kann der Alte FRAME nicht vom Monitor zuende angezeigt werden.

Die Grafikkarte ist der Lehrling vom Malermeister und stellt immer Pötte abwechselnder Farbe(FRAMES) hin, der Meister malt Wände an, von unten links nach oben rechts in waagerechten Strichen.
Tauscht der Lehrling die Farbe aus bevor der Meister ne Wand fertig hat, dann wird die grad gestrichene Wand (Bild am Monitor) ab irgendeiner stelle plötzlich rot statt Weiß. Das ist Tearing.

G-Sync heißt, der Meister hat die wand fertig und sagt: NEUE FARBE und er Lehrling stellt die sofort hin, da er sie bereits bereithält.
(ideal)

V-Sync heißt, der Lehrling hat Erbarmen mit dem alten Meister und tauscht die Eimer nicht mehr 60mal pro sekunde wenn der meister nur 60Wände/s schafft. Allerdings wartet er nicht darauf, dass die wand tatsächlich fertig ist, sondern spult sein programm unabhängig ab, mit Glück werden die meisten Wände richtig.

Mehr Hertz-Meister/Monitor: Der alte meister schafft eh Schneller zu Streichen als der Lehrling die Farbe zu tauschen, Es werden auch mal 2 Wände Weiß und dann erst die Nächste Rot, allerdings ziehen die beiden so schnell von wand zu wand, dass es am ende alle wände komplett einfarbig aussehen, und man die zwei weißen Wände für die Selbe hält...


Schäbigestes ergebnis kommt raus, wenn der Lehrling erst 60 eimer/s schafft, und dann plötzlich nur noch 10/s und dann wieder 60/s.



analogie vorbei. :D
 
@KTelwood

Sehr schön, so kann mans auch erklären. Wobei das für mich persönlich schwieriger zu verstehen ist, als die rein technische Erklärung^^
 
Da mich das Thema aktuell gerade betrifft...

Ich habe, nachdem mein 28Zöller die Hufe hochgerissen hat, seit ca. 4 Jahren ein 47 Zoll LED-TV von LG, den ich als normalen Monitor benutze.
Jetzt habe ich mir den Asus VG278HE gegönnt.
Mein erster Eindruck: Wahnsinn wieviel 120/144Hz bringen, selbst unter Windows...sind 27Zoll mickrig klein, kaum was zu erkennen...komische Farben...beschissene vertikale Blickwinkel...

Für mich ist etwas zw. 32 und 40Zoll das Optimum, die 47Zoll waren etwas zu groß von der Fläche her.
Die Pixelgröße selbst war kein Problem.

Besonders wegen der Blinkwinkel wollte ich den Monitor wieder zurückschicken und wieder zurück auf den TV wechseln.
Das war aber nicht mehr möglich, da mich eine Woche mit über 120Hz total versaut haben.
Der Fernseher war mit 60Hz einfach nicht mehr zu ertragen.

Die einzige Frage, dies sich mir stellt:
Was ist mit Spielen, die die 144fps nicht halten können?
In BF4 habe ich alles auf Low gestellt und schaffe meist 144fps, die aber manchmal auf 100-120fps absacken (nutze 2xGTX570 im SLI).
Ich kann kein Tearing oder Stottern feststellen (habe im Nvidia Treiber adaptive VSync and und in BF4 die fps auf 144fps begrenzt).

Soll ich die Grafikeinstellung so weit wie möglich runterdrehen oder auf Medium lassen und dann bei 144Hz mit ca. 60-90fps spielen?

p.s. LED-TV nutzt man am Computer immer mit 60Hz.
Die 400 oder 800Hz sind nur ein hochgerechnetes 50Hz Signal.
Selbst die guten TV schaffen nur reale 100Hz.
Dabei hat der Fernseher dann auch einen Inputlag von bis zu 3-4 Sekunden.
Mein LG hatte mit 60Hz kaum Inputlag.
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Wo also bleibt der 27 Zoll große Monitor mit einem hochwertigen Panel, einer Auflösung von 2.560 × 1.440 Pixel, 144 Hertz und gerne auch mit G-Sync?
Oh ja, das wäre auch mein absoluter Traummonitor und mit HDMI 2.0 oder Thunderbolt 2 wäre das inzwischen auch durchaus möglich. Dafür würde ich gerne auch etwas mehr zahlen.
Auf G-Sync könnte ich bei so einem Monitor dann auch verzichten, der Unterschied zu "V-Sync an" scheint ja nur noch gering zu sein.
 
@graysson: also da solltest du, so wie ich das sehe, eher die Quali im Spiel runterdrehen anstatt bei 144 Hz nur mit 70 FPS oder so rumzugurken. Das ist nicht Sinn der Sache. Ich würde an deiner Stelle den Monitor erstmal auf 120 Hz laufen lassen und dann die Grafik so anpassen, daß du möglichst immer zwischen 120 und 100 FPS min. erreichst, das sollte noch ok sein. Oder ist der Unterschied 144 zu 120 Hz so groß? Dazu hab ich leider keine Erfahrung.

Die teure Variante wäre halt, die beiden GTX 570 gegen stärkere, aktuelle Karten zu tauschen. Ich selbst bin kein Fan von Multi-GPU, hatte vorher auch einev 570, jetzt mit der GTX 770 habe ich ca. 75% mehr Leistung. Alllerdings spiele ich kein BF3 sondern Left4Dead2 (wer hätt's gedacht ;)), welches natürlich viel weniger Ressourcen braucht. Ich erreiche 120 FPS stabil inkl. 2x SGSSAA, habe noch nie so flüssig gezockt muß ich sagen.
 
Zuletzt bearbeitet:
Laggy.NET schrieb:
Falsch. Tearing entsteht IMMER, wenn kein Vsync genutzt wird.

Ist auch absolut offensichtlich, wenn du wüsstest, was tearing eigentlich ist, bzw. wie es entsteht.
Egal mit wie vielen FPS man spielt. Die Grafikkarte schickt die Bilder an den Monitor, wenn die Bilder "fertig" sind. Ungeachtet dessen, wann der Monitor den nächsten Refresh hat. Selbst bei 2 FPS kanns theoretisch sein, dass Bild 1 schon am Monitor angezeigt wird und Bild 2 genau in einem Moment rausgeschickt wird, wenn der Monitor grade nen Refresh macht. Folglich wird das 2. Bild nur halb oder zu nem Teil angezeigt und erst beim nächsten Refresh vollständig abgebildet.
Stimmt zwar, aber da das zerrissene Bild bei einem 120 Hz-Monitor nur halb so lange angezeigt wird, wie bei einem 60-Hz-Display, wirkt es deutlich weniger störend. Manchen Leuten fällt es bei 7- oder 8-ms-Refreshs gar nicht mehr auf, bei 16 Millisekunden sieht es hingegen fast jeder.
 
Damit muss ich mich im Endeffekt entscheiden, welche Nachteile für mich akzeptabler sind: Schlechtere Bildqualität und flüssigere Spiele oder lieber höhere Bildqualität bei mitunter weniger flüssigem Spielgeschehen. Doch ich möchte mich nicht selbst ausbremsen. Wo also bleibt der 27 Zoll große Monitor mit einem hochwertigen Panel, einer Auflösung von 2.560 × 1.440 Pixel, 144 Hertz und gerne auch mit G-Sync? Ja, so ein Gerät wäre gewiss teuer. Doch kaufe ich mir ja auch nicht andauernd einen neuen Monitor und starre zudem teils stundenlang am Stück auf das Display. Da kann es dann auch gerne etwas teurer sein.
Sehe ich genauso!
Wobei ich mich schon entschieden habe und bei mir siegt die Bildqualität eindeutig. Vor allem, da diese nicht nur in Spielen einen großen Unterschied macht.
 
Cohen schrieb:
Stimmt zwar, aber da das zerrissene Bild bei einem 120 Hz-Monitor nur halb so lange angezeigt wird, wie bei einem 60-Hz-Display, wirkt es deutlich weniger störend. Manchen Leuten fällt es bei 7- oder 8-ms-Refreshs gar nicht mehr auf, bei 16 Millisekunden sieht es hingegen fast jeder.

Ja das stimmt ja auch. Mehr Hz sorgen dafür, dass man Tearing weniger sieht, genauso wie man es mit sehr vielen FPS auf nem 60 Hz Monitor auch weniger deutlich sieht. Ich wüsste jetzt nicht, was ich dazu gegenteiliges gesagt hätte.

G-Sync packt das Problem halt direkt an der Wurzel, so dass Tearing gar nicht erst entstehen kann und man auch nicht Techniken wie Vsync braucht, um dem entgegenzuwirken.
 
Wo also bleibt der 27 Zoll große Monitor mit einem hochwertigen Panel, einer Auflösung von 2.560 × 1.440 Pixel, 144 Hertz und gerne auch mit G-Sync?

zu teuer für den allgemeinen MM dau. darum wird sowas nicht entwickelt.

24" IPS oder VA mit 2880x1800 und 120/144 Hz wäre mein traum. oder noch besser mit OLED.
 
usopia schrieb:
@graysson: also da solltest du, so wie ich das sehe, eher die Quali im Spiel runterdrehen anstatt bei 144 Hz nur mit 70 FPS oder so rumzugurken. Das ist nicht Sinn der Sache. Ich würde an deiner Stelle den Monitor erstmal auf 120 Hz laufen lassen und dann die Grafik so anpassen, daß du möglichst immer zwischen 120 und 100 FPS min. erreichst, das sollte noch ok sein. Oder ist der Unterschied 144 zu 120 Hz so groß? Dazu hab ich leider keine Erfahrung.

Die teure Variante wäre halt, die beiden GTX 570 gegen stärkere, aktuelle Karten zu tauschen. Ich selbst bin kein Fan von Multi-GPU, hatte vorher auch einev 570, jetzt mit der GTX 770 habe ich ca. 75% mehr Leistung. Alllerdings spiele ich kein BF3 sondern Left4Dead2 (wer hätt's gedacht ;)), welches natürlich viel weniger Ressourcen braucht. Ich erreiche 120 FPS stabil inkl. 2x SGSSAA, habe noch nie so flüssig gezockt muß ich sagen.

Genau das habe ich mir auch gedacht und bin auf 120Hz runter gegangen. Ich würde sagen, dass der Unterschied zw. 120 und 144 nicht sehr groß ist.
Ich würde auch lieber eine GTX780 statt 2 570 drin haben, nur muss man sich die leisten können.
Die 2. 570 hat mich aber nur 80€ gekostet und bringt mich hoffentlich über die nächsten 6-12 Monate, bis ich genug Geld für eine 780 oder höher habe.
 
@Vivster: Vergiss das mit dem Fernseh-Bildschirm!
Die haben einen vergleichsweiße sehr großen inputlag!
Und seltsamerweiße können diese am PC mit fullhd manchmal auch nurnoch mit 60hz betrieben werden ;)
 
Wird es nun ein Upgrade Kit für den Asus VH248QE geben, oder nicht.
Mal liest mal ja, mal heißt es nein wurde gecancelt.

Leider wenn dann das Modul wahrscheinlich nicht in den Asus VG248QE passen.
 
Zuletzt bearbeitet:
Der Kommentar des Autors bringt es auf den Punkt. Genau das ist das Problem und seitdem ich mit einem 30 Zoller arbeite, werde ich nicht zu was kleinerem wechseln. Wobei es nicht bei 2560*1440 bleiben muss. 4096x2560 auf 30 Zoll, damit die PPI-Werte von Smartphones mal auf dem Monitor ankommen.
 
Aus dem Artikel:

Das schlimmste Verhalten mit herkömmlichen Mitteln zeigt Anno 2070. Bei deaktiviertem V-Sync ist Tearing beim Scrollen über die Karte allgegenwärtig, das ganze Bild fängt an zu „wabern“. Bei aktiviertem V-Sync zeigt Anno 2070 darüber als einziges Spiel in der Auswahl ein Verhalten, das die FSP der Grafikkarte in ein festes Verhältnis zur Bildwiederholfrequenz des Monitors setzt. Schafft die Grafikkarte 60 FPS, also analog der 60 Hz des Monitors, darf sie 60 FPS liefern. Schafft sie weniger, werden die FPS auf 30 FPS gedeckelt

Das kam mir Mittwoch bereits beim lesen seltsam vor, aber ich war leider nicht zuhause, um es zu testen. Jetzt bin ich allerdings wieder in the house und hab Anno2070 angeworfen:

Beim normalen Spielen renn ich zwar ständig in die 60 fps VSYNC Begrenzung rein während die Karten noch nichtmal komplett hochtakten, aber im Postcard-Modus kann ich auch fps im Bereich 40 bis 59 fps produzieren, je nach Blickwinkel und Bildschirminhalt. Gibt es diese Unterteilung in 20/30/60 fps nur außerhalb des Postcard-Modus? Weil ein Absenken der fps auf genau 30 konnte ich bei mir so jetzt nicht beobachten. Wenn die Karten nicht mehr konstant 60 schaffen dann werden halt 59, 58 und auch mal 40 fps dargestellt...
 
Finde ich eine interessante Technik.
Zum glück gehöre ich zu den Leuten, die mit VSync keinen unterschied merken abgesehen vom fehlenden tearing, ohne VSync konnte ich das Phänomen sonst vorallem (und leider) auf dem Notebook beobachten.
Mal schauen wie sich das entwickelt, mein Traum wäre ja ein Monitor mit meinetwegen 144Hz, IPS und zumindest 2560x1600. Allerdings sind diese leider momentan noch unverhältnismäßig teuer. Ich denke das G-Sync Modul wird auch nicht gerade dazu beitragen, die Monitore günstiger zu machen. Und ich vermute (habe nicht den ganzen Text gelesen falls es drin stehen sollte) dass es leider nicht zu AMD-Karten kompatibel sein wird.
 
Korrigiert mich wenn ich falsch liege aber Input Lag liegt am Monitor und nicht an der Synchronisation zur Grafikkarte. Unter Input Lag versteht man die Zeit vom vollständig berechneten Frame bis zu Anzeige von selbigem. Die Verzögerung entsteht durch die Signalprozessoren und eventuell vorhandenen Bildverbesserern. Solche Bildverbesserer sind besonders bei TVs vorhanden, weswegen man auf dem TV immer spürbaren Input Lag hat.
Das heißt, dass G-Sync kein Input Lag verhindern kann.
 
Ich korrigiere dich, weil du falsch liegst: Input-Lag bezeichnet die verzögerung von der Eingabe des Eingabegerätes bis zur Ausgabe an der Monitormatrix. Die Zeit, die die tastatur und Maus brauchen, die Signale an den USB-Bus des Rechners zu übergeben, die Zeit die der USB-Bus braucht, die komplette Verarbeitungszeit im Rechner im Hinundher zwischen CPU, RAM und Grafikkarte (hier sind unterschiedliche Spiele sehr unterschiedlich flott oder lahm - Elder Scolls ist traditionell lahm, idtech ist traditionell extrem flott) und irgendwann die Ablagerung im Framebuffer, die Ausgabe aus dem Framebuffer an den monitor und die Signalverarbeitung des Monitors und die Trägheit der Subpixel.

P.S.
Kurz gesagt: Inout-Lag ist die zeitliche Diferenz zwischen deiner Wahrnehmung in den Fingern (am Controller) und der zu diesem Moment gehörigen Wahrnehmung in den Augen.
 
Zuletzt bearbeitet:
Das Delay auf dem Rechner ist vernachlässigbar, weil es sehr gering ist. Ich weiß nicht wie du darauf kommst, dass es von Spiel zu Spiel unterschiedlich sei.
Wenn du dir mal ein paar seriöse TFT Tests durchliest, wird dir auffallen, dass dort immer auch der Input Lag getestet wird, da dieser sich sehr deutlich von Monitor zu Monitor unterscheiden kann. Dein angesprochenes Delay auf dem PC ist ein verschwindend geringer Anteil daran. Abgesehen davon hat G-Sync auch darauf keinen Einfluss (was du aber auch nicht behauptet hast).
 
Ich weiß beim besten Willen nicht, wie du darauf kommst, das Delay auf dem rechner wäre vernachlässigbar. Du brauchst über 100 ms, damit sehr geübte Spieler etwas davon merken können und kein Bildschirm der Welt hat mehr als 25 ms Reaktionszeit.

Durchschnittliche Reaktionszeit
Männer: 220 ms
Frauen: 260 ms

Quelle: Anandtech - Exploring Input Lag Inside and Out
 
Die absolute Reaktionszeit spielt keine Rolle, sondern die relative Zeit. Hier geht es um Monitore. Das darfst du nicht vergessen.
Ein Beispiel, um zu verdeutlichen, was ich meine: Stell dir eine klassiche Situation in einem Ego-Shooter vor. Spieler kommt um die Ecke und beide sehen sich. Vereinfacht gesagt gewinnt derjeniger, der weniger Input Delay hat. Monitore können schonmal bis zu 60 ms Input Lag besitzen.

What is input lag?

Input lag is used to describe the difference in time between the signal played to the monitor and the corresponding content displayed on the screen.

This difference is caused by the signal processing that takes place in the monitor. This includes the interpolation when resolutions other than the monitor’s native resolution are displayed, overdrive processes, contrast and other colour adjustments for which, for example, matrix transformations must be carried out with ultimate speed. Fundamentally, all processes where the image information played to the monitor is processed in the monitor can cause a delay in image output and contribute to the overall delay or input lag.

Here, the market relevance cannot be sneered at, since this value is often seen by many monitor buyers as the most important value in deciding whether a monitor is suitable for computer games. Here, a large input lag is generally seen as bad.

This lag adds to the other latencies which arise during image processing and output and thereby causes the information to be delivered with a slight delay in situations where the response time of the user is important, thereby making it harder to respond in time. Transferred to the automotive industry and range of vision optimisations, a slow monitor could reduce the remaining response time of the driver and therefore cut the possible braking distance.

With the methods used to date, input lags of 0 ms to 68 ks have been measured.
Quelle: http://www.prad.de/en/monitore/specials/inputlag/inputlag.html#Inputlag
 
Zurück
Oben