News Nvidia G-Sync: Das ist der aktuelle Stand zum Bildverbesserer

@CB,

hatten ihr mal Kontakt zur VESA-Gruppe aufgenommen, haben die sich in irgendeiner weise dazu geäußert, was die Gerüchte betrifft?
 
Von mir aus werfe ich denen einen 1000er hinterher, nach dem Motto: Shut up and take my money. Ich will endlich nen Monitor mit anständigem Panel, in 4K, ab 26 Zoll und 144Hz/Gsync (whatever). Alles nur kein Tearing und keine Lags mehr. Das sollte doch machbar sein...
 
Mr.Zweig schrieb:
Von mir aus werfe ich denen einen 1000er hinterher, nach dem Motto: Shut up and take my money. Ich will endlich nen Monitor mit anständigem Panel, in 4K, ab 26 Zoll und 144Hz/Gsync (whatever). Alles nur kein Tearing und keine Lags mehr. Das sollte doch machbar sein...

Displayport schafft nicht mehr als 60 Hz in 4K. Du musst auf Displayport 1.3 warten.
 
Mr.Zweig schrieb:
Alles nur kein Tearing und keine Lags mehr. Das sollte doch machbar sein...

Ja, ist ganz einfach: Framelimiter mit 60fps rein und gut ist, spart dabei zusätzlich noch Strom. Macht die ganze GSync / FreeSync Geschichte eigentlich überflüssig. Sollte AMD mal standardmäßig in den Treiber integrieren.
 
Zuletzt bearbeitet:
Vato3001 schrieb:
mit einem s-pva panel und ein seitenverhältnis von 5:4, min. 24 zoll und nativen auflösung von 2560x2048 mit mindestens 100hz meine fresse das wärs.wird wohl ewig ein traum bleiben.

Ich nehm auch einen. Nach Möglichkeit bis 24 Zoll ;)
 
ToniMacaroni schrieb:
Ja, ist ganz einfach: Framelimiter mit 60fps rein und gut ist, spart dabei zusätzlich noch Strom. Macht die ganze GSync / FreeSync Geschichte eigentlich überflüssig. Sollte AMD mal standardmäßig in den Treiber integrieren.

Was passiert dann eigentlich, wenn die FPS im Spiel unter 60 gehen?
 
ronrebell schrieb:
@MichaG:

Alle 3D Vision Nutzer interessiert, ob denn auch alle G-Sync Monis 3D Vision fähig sein werden.

Seitens Nvidia wurde angekündigt, dass dies der Fall sein würde.
Immer wieder wurde aber gemutmaßt, dass 3D Vision nicht gleichzeitig mit G-Sync genutzt werden könne.

Hast du Infos zu diesen von mir angesprochenen Punkten?

Noch habe ich keine, aber ich werde mal versuchen da was rauszubekommen. Das Thema interessiert mich auch!

BlauX schrieb:
@CB,

hatten ihr mal Kontakt zur VESA-Gruppe aufgenommen, haben die sich in irgendeiner weise dazu geäußert, was die Gerüchte betrifft?

Kontakt hatten wir bisher keinen. Aber auch da werde ich mein Glück versuchen. Doch zu unveröffentlichten Specs gibt es meist keinen Kommentar, daher erwarte nicht zu viel. ;)
 
Nach allen Infos, die ich zusammentragen konnte, stellt sich mir der Unterschied zwischen G-Sync und FreeSync folgendermaßen dar:

G-Sync und FreeSync haben beide das grundsätzliche Prinzip, dass der Monitor nach einem kompletten Update seiner Pixel den Beginn des nächsten Bildes so lange hinauszögert ("variable VBLANK Zeit"), bis die Grafikkarte ebenfalls fertig mit dem nächsten Frame ist und dieses dann von Anfang an darstellen kann. Ein 60 Hz Monitor kann bei aktiviertem VSYNC also seine Refreshrate variabel anpassen. Der harte Sprung von 60 auf 30 FPS, den man mit aktiviertem VSYNC hat, wird abgemildert indem die native Bildwiederholrate des Monitors einfach stufenlos mit verlangsamt wird und sich den FPS der Grafikkarte anpasst.

Allerdings kann der Bild-Neuaufbau bei Monitoren nicht beliebig lange hinausgezögert werden, da sonst die elektrischen Felder, die die Flüssigkristalle festhalten, sich langsam verflüchtigen - das Bild würde sich dann farblich verändern. Beide Technologien können die native Bildwiederholrate also nur in einem geringem Maße reduzieren. Bei FreeSync muss die Grafikkarte selbst dafür sorgen, dass diese maximale Zeit nicht überschritten wird und dazu notfalls das letzte Bild nochmals an den Monitor senden - wird die GPU währenddessen mit dem nächsten Bild fertig, muss sie wieder auf den Beginn des nächsten Bild-Neuaufbaus warten.

G-Sync geht hier einen Schritt weiter und sieht einen eigenen Zwischenspeicher im Monitor selbst vor. Die Grafikkarte muss sich dann nicht mehr um die maximale Dauer des VBLANKs kümmern - der Monitor holt sich das letzte Bild einfach aus seinem eigenen Zwischenspeicher. Trifft derweil ein neues Bild von der Grafikkarte ein, speichert er dieses auch für den nächsten Bild-Neuaufbau zwischen. Im Grunde macht der Monitor also nochmals sein eigenes Double-Buffering.


Fazit: Beide Technologien sind quasi gleichwertig, solange die FPS über der Mindest-Bildwiederholrate des Monitors bleiben. Wenn die FPS darunter fallen, kann es bei FreeSync aber im Gegensatz zu G-Sync zu zusätzlichen Performanceverlusten kommen.
 
Das Thema regt mich wieder auf. Die Idee, den Monitor mit der Grafikkarte zu synchen, statt umgekehrt liegt seit Jahrzehnten auf der Hand, aber offenbar sind die Entwickler alle Betriebsblind.

Die Opas hier kennen sicher noch das rollende Fernsehbild und die Zeilenfangautomatik, die das mit simpler Elektronik hinbekommen hat.

Digital fallen mir da mehrere Lösungen ein.

1. Im einfachsten Fall läßt der Monitor das alte Bild solange stehen, bis ein neues Bild angeliefert wird. Dies verursacht aber eine Latez von mind 16ms.
2. Die Grafikkarte schätzt, wann das Bild fertig ist und startet vorher schon die Übertragung.
3. Der Monitor selber hat seinen Videospeicher und steuert Den Screen komplett selber und bekommt die Bilder in abstrakter Form. Dann kann der Monitor mit 60Hz oder mehr laufen, aber in einem Fenster z.B. ein Film mit 24Hz ohne tearing.
 
Danke Micha! Bin wirklich gespannt auf das Ergebnis.

Toll wäre auch zu wissen, ob wir dann endlich mehrere Mitbewerber in Sachen 3D Vision Monis zur Auswahl haben.
Wir leiden seit Jahren an der Hochpreispolitik von Asus und BenQ, die sich einzig und alleine das 3D Vision Geschäft teilen.

Entsprechende Monopolstellungspreise sind die Folge.

Ich hoffe dies hätte bald ein Ende, wenn Philips und Co via G-Sync ebenso 3D Vision an Board hätten.
Können wir darauf hoffen oder bleibts ein Traum?

Infos wären wirklich super!
 
ottoman schrieb:
Was passiert dann eigentlich, wenn die FPS im Spiel unter 60 gehen?

Dann verhält es sich wie sonst auch, als hättest du keinen Framelimiter drin. Es wird bloß bei 60 fps gedeckelt sonst nichts.

Bei 60fps und keinem Vsync hast in der Regel aber ziemlich starkes Tearing...

Kann ich nicht bestätigen, notfalls eben 59fps. VSync meide ich wie die Pest wegen dem Input Lag.
 
@NeoTiger:

Vielen Dank für die informative Gegenüberstellung!
 
Die Hersteller müssten eigentlich eher zurückhaltend sein was die Produktion von G-sync Monitoren angeht, denn immerhin gibt es wahrscheinlich die AMD Feesync variante for free und dann bleiben die auf ihren Monitoren sitzen.
 
MichaG schrieb:
Kontakt hatten wir bisher keinen. Aber auch da werde ich mein Glück versuchen. Doch zu unveröffentlichten Specs gibt es meist keinen Kommentar, daher erwarte nicht zu viel. ;)

Vielleicht lässt sich ja was entlocken. Danke schon mal ^^
 
SGCGoliath schrieb:
Weiss jetzt jemand schon genau ob damit auch Mikroruckler von SLI System beseitigt werden?
Oder kann dies nur durch die Grafikkarte eliminiert werden?

Ja, denn Mikroruckler entstehen bei der Synchronisation der GraKas.
Mehr Hz am Monitor bringen trotzdem ein flüssigeres Bild, für SLI als auch Single GPU.

Mein 1ms 60 Hz Full HD TFT läuft über HDMI auf 77 Hz seit 1 Jahr fehlerfrei.
Sogar 2880x1620 downsampling macht er bei 77 Hz.
Geht bis 84 Hz mit Bildfehlern, bei 85-86 Hz bleibt er dann schwarz.
Über DVI erreiche ich übrigens nur 66 Hz.

Falls jemand ne NV Karte hat und nicht weiß wie's geht, habe ich das nach 2 Sekunden Google gefunden: https://www.youtube.com/watch?v=4QUbVGJMrqM
Ergänzung ()

ToniMacaroni schrieb:
Dann verhält es sich wie sonst auch, als hättest du keinen Framelimiter drin. Es wird bloß bei 60 fps gedeckelt sonst nichts.



Kann ich nicht bestätigen, notfalls eben 59fps. VSync meide ich wie die Pest wegen dem Input Lag.

Hm, zocke auch Shooter wie BF4 wunderbar mit VSync: Framelock auf 75 FPS im nvidia inspector @ 77 Hz.
Das reduziert den Inputlag und man hat kein Tearing. Zumindest wenn die FPS konstant >/= 75 liegen.
Gerade die konstanten FPS haben auch positive Auswirkungen aufs aiming.

asddnbi6.jpg
 
Zuletzt bearbeitet:
Zurück
Oben