G-Sync vs Free Sync

KerstinHagema

Banned
Registriert
Feb. 2019
Beiträge
13
Ich habe mal irgendwo gelesen, dass G-Sync die bessere Technologie gegenüber Free Sync sein soll.

Ich habe eine GTX 1080 und hab mir den Gigabyte Aorus Monitor ins Auge gefasst.

Dieser hat aber leider nur Free Sync.

Kann mir wer sagen, was denn die Vorteile vom G-Sync gegenüber dem Free Sync sind?
 
vorteil: du trägst mehr zum umsatz von nvidia bei :D ohne mehrnutzen für dich ^^
frequenz bandbreite is bissl weiter, in der regel vernachlässigbar.

gsync funktioniert mit deiner graka. freesync nur wenn glück hast
 
Will nicht unverschämt sein, aber...

funktioniert auch bei Youtube ;)
 
  • Gefällt mir
Reaktionen: Makso
Zuletzt bearbeitet:

 
Für gewöhnlich hat G-Sync den größeren Wirkungsbereich, sprich funktioniert in einem größeren Frequenzbereich der Bildwiederholrate des Monitors.
 
hallo kerstin,
herzlich willkommen im forum :), finde wir sollten ihr "helfen" statt zu verlinken nur... sie ist vllt neu und am anfang.

Gsync ist eine teure angelegenheit in der herstellung der monitore und nur wenige hersteller haben da ust drauf etliche modelle mit dem "modul" anzubieten, da sich wegen dem reis die nachfrage auch eher weniger ist als bei adaptive syc.

wenn du unbedingtgsync willst ( der mehrpres es dir wert ist) dann solltest du ein anderes modell ins auge fassen. AOC hat da ganz nette alternativen z.b zum "guten" preis. es muss nicht immer acer, oder Asus sein meiner meinung nach
 
  • Gefällt mir
Reaktionen: Slainer
Hi, wenn du unbedingt helfen möchtest dann verfasse doch bitte einen Text den man lesen kann. Danke und Gruß.
 
  • Gefällt mir
Reaktionen: CastorTransport und Grimba
Gsync wird freesync kompatibel
 
@KerstinHagema

Ein wenig Theorie:

Die Bildwiederholrate gibt an, wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor hat in der Regel 60Hz, kann also 60 Bilder pro Sekunde darstellen.
Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug, um - sagen wir mal - CounterStrike mit 134 Hz zu rendern.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

Der Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen.
Das bedeutet das Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst. Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt vereinfacht ausgedrückt. Korrekt wäre das in dem Fall zwei oder mehr zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden, Stichwort z.B. FrameTime oder FramePacing.)

An der Stelle könnte man noch Framebuffer, Front- und Backbuffer sowie PageFlip erklären...

Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus. Das führt aber dazu das Bewegungen gleichmäßig "ruckeln".

Seltsamerweise ist man es bei Kinofilmen gewohnt das diese mit sogar nur 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...
Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

Nun gibt es ein verbessertes System: Adaptive Sync. Das ist Teil des VESA Standards seit 2009. Aber natürlich bieten die beiden großen Hersteller entsprechende, eigene Lösungen an:
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander. Beide machen aber das gleiche.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Beide nutzen das sog. Blanking-Intervall (VBLANC) des Monitors, zu Deutsch Austastintervall, um die Bildwiederholrate dynamisch bzw. variabel zu gestalten.
Grob gesprochen ist das der Moment zwischen dem Ende der Darstellung eines Frames und dem Beginn der Darstellung eines neuen Frames. (Stammt ebenfalls noch aus der Zeit der Röhrenmonitore.)
nVidia nutzt dazu einen zusätzlichen Scaler, der im Monitor verbaut sein muss. AMD kommt ohne aus und orientiert sich näher am VESA Standard Adaptive Sync.

Monitore mit G-Sync sind aufgrund von Lizenzkosten und der notwendigen Zusatzplatine meist etwas teurer als Monitore mit FreeSync.
Seit kurzem unterstützt auch nVidia offiziell FreeSync. Allerdings ist nicht jeder FreeSync-Monitor voll kompatibel. Es gibt bei nVidia aber eine Liste und hier im Forum gibt es auch eine.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt, die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr, sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich oft mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
(Monitore, die mit mehr als 144Hz angegeben werden (z.B. 165Hz), haben auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.
Eine Technik, die man seit Jahren von Fernsehern kennt, bei denen das Panel auch gerne übersteuert wird.)

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht),
spielt das aber kaum eine Rolle.

Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
IPS Panels haben - grob gesprochen - die besseren Farben, VA Panels den besseren Kontrast.

Zusammenfassung:

- Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung, aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

- Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allem bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

- G-Sync/FreeSync: Variable Bildwiederholrate, variable FPS.
Beide immer gleich laufend, bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

PS:
Es gibt auch noch Fast Sync. Das lasse ich an dieser Stelle aber mal außen vor.
Fast Sync ist im Grunde ein leicht verbessertes Adaptive Sync, kommt aber nicht an die Qualität von G-Sync oder FreeSync heran.

Bei manchen Spielen ist es auch hilfreich ein Frame-Limit einzustellen.
Manche Spiele haben bereits ab Werk einen fest eingebauten/eingestellten FrameLimiter laufen, sieht man oft z.B. bei Konsolen-Portierungen.

Und G-Sync/FreeSync arbeitet nur in einem bestimmten FPS-Bereich. Liegen die FPS darunter oder darüber, greift das System nicht mehr.
Diese Range ist bei FreeSync oft kleiner als bei G-Sync.

Grundlagen halt...
 
Chesterfield schrieb:
finde wir sollten ihr "helfen" statt zu verlinken nur
das ist sehr löblich :daumen:

Aber...

gerade wenn sie am Anfang steht ist doch ein wenig Eigenrecherche nicht unangebracht. Das Erlernte vertieft sich ruckzuck.
Wenn jetzt jemand hergeht und 30min braucht um einen Roman zu verfassen, der von Rechtschreib- und Grammatikfehlern übersäht ist, dazu noch von Fachbegriffen, dann wirft das, mit an Sicherheit grenzender Wahrscheinlichkeit mehr Fragen auf, als es beantwortet.

Jedes Youtube Video erklärt das viel besser und durch Bilduntermalung auf jeden Fall effektiver.
 
Rokitt schrieb:
Wenn jetzt jemand hergeht und 30min braucht um einen Roman zu verfassen, der von Rechtschreib- und Grammatikfehlern übersäht ist
Ich hoffe nicht das zu viele Rechtschreib- und Gramatikfehler enthalten sind in meiner Erklärung... ;)
Und Fachbegriffe habe ich hoffentlich auch verständlich erklärt.
 
Hoffe ich auch. Soll ich mal Korrekturlesen? ;)
 
Kannst du gerne machen...
 
Bei der G-Sync vs. FreeSync Frage würde ich viel mehr auf die technischen Unzulänglichkeiten der einzelnen Geräte eingehen und weniger über Sync Modus an sich philosophieren. Bei FreeSync ist es noch einfacher einen schlechten Monitor zu bekommen, weil sich die Hersteller noch weniger Mühe geben, da keine Anforderungen für ein solchen Gaming Monitor gesetzt werden. In welche Kategorie der AD27QD fällt muss sich noch zeigen.
 
Zurück
Oben