Kommentar Kommentar: Nie wieder ohne FreeSync/G-Sync

Jesterfox schrieb:
Aber du kannst mir gerne erklären weshalb ein Monitor der zwar 120Hz könnte aber nur 60 Bilder pro Sekunde geliefert bekommt trotzdem mehr anzeigen kann als nur 2 mal das selbe Bild hintereinander (was keinen Unterschied zu einem 60Hz Monitor macht)

Er zeigt nicht mehr Bilder an, aber weniger Tearing, weil nur eins der beiden gleichen Bilder zerrissen ist.

Mit Vsync und "krummen" Frameraten ist der Jitter der Verzögerungszeit nur noch halb so groß, ohne triple buffering ist zumindest die Frameratenstufung feiner (120, 60, 40, 30, 24, 20, ... statt 60, 30, 20, ...).
 
Handysurfer schrieb:
Und genau das ist der Denkfehler, den Viele machen!
Nochmal: FPS und Hz sind zwei Verschiedene Dinge und 120 Hz sehen immer flüssiger aus als 60 Hz, egal ob man nun ein Spiel mit 60 FPS oder 120 FPS spielt.
Also zusammengefasst fuer mich ist freesync nicht wichtig :) hoehere hz > freesync und sogar noch Herstellerunabhaengig?

btw soweit ich das bisher sah sind das ja nie echte native 120hz, das erreichen die hersteller doch nur mit taschenspielertricks, 120 240 oder wieviel hz auch immer. Hab mich da ja bei TVs interessiert dafuer. z.b. wird einfach mal ein schwarzel bild zwischen einen frame kurz eingeblendet und schon hat man seine fps erhoeht oder aehnliches das dann aber vor und nachteile hat.

Ist das bei Monitoren anders? zeigt es wirklich 120x ein neues bild dann an oder 144x? Wie gesagt nach meinen infos ist das bet tvs nicht so die haben dann ja oft auch 800hz oder mehr.

16:10 scheint ab 120hz wohl auch unmoeglich zu sein rofl :)
 
Zuletzt bearbeitet:
g-sync ist bei mir immer deaktiviert. das geflackere bei jeder action in spiele menüs oder im hangar ist einfach nur nervend und unangenehm.

diamdomi schrieb:
Die Monitore sollten sich generell mal anpassen:

2560x1440 bei maximal 24 Zoll, 120 hz +, ips und g-Sync/free-Sync
Und das für unter 500, am besten unter 350

Leider noch nix auf dem Markt oder angekündigt

wirds zum dem preis auch nie geben. da kannst du lange weiter träumen ...
 
Zuletzt bearbeitet:
JMP $FCE2 schrieb:
Mit Vsync und "krummen" Frameraten ist der Jitter der Verzögerungszeit nur noch halb so groß, ohne triple buffering ist zumindest die Frameratenstufung feiner (120, 60, 40, 30, 24, 20, ... statt 60, 30, 20, ...).

Ok, damit hätte man tatsächlich einen minimalen Vorteil, wobei ein 60Hz/FPS Setup mit V-Sync und "Adaptive-TrippleBuffer" (per Framelimitier) in der Praxis vermutlich nicht anders aussieht. (Wohlgemerkt wirklich mit 60FPS und nicht starken Schwankungen nach unten weil die GPU überfordert ist) Aber die 120Hz können dann Schwankungen etwas besser abfangen.


@Handysurfer: du hättest es wenigstens mal mit Fakten probieren können...
 
blackiwid schrieb:
btw soweit ich das bisher sah sind das ja nie echte native 120hz, das erreichen die hersteller doch nur mit taschenspielertricks, 120 240 oder wieviel hz auch immer. Hab mich da ja bei TVs interessiert dafuer. z.b. wird einfach mal ein schwarzel bild zwischen einen frame kurz eingeblendet und schon hat man seine fps erhoeht oder aehnliches das dann aber vor und nachteile hat.

Ist das bei Monitoren anders? zeigt es wirklich 120x ein neues bild dann an oder 144x? Wie gesagt nach meinen infos ist das bet tvs nicht so die haben dann ja oft auch 800hz oder mehr.

Richtig, Monitore darfst du nicht mit Fernseher gleich setzen. Bei Fernseher wird das Bild Zwischengerechnet, während es bei 120 Hz Monitoren "immer" echte 120 Hz sind. Ich habe bis heute noch keinen einzigen Monitor gesehen, bei denen 120 Hz hochgerechnet werden bzw. keine echten 120 Hz sind.
Dell hat manchmal Quatsch gemacht und zwei Panels verklebt, bei denen die Auflösung dann dem entsprach, was auf dem Papier stand, obwohl es kein richtiger "Ein-Panel-Monitor" war. Mir ist also nur Dell als "schwarzes Schaf" bekannt, was Monitore angeht.

Auf geizhals kannst du beispielsweise auch Fernseher suchen, bei denen echte / native 120 Hz oder mehr angezeigt werden. Diese 800 Hz gibt es nicht, jedenfalls nicht nativ und somit absolut uninteressant. Du musst nur auf die nativen Werte achten.
Genauso ist es auf mit dem Kontrast, der nativ niemals die angeworbenen 100.000.000:1 erreichen kann.
Ebenso wird bei der Reaktionszeit geschummelt. Wo 1 ms drauf steht, ist bis heute noch nie 1 ms drin gewesen. 6 ms Monitore haben oft 15-20 ms im Durchschnitt aber der Durchschnitt alleine ist egal, es kommt auf die Summe der einzelnen Verzögerungen an. So kann beispielsweise ein Monitor mit durchschnittlich 20 ms trotzdem schneller sein als ein Monitor mit durchschnittlich 10 ms. (das liegt aber auch daran, dass viele den InputLag mit der Bildwiederholzeit gleichsetzen, was wieder zwei verschiedene Themen sind ;)) Und selbst die Begrifflichkeiten sind falsch, weil jeder etwas anderes unter den einzelnen Begrifflichkeiten interpretiert. Ich kann auch bis heute nicht 100% sagen, was ich ansprechen möchte, da noch niemand die Begrifflichkeiten offiziell interpretiert hat.
 
Idon schrieb:
Link zur offiziellen Stellungnahme von AMD dazu, bitte
NVidia hat gesagt, dass sie kein Interesse haben, G-Sync für andere Hersteller zu öffnen, und auch kein Interesse an einem herstellerübergreifenden Standard für variable refresh haben. Was AMD dazu noch sagen soll, das weiß ich nicht.
Jesterfox schrieb:
Aber auf Adaptive Sync für TV Geräte kann ich vermutlich ewig warten. Also einfach VSync an und schauen das man 60FPS erreicht.
AMD hat bereits FreeSync über HDMI demonstriert und zur Standardisierung vorgeschlagen. Ich vermute, das zielt auf Fernseher und Spielkonsolen ab.
iN00B schrieb:
Das wird die nächsten 1-2 Jahre ein Wunschtraum bleiben. Das wird es erst mit DisplayPort 1.3 geben, und auch nur im Ultra-High-End. Keine der heute verfügbaren Grafikkarten kann einen solchen Monitor mit voller Auflösung/Bildwiederholrate ansteuern.
crustenscharbap schrieb:
Weiß einer ob dieses Adaptive bzw Freeesync auch auf Videos klappt?
Ja. Bei AMD allerdings nur im Vollbildmodus.
 
Ich dachte bis dato, dass Freesync nur in Verbindung mit Vsync funktioniert!?!? War ich da einem Irrtum aufgesessen?
 
Freesync ersetzt Vsync on/off und kombiniert die Vorteile beider Einstellungen. Die gewählte Einstellung bestimmt nur noch, was außerhalb des Monitor-Fangbereichs passiert.
 
diamdomi schrieb:
Die Monitore sollten sich generell mal anpassen:

2560x1440 bei maximal 24 Zoll, 120 hz +, ips und g-Sync/free-Sync
Und das für unter 500, am besten unter 350

Leider noch nix auf dem Markt oder angekündigt

Dann wäre ich auch dabei.

Beefsupreme schrieb:
wirds zum dem preis auch nie geben. da kannst du lange weiter träumen ...

Das Wort "nie" im technischen Bereich zu verwenden ist schon fast fahrlässig.
 
hab jetzt mal geschaut, hatte in lol glaub so 220 fps im game mal so generell spikes hab ich jetzt nicht geschaut aber kamera bewegung hat mal nichts geaendert hab nun mal auf 60fps max gestellt und vsync an und hab bis jetzt kein unterschied gemerkt :) naja der moni hat ja auch nur 60hz also sollte das auch passen und kann noch bisschen strom sparen :)
 
Das ist echt typisches BlaBla...
Gute Monitore konnten im Jahr 2000 bereits 100Hz darstellen - dann kamen die Drecks-TFTs mit 60Hz und dem Gefasel von "mehr braucht man ja ned".
Und jetzt will man uns das als Inovation verkaufen, dass die TFTs endlich dort angekommen sind, wo "ordentliche" Monitore schon vor 15 Jahren waren??? Für wie dumm hält man uns eigentlich? :freak:
Und vom Preis rede ich da erst garnicht...
 
Letztes Jahr hieß es :

2015, da kommen die ganzen Modelle mit Freesync/Gsync, WQHD, 144hz etc.

Ergebnis: Ja, es sind ein "paar" Monitore rausgekommen, aber die vorhergesagte Flut ist es beim besten Willen nicht !

Dieses Jahr heißt es, dass 2016 die Monitore mit den genannten Funktionen kommen sollen.

Fazit:
Ich bleibe weiterhin extrem skeptisch und bin teilweise verblüfft, wie wenig bis gar nichts in diesem Markt sich tut.

Ich will mir jetzt seit über 1 Jahr ein neuen Monitor holen, aber nicht zu diesen Preisen, aber warten bringt es diesmal auch nicht...
Was tun ?

Mfg
ssj3rd
 
schnief schrieb:
... Mit G-Sync ändern sich die Hz des Monitors aber auf die FPS des Spiels. Läuft dieses mit nur 40 FPS, gilt dies auch für den Mauszeiger. Das spürt man deutlich.

Bei Spielen, wo der Mauszeiger eine wichtige Rolle spielt, sollte man daher G-Sync abschalten, wenn man nicht mindestens 60 FPS erreicht.
:rolleyes:

lol danke für die erklärung!
Hört sich plausibel an.
Wenn ich eh 60fps für ein gutes spielgefühl brauche, dann spar ich mir nen g-sync/free-sync monitor, dank gutem alten vsync und triple buffering. Ist zumindest bei WoT so, das läuft butterweich ohne stottern oder irgendwas.
 
Habe grad mal bei einem Philips 144 Hz Monitor geschaut und ich sehe keinen Unterschied zwischen 144 Hz/Vsync on@60 fps und 60 Hz/VSync On@60 fps. Bein Vsync off ist das Bild bei 144 Hz natürlich viel ruhiger weil kaum tearing erkennbar ist. Letztens hatte ich auch mal einen GSync Monitor auf meinem Tisch stehen und da habe ich auch keinen Unterschied gesehen zwischen Gsync an oder aus. In meinen Augen wird das Thema viel heißer gekocht als es eigentlich ist.

Meiner Meinung nach sollte man eher das Geld in ein bessere Grafikkarte stecken, als in den Monitor. Der besagte Philips Monitor kostet im Moment 300€. Der günstigste GSync Monitor (ebenfalls von Philips) kostet 530€. Für die Ersparnis kann man mal ne Grafikkartenklasse höher springen.

Mag sein, dass ich auch in dem Bereich nicht so anspruchsvoll bin, ich sehe ja auch kein Unterschied zwischen 1ms TN-Panel und 5ms IPS-Panel Reaktionszeit.
 
zonediver schrieb:
Und jetzt will man uns das als Inovation verkaufen, dass die TFTs endlich dort angekommen sind, wo "ordentliche" Monitore schon vor 15 Jahren waren???

Bei Röhrenmonitoren gabs auch nur entweder Vsync-Hakelei oder Tearing, nur fiel das bei 85+ Hz nicht so sehr auf.
 
Ich bin atm auch auf der Suche nach einem neuen Monitor. Aber da mir das alles irgendwie noch nicht 100%ig gefällt, wird es dann jetzt eben doch der Eizo Foris FG2421. Ich möchte mich nämlich auch nur ungern auf eine Version festlegen. Und wer weiß, vielleicht wird der Eizo dann in ein paar Jahren zum Zweitmonitor degradiert, wenn die Sync-Monitore dann endlich "ausgereift" sind
 
Zuletzt bearbeitet:
Konkurrenz befördert Innovation. Wenn nvidia nicht mit Gsync herausgekommen wäre, wer weiß, dann würden wir wohl noch ohne Freesync leben. Das gleiche gilt für Mantle/DX12. Gsync ist eindeutig derzeitig das technisch überlegene Produkt, solange wie dies so ist, übt nvidia Druck auf AMD aus, sein System zu verbessern. Die größte Baustelle sind die Scaler, die nur in einem eingeschränkten Frequenzbereich Freesync anbieten. Hier muß AMD den Scaler-Herstellern in den Arsch treten, damit die das Problem mit einer neuen Generation fixen. Sobald beide Produkte auf einem Level sind, macht ein einheitlicher Standard auch für nvidia Sinn.
 
Zuletzt bearbeitet:
Zurück
Oben