Test AMD FreeSync im Praxistest

Daedal schrieb:
Mich würde dabei mal interessieren wie es bei 37 FPS eine verdoppelte Frequenz gibt, wenn Nvidia damit wirbt bis 30 Hz GSync zu liefern? Das widerspricht sich oder wir haben eine neue Lüge von Nvidia gefunden. Die doppelten Frames sollten erst unter 30 Hz beginnen somit.

Das könnte man erst dann "Lüge" nennen, wenn jemand dem Verdopplungstrick nennenswerte Funktionsmängel nachweisen würde. Bis jetzt sieht für mich alles nach einer vollständigen Erhaltung der G-Sync-Funktion aus, und zwar auch deutlich unterhalb von 30 Hz.

kisser schrieb:
Solange unterhalb von 40 Hz/fps Vsync deaktiviert ist, ist das gar kein Problem. Es gibt eben minimales Tearing.

Leider ist das Tearing bei 40 Hz eben nicht minimal, weil sich die zerrissenen Frames 25 ms lang ins Auge "einbrennen" statt 7 ms bei 144 Hz. Schon das Tearing bei 60 Hz hat mich so genervt, dass ich bis zum Erscheinen des ersten 120-Hz-Flachbildschirms meinen Röhrenmonitor behalten habe.

Kartenlehrling schrieb:
Das biete AMD ja mit der Einführung vom Omegatreiber ja auch an "Fluid Motion Video"

Zwischenbildberechnung ist wegen der hohen Latenzen für Spiele nicht zu gebrauchen. Trotzdem eine interessante Funktion. Allerdings nur dann, wenn sie auch Freeware-Playern wie VLC zur Verfügung steht, und nicht auf bestimmte Videoformate eingeschränkt ist.
 
JMP $FCE2 schrieb:
Leider ist das Tearing bei 40 Hz eben nicht minimal, weil sich die zerrissenen Frames 25 ms lang ins Auge "einbrennen" statt 7 ms bei 144 Hz.

OK, das ist ein Argument, dass ich nicht bedacht habe. Ich bezog mich auf die Anzahl der "Tears", und da ist es für fps < Hz ja nur eine pro angezeigtem Bild.

JMP $FCE2 schrieb:
Schon das Tearing bei 60 Hz hat mich so genervt, dass ich bis zum Erscheinen des ersten 120-Hz-Flachbildschirms meinen Röhrenmonitor behalten habe.

Da habe ich ja Glück, dass mein Asbach-Uralt-TFT (vor 11 Jahren im ALDI gekauft) mindestens 75Hz mitmacht. :D
 
Ich frag mich die ganze Zeit, warum die Freesync Monitore mit aktiviertem Vsync 40Hz verwenden. Wenn das Maximum anliegen würde, wäre das kein so großes Problem mehr. Ist die wahrgenommene Helligkeit zwischen 40Hz und eventuellen 144Hz so extrem, dass deshalb verzichtet hat? Oder ist es einfach eine technische Einschränkung?
 
JMP $FCE2 schrieb:
Das könnte man erst dann "Lüge" nennen, wenn jemand dem Verdopplungstrick nennenswerte Funktionsmängel nachweisen würde. Bis jetzt sieht für mich alles nach einer vollständigen Erhaltung der G-Sync-Funktion aus, und zwar auch deutlich unterhalb von 30 Hz.
Du verwechselst da was. 30Hz liegen nicht an wenn das Panel nie unter 40Hz kommt. Auch nicht wenn 30FPS gezeigt werden. Bei Freesync liegt die Maximale Frequenz an unter 40 FPS oder eben konstant 40Hz - je nachdem was ich als User auswähle.

Wie kann es einen Frequenzbereich geben zwischen 30-144 Hz wenn 30Hz gar nicht gehen?

VRR bedeutet selbe Frequenz wie die FPS und nicht die doppelten. Auch wenn ich die Lösung, die Nvidia gefunden hat gut finde. Doch wie das erneut unter die Leute gebracht wird ist einfach unterirdisch.
 
Du hast das irgendwie nicht richtig verstanden.

1. Mit einem Freesync-Monitor sind Refresh-Raten unter 40Hz gar nicht möglich. Sobald deine fps unter 40 fallen, ist die Refresh-Rate auf 40Hz gelockt, und kannst dann entweder VSync an oder ausschalten.
In diesem Fall hat man mit Freesync dann ein schlechteres Ergebnis als mit einem herkömmlichen 60Hz Monitor, der immerhin auf 60Hz gelockt ist und nicht auf 40Hz.

2. G-Sync bietet variable Bildwiederholraten (scheinbar) ohne minimales Limit an.
Sobald die fps-Zahl unter den kritischen Wert sinkt, wird die Refresh-Rate pro Frame verdoppelt (und später wohl verdreifacht usw.).
Somit arbeitet G-Sync auch unter 40fps noch genau so wie es soll, und man bekommt als User immer das maximal möglich flüssige Spielerlebnis.
 
Das hast du falsch verstanden. Die niedrigste Hz die beide Techniken erreichen sind 40 Hz. Nur weil Nvidia bei 35 FPS 70Hz ausgibt ergibt das keine Frequenz unter 40Hz.

Somit gibt es bei Gsync keinen Zustand in dem der Monitor 30Hz erzeugt und die Frequenzangabe 30-144Hz ist definitiv FALSCH. Ausser jetzt sind plötzlich Hz das selbe wie Fps. VRR bedingt diebselbe Hz und fps zahl. Doppelt so viel Hz wie FPS ist ein interessanter Workaround der gut zu funktionieren scheint. Aber dennoch nicht das selbe wie FPS=Hz wie das VRR bedingt.
 
Vielleicht einfach noch mal lesen, was ich geschrieben habe ... :rolleyes:
 
Daedal schrieb:
VRR bedeutet selbe Frequenz wie die FPS und nicht die doppelten. Auch wenn ich die Lösung, die Nvidia gefunden hat gut finde. Doch wie das erneut unter die Leute gebracht wird ist einfach unterirdisch.

Die Aufgabe von VRR in Spielen ist, 1. den Grafikchip nicht auf das Freiwerden des gerade dargestellten Bildpuffers warten zu lassen, und 2. die Latenz zwischen Übertragungsbeginn und Darstellung konstant und niedrig zu halten.

Bis jetzt sieht es nicht danach aus, als ob die eingefügten Refreshes diese beiden Funktionen irgendwie beeinträchtigen würden. Ein 24p-tauglicher Fernseher betreibt das Panel ja auch mit einem Vielfachen von 24 Hz, ohne dass das irgendwo dokumentiert ist. Weil es für das Ergebnis schlicht keine Rolle spielt.
 
Ja was denn? Stimmt die Angabe 30Hz etwa? Sind denn 66Hz bei 33 FPS das selbe wie 33Hz?
 
In beiden Fällen ist 30,3 ms lang dasselbe Bild zu sehen. Und der Bildwechsel erfolgt ohne Judder auf Kommando der Anwendung. Auftrag erfüllt.
 
Únd warum wird dann nicht einfach das so erzählt anstatt technisch falsche Spezifikationen beim Monitor-Modul zu verwenden? Erneut Nvidia?
 
Wer hat denn versprochen, dass die 30 Hz Refreshrate 1:1 zum Panel weitergereicht werden ? Es wird eine Blackbox (Monitor) beworben, die variable Refreshraten ab 30 Hz verarbeiten kann, und das kann sie, bzw. übertrifft diese Spezifikation sogar deutlich.
 
JMP $FCE2 schrieb:
Wer hat denn versprochen, dass die 30 Hz Refreshrate 1:1 zum Panel weitergereicht werden ? Es wird eine Blackbox (Monitor) beworben, die variable Refreshraten ab 30 Hz verarbeiten kann, und das kann sie, bzw. übertrifft diese Spezifikation sogar deutlich.

Hallo,

entschuldigt die Frage: Das heisst doch jetzt, dass sich alle positiven Effekte von Gsync bereits bei Frameraten deutlich unter 30fps einstellen? Wenn dem so ist, dann ist der Vorteil von Gsync bei geringen Frameraten ja nochmal größer als die anfängliche 30Hz vs. 40/48Hz Panel-Diskussion vermuten ließ. Ist das so korrekt?

(sorry, etwas undurchsichtiges Thema, zumindest für mich ;-)
 
JMP $FCE2 schrieb:
Wer hat denn versprochen, dass die 30 Hz Refreshrate 1:1 zum Panel weitergereicht werden ? Es wird eine Blackbox (Monitor) beworben, die variable Refreshraten ab 30 Hz verarbeiten kann, und das kann sie, bzw. übertrifft diese Spezifikation sogar deutlich.

Kann sie ja eben nicht, sondern ab 40 Hz. Das einzige das in Hz angeben wird ist die Frequenz des Panels, da wird nichts weiter gereicht. Und wenn das Panel keine 30 Hz kann dann sollte man das auch nicht behaupten, sondern das technisch korrekt bezeichnen. Wir sind doch noch im Technik Forum oder?
 
Der Monitor als Gesamtsystem wird beworben mit "NVIDIA G-Sync (30-144Hz)" , und das wird erfüllt.

wille1277 schrieb:
Das heisst doch jetzt, dass sich alle positiven Effekte von Gsync bereits bei Frameraten deutlich unter 30fps einstellen?

Mir ist zumindest bis jetzt keine Quelle bekannt, die dem Zwischenframetrick irgendwelche Funktionseinschränkungen ankreidet. Bei eigenen Tests mit dem Frameratenlimiter von Quake 3 und dem per DSR in die Knie gezwungenen Unigine Valley habe ich erst bei 5 fps eine Fehlfunktion (leichtes Dauerflimmern) festgestellt.
 
Zuletzt bearbeitet:
Wann bitte kann der Monitor 30 Hz wenn ab 40 Hz die Frames verdoppelt werden um die Frequenz zu verdoppeln? Bei 30 FPS liegen 60 Hz an..Es liegen niemals 30 Hz an.
 
Daedal schrieb:
Wann bitte kann der Monitor 30 Hz wenn ab 40 Hz die Frames verdoppelt werden um die Frequenz zu verdoppeln? Bei 30 FPS liegen 60 Hz an..Es liegen niemals 30 Hz an.

vllt. ist das ja in diesem fall auch asus, mit ihrem dort getesteten monitor anzukreiden(bei freesync sind ja auch die monitorhersteller schuld :rolleyes:).
praktisch ändert sich an g-sync nichts, es ist immer noch toll(vllt. sogar noch toller, weil es gar nicht so tief in den flimmerbereich abrutscht, in dem jeder ein flimmern sieht).
 
Aber ich denke das tolle an G-Sync ist das nvidia jedes Monitormodell absegnet.... wie passt das zusammen das jetzt Asus Schuld ist?
Dann hat nvidia offenbar einen Monitor G-Sync fähig gemacht, welcher so laut nvidia gar nicht G-Sync fähig sein darf.

Und bei "FreeSync" sind die Monitorhersteller nicht Schuld, weil die Monitorhersteller Adaptive Sync nutzen! FreeSync ist lediglich der Treibername von AMD und die Monitorhersteller sage das ihre Modelle zu FreeSync kompatibel sind.
 
Es zeigt eigentlich nur, dass GSync die selben Panels nutzt wie alle anderen. Was GSync definitv besser macht ist eben der Treiberworkaround unterhalb der 40 Hz. Dies wird wohl innerhalb der nächsten Updates bei Firmware und Treiber auch bei Freesync-Monitoren als zusätzliche Option problemos integrierbar sein durch die Monitor Hersteller. Dies wird wohl auch der Grund für die Marketing-Nebelkerze "30-144 Hz" gewesen sein.
 
Wenn AMD den Verdopplungstrick im Treiber nachrüstet, spricht eigentlich nichts dagegen, dass auch die jetzt erhältlichen Freesync-Monitore davon profitieren können. Die dürften gar nichts davon mitbekommen, ob von der Grafikkarte angelieferte Bilder im 60-Hz-Takt nun aus 60 neu berechneten fps stammen, oder aus doppelt geschickten 30 fps.

Nur bei den IPS-Modellen mit 48-75 Hz wird das wohl nichts - 2*47 Hz können sie auch nicht verarbeiten.
 
Zurück
Oben