News AMD: FreeSync 2 vereint Adaptive Sync und LFC mit HDR

aivazi, ich bin aktiver ALt+Tabber und aktiv auf beiden Monitoren, spiele fast nur im Fenster Modus. Eben gerade habe ich Osiris, New Dawn getestet, Early Access, max 1920*1200 Auflösung und damit nur im Fenstermodus möglich auf meinem Swift.

Am Ende zählt die subjektive Beurteilung und Präferenz, ob die wenigen genannten, aber immherin dennoch exklusiven - "Vorteile" von G-Sync einem selbst das wert ist, den Premiumaufschlag zu zahlen.
Man kann sich über nvidia gerne echauffieren und User wie mich, welche diese Features und Bequemlichkeit haben wollen, aber diese Features "wegreden" kann man nicht. Und genau diese Feauters beurteilt ja auch die Fachpresse so im Tenor: In Facetten ist G-Sync noch immer technisch überlegen und stabiler (durch das Hardwaremodul und insbesondere den Framebuffer) und funktioniert immer, aber das kostet Aufpreis, und jeder Gamer soll entscheiden, ob man das zahlen will.
Die "Fanboy" Keule ist unsachlich.
 
Laphonso schrieb:
Dann machen wir es doch bitte konkret G-Sync vs Freesync und anhand meiner Kaufentscheidung, die ich beim nächsten Monitor gerne berücksichtige, sofern ich ebenso durchweg "ja bei Freeync" erhalte

1.) G-Sync funktioniert out of the box und per se bei allen Spielen. Ich muss mich weder um Scaling Bereiche oder Kompatibilität bei den Spielen kümmern.
Freeync ist auch "plug & play" und funktioniert immer und überall, ja oder nein?
2.) G-Sync funktioniert ohne Einschränkung von 1-1xx Hz (bei mir 144), d.h. über alle Frequenzbereiche habe ich kein Tearing
Freeync auch, ja oder nein?
3.) G-Sync funktioniert uneingeschränkt im Fenstermodus, in jedem Spiel, auch bei Wechsel Alt+Tab Fullscreen --> Window und zurück
Freeync auch, ja oder nein?
4.) Bei G-Sync muss ich nichts weiter berücksichtigen, die G-Sync Monitore haben höchstens unterschiedliche Auflösungen und Hertz- Bereiche.
Das gilt bei den fast 100 (?) Freeync Monitoren (= Unterschied nur Hertz und Auflösung, sonst funktionieren alle gleich) auch, ja oder nein?

Mein Wissenstand ist jeweils NEIN bei allen 4 Fragen zu Freesync, ich bitte um Klarstellung. Siehe oben, lasse mich gerne belehren.

1. Ja.
2. Nein, G-Sync aber auch nicht. Der Frequenzbereich 1-30hz werden mit Frame-Doubling bei G-Sync realisiert. Dasselbe passiert bei Freesync. Die Obergrenze ist allerdings unübersichtlicher bei Freesync. Deine Tearing Angabe macht kein Sinn.
3. Ja
4. Nein. Deshalb ist dein Bashing bezüglich FS2 ja nicht nachzuvollziehen, denn dort wird mit LFC das korrigiert.

Aber mal ehrlich, als PC'ler erkundigst du dich in der Regel über Auflösung, Frequenz, Input Lag, Lichthöfe, Paneltyp, HDMI Version und bald auch noch über den BT.2020 Standard, welcher weitere Recherche über die Maximale Helligkeit erfordert.
Ich verstehe zwar, dass es nicht optimal ist, sich noch Gedanken über die Freesync-Range zu machen. Aber dies gehört ja mit FS2 zur Vergangenheit an. :)
 
Zuletzt bearbeitet:
Mugi schrieb:
1. Ja.
2. Nein, G-Sync aber auch nicht. Der Frequenzbereich 1-30hz werden mit Frame-Doubling bei G-Sync realisiert. Dasselbe passiert bei Freesync. Die Obergrenze ist allerdings unübersichtlicher bei Freesync. Deine Tearing Angabe macht kein Sinn.
3. Ja:)

1. Nein, siehe Deinen Vorposter
2. siehe oben, im low fps Bereich hat G-Sync noch die Alleinstellung "flackert/ruckelt nicht" (" but until we find a way to reduce screen flicker at low refresh rates, NVIDIA's G-Sync VRR implementation will have the edge for this scenario.")
3. EIngeschränkt, nativer Fenstermodus funktioniert nicht.

Aber gut, dass bei 3 gleich zwei Leute "JA" schreiben , ohne die Einschränkung zu nennen, aber dann nvidia Fanboysim und zuwenig Selbstinformation vorwerfen ;)


Bei 4. habe ich niemanden GEBASHT lol. Es ging um den Aufwand bei der Entscheidung, mehr nicht. Wem das egal ist, für den gilt 4 eh nicht, aber ich sprach MEINE out of the box und Bequemlichkeits Anforderung an
 
Zuletzt bearbeitet:
Laphonso schrieb:
2. siehe oben, im low fps Bereich hat G-Sync noch die Alleinstellung "flackert/ruckelt nicht" (" but until we find a way to reduce screen flicker at low refresh rates, NVIDIA's G-Sync VRR implementation will have the edge for this scenario.")

Dir ist bewusst, dass ein Release-Test nicht die aktuelle Situation widerspiegelt?
Dank LFC laufen die Free-Sync-Monitore bei <35FPS mit 70Hz, das von beschriebene Flickering aufgrund der niedrigen Refreshrateb tritt dabei nicht mehr auf. Selbes Problem hatte damals übrigens auch GSync, die Elektronik der Monitore war für niedrige Refreshraten nicht geeignet, sodass es zu ständigen Helligkeitsschwankungen kam.

Und zu deinem „out of the box“-Gedanken: Sowohl bei AMD als auch nVidia muss man die Sync-Technologien erst einmal aktivieren, also läuft wohl bei beiden nichts „out of the box“. Wenn dir das zu viel Aufwand ist, dann bist du sowieso bei PC-Gaming falsch.
 
Zuletzt bearbeitet:
Eines der wichtigsten Features bei eurem G-Sync vs. FreeSync vergleich vergesst ihr allerdings.

Damit der Monitor die Pixel des Panels korrekt ansteuern kann muss er genau wissen, wie lange es bis zum nächsten Refresh dauert.
Normalerweise war das immer kein Problem, da bei festen Refreshraten immer der gleiche Zeitraum zwischen den einzelnen Schaltvorgängen lag und so konnte man die Pixel auch einfach ansteuern.
Bei adaptiven Refreshraten muss man jetzt allerdings in Betracht ziehen, dass sich die Refreshzeit jeder Zeit verlängern oder verkürzen können.
Das kann dann auf einmal dazu führen, dass die Pixel entweder zu schnell oder zu langsam schalten, wenn man nicht genau weiß mit welcher Frequenz der Monitor gerade arbeitet.

Das Problem von FreeSync-Monitoren ist jetzt, dass die keine zusätzliche Hardware integriert haben, die ihnen Auskunft darüber gibt, wann sie mit dem nächsten Refresh zu rechnen haben. Die bekommen einfach irgendwann das Signal und müssen dann reagieren.
Ohne vorhersagbare oder regelmäßige Refreshsignale kann man aber keinen vernünftigen Overdrive-Algorithmus produzieren und von daher ist die Qualität von FreeSync Displays immer ein wenig schlechter als die von G-Sync Displays.
Die wissen nämlich anhand des G-Sync Moduls im Monitor wie lange die Refreshzeiten sind und können daraufhin ihren Overdrive-Algorithmus so anpassen, dass die Pixel immer korrekt schalten.

LCD-Response.png
 
Zuletzt bearbeitet:
Laphonso schrieb:
1. Nein, siehe Deinen Vorposter
2. siehe oben, im low fps Bereich hat G-Sync noch die Alleinstellung "flackert/ruckelt nicht" (" but until we find a way to reduce screen flicker at low refresh rates, NVIDIA's G-Sync VRR implementation will have the edge for this scenario.")
3. EIngeschränkt, nativer Fenstermodus funktioniert nicht.

Aber gut, dass bei 3 gleich zwei Leute "JA" schreiben , ohne die Einschränkung zu nennen, aber dann nvidia Fanboysim und zuwenig Selbstinformation vorwerfen ;)


Bei 4. habe ich niemanden GEBASHT lol. Es ging um den Aufwand bei der Entscheidung, mehr nicht. Wem das egal ist, für den gilt 4 eh nicht, aber ich sprach MEINE out of the box und Bequemlichkeits Anforderung an

1. Ein wenig albern, wenn du meinst, dass man bei einem neuen Monitor die Frequenz nicht einzustellen braucht. Du gehst aber vermutlich vom DAU aus, der seinenn 144hz Monitor mit 60hz betreibt, weil er von 'Plug 'n Play' ausgeht, oder? Dann zieht dein Argument aber bei G-Sync auch nicht.

2. Ich kann das mit dem Flackern nicht beurteilen, als ich mit CRU rumspielte, habe ich die Freesync-Range ohne Flackern auf 25hz runterbekommen. Oder meint man damit so ein Flackern, dass nur durch Highspeedkameras erkennbar wird?

3. Da hast du wohl recht. Ich habe einfach nicht daran gedacht, bzw. ich habe diesen Umstand verdrängt, dass dies zum jetzigen Zeitpunkt nicht geht.
 
Zuletzt bearbeitet:
BookerDeWitt schrieb:
Dir ist bewusst, dass ein Release-Test nicht die aktuelle Situation widerspiegelt?
Dank LFC laufen die Free-Sync-Monitore bei <35FPS mit 70Hz, das von beschriebene Flickering aufgrund der niedrigen Refreshrateb tritt dabei nicht mehr auf. Selbes Problem hatte damals übrigens auch GSync, die Elektronik der Monitore war für niedrige Refreshraten nicht geeignet, sodass es zu ständigen Helligkeitsschwankungen kam.
Dem widerspricht direkt der Beitrag:
https://www.reddit.com/r/Amd/comments/5lbbar/borderless_window_freesync_technical_details/dbv5dyf/
"I still have microstutter here and there on my AMD build with borderless windowed and freesync turned on."

Und zu deinem „out of the box“-Gedanken: Sowohl bei AMD als auch nVidia muss man die Sync-Technologien erst einmal aktivieren, also läuft wohl bei beiden nichts „out of the box“. Wenn dir das zu viel Aufwand ist, dann bist du sowieso bei PC-Gaming falsch.

Ja, einmal G-Sync aktivieren für Vollbild- und Fenstermodus, und nach Treiberaktualisierung, fertig.
Wenn das bei Freeync auch so läuft und danach keine weiteren Einstellungen oder Anpassungen (LFC läuft automatisch? Es sind keine weiteren Modi mehr auszuwählen?) nötig sind, dann verstehe ich das als Freesync = Ja.
Ergänzung ()

Freesync Flickering ist wohl immer noch ein Thema, BookerDeWitt. Auch 2 Jahre nach meiner Entscheidung pro G-Sync

https://www.reddit.com/r/Amd/comments/5721lj/has_the_freesync_flicker_ever_gone_away_100/

Wenn ich weiter suche finde ich unzählige Themen und Beiträge zu Microstutter und Flicker Problemen, die ich so NICHT bei G-Snyc finde/habe.

Meine Botschaft ist: Will ich diese potenziellen Störfaktoren ausschließen, brauche ich dafür Hardware, und zwar das G-Sync Modul. Dafür bezahle ICH "Premiumpreis". Und verstehe, wenn man das nicht machen möchte.
Sobald Freesync alles kann, was G-Sync kann - und das auch so stabil und in der gleichen Qualität abliefert - gibt es keinen Grund mehr, G-Sync Aufreise zu zahlen.
 
Zuletzt bearbeitet:
@ Laphonso
also ich hatte noch nie mikroruckler unter freesync (mein monitor 30-75hz)
auch keiner meiner bekannten hat mal etwas irgendetwas ähnliches erzählt
und ich merke es sofort wenn meiner 980ti/1080 der speicher ausgeht also ich weiß was mikroruckler sind

Laphonso schrieb:
Ja, einmal G-Sync aktivieren für Vollbild- und Fenstermodus, und nach Treiberaktualisierung, fertig.
Wenn das bei Freeync auch so läuft und danach keine weiteren Einstellungen oder Anpassungen (LFC läuft automatisch? Es sind keine weiteren Modi mehr auszuwählen?) nötig sind, dann verstehe ich das als Freesync = Ja.

ich musste bei freesync genauso wenig aktivieren wie bei gsync
ein klick im treiber
ka was es da zu diskutieren gibt

ich zumindest spühre keinen unterschied ob ich an einem freesync monitor spiele oder gsync
und ich kenne auch keinen anderen der das tut
 
Laphonso schrieb:
1. Nein, siehe Deinen Vorposter
2. siehe oben, im low fps Bereich hat G-Sync noch die Alleinstellung "flackert/ruckelt nicht" (" but until we find a way to reduce screen flicker at low refresh rates, NVIDIA's G-Sync VRR implementation will have the edge for this scenario.")
3. EIngeschränkt, nativer Fenstermodus funktioniert nicht.

Bei 4. habe ich niemanden GEBASHT lol. Es ging um den Aufwand bei der Entscheidung, mehr nicht. Wem das egal ist, für den gilt 4 eh nicht, aber ich sprach MEINE out of the box und Bequemlichkeits Anforderung an

1.) Wie schon einmal gesagt, weder bei Freesync noch bei G-Sync gibt es die "Out of the Box"-Erfahrung.

Bei BEIDEN muss es im Treiber aktiviert werden.
Bei BEIDEN muss die neue Wiederholfrequenz eingestellt werden.
Bei BEIDEN muss im Spiel, wenn nötig die Wiederholfrequenz eingestellt werden.

Also nehmen sich weder G-Sync noch Freesync was vom Konfigurations Aufwand.

Ergänzung: Freesync hat im Treiber sogar nur einen Anwählbutton, welcher für alles fungiert, Freesync, LFC sowie für Vollbild und Borderless Window.

2.) Es flackert nicht, auch nicht bei niedrigen Frequenzen.

3.) Das wurde schon geklärt :D

4.) Wie oben schon gesagt, bei beiden muss man dasselbe einstellen.

Laphonso schrieb:
Dem widerspricht direkt der Beitrag:
https://www.reddit.com/r/Amd/comments/5lbbar/borderless_window_freesync_technical_details/dbv5dyf/
"I still have microstutter here and there on my AMD build with borderless windowed and freesync turned on."



Ja, einmal G-Sync aktivieren für Vollbild- und Fenstermodus, und nach Treiberaktualisierung, fertig.
Wenn das bei Freeync auch so läuft und danach keine weiteren Einstellungen oder Anpassungen (LFC läuft automatisch? Es sind keine weiteren Modi mehr auszuwählen?) nötig sind, dann verstehe ich das als Freesync = Ja.
Ergänzung ()

Freesync Flickering ist wohl immer noch ein Thema, BookerDeWitt. Auch 2 Jahre nach meiner Entscheidung pro G-Sync

https://www.reddit.com/r/Amd/comments/5721lj/has_the_freesync_flicker_ever_gone_away_100/

Wenn ich weiter suche finde ich unzählige Themen und Beiträge zu Microstutter und Flicker Problemen, die ich so NICHT bei G-Snyc finde/habe.


Das sieht echt nur nach Cherry Picking aus.

Das Szenario mit dem Flackern betrifft Youtube im Vollbild und keine Spiele, weil die 144 Hz gerne mal Probleme in Windows machen.

BTW: wird auch ein BenQ XL2730Z verwendet, welcher in der Serie für dieses Problem bekannt ist.

Turns out my monitor was indeed defective. I returned it and the new one doesn't have the flicker.


Und das Ruckeln betrifft ein Spiel im Borderless Window, welches Mikrostutter hat, welche im Vollbild jedoch Verschwinden.
 
Zuletzt bearbeitet:
noxon schrieb:
Eines der wichtigsten Features bei eurem G-Sync vs. FreeSync vergleich vergesst ihr allerdings.

Damit der Monitor die Pixel des Panels korrekt ansteuern kann muss er genau wissen, wie lange es bis zum nächsten Refresh dauert.
Normalerweise war das immer kein Problem, da bei festen Refreshraten immer der gleiche Zeitraum zwischen den einzelnen Schaltvorgängen lag und so konnte man die Pixel auch einfach ansteuern.
Bei adaptiven Refreshraten muss man jetzt allerdings in Betracht ziehen, dass sich die Refreshzeit jeder Zeit verlängern oder verkürzen können.
Das kann dann auf einmal dazu führen, dass die Pixel entweder zu schnell oder zu langsam schalten, wenn man nicht genau weiß mit welcher Frequenz der Monitor gerade arbeitet.

Das Problem von FreeSync-Monitoren ist jetzt, dass die keine zusätzliche Hardware integriert haben, die ihnen Auskunft darüber gibt, wann sie mit dem nächsten Refresh zu rechnen haben. Die bekommen einfach irgendwann das Signal und müssen dann reagieren.
Ohne vorhersagbare oder regelmäßige Refreshsignale kann man aber keinen vernünftigen Overdrive-Algorithmus produzieren und von daher ist die Qualität von FreeSync Displays immer ein wenig schlechter als die von G-Sync Displays.
Die wissen nämlich anhand des G-Sync Moduls im Monitor wie lange die Refreshzeiten sind und können daraufhin ihren Overdrive-Algorithmus so anpassen, dass die Pixel immer korrekt schalten.

Anhang anzeigen 599969

MMn ist das kein relevantes Feature von GSync. Overdrive hat selbst auch Nachteile und ob es implementiert wird, entscheidet ja letztlich der Monitorhersteller. Desweiteren halte ich es schon für denkbar, auch mit Freesync Overdrive zu implementieren. Z. B. wäre es denkbar, die Zeit bis zum nächsten Frame vorherzusagen (Glaskugel :)). Da die FPS über der Zeit zu 99% einen stetigen Verlauf haben, kann auf Basis der vorhergehenden Frametimes eine gute Vorhersage für den nächsten Frame getroffen werden.
 
foxio schrieb:
MMn ist das kein relevantes Feature von GSync. Overdrive hat selbst auch Nachteile...
Kein relevantes Feature? Das finde ich aber schon. Erst recht, wenn man ein IPS Panel verwendet, denn die kann man ohne Overdrive überhaupt nicht zum Spielen verwenden. TN Panel mögen noch gehen, obwohl auch da eine vernünftige Ansteuerung nicht wirklich möglich ist.
Nachteile hat Overdrive mittlerweile auch kaum noch, wenn es vernünftig implementiert ist. Mein Acer hat zum Beispiel eine hervorragende Overdrive-Implementierung.

Ein besseres Signal kann man sich gar nicht wünschen, er erzeugt keinen zusätzlichen InputLag und zeigt ein sehr homogenes Reaktionsverhalten
lag.jpgod_normal_144_100-200.pngresp_6.png

Das das so gut funktioniert liegt mitunter auch am G-Sync Modul.

Natürlich versuchen FreeSync Monitorhersteller das auch so gut wie möglich zu implementieren und man sollte eigentlich auch denken, dass man die Frametimes recht gut abschätzen können sollte, aber von dem was man so liest scheint das wohl nicht so einfach zu sein.

https://www.rockpapershotgun.com/2015/04/09/g-sync-or-freesync-amd-nvidia/

Essentially, with FreeSync enabled, a shadowy ‘ghost’ version of moving objects can be seen trailing just behind in their wake. Much depends on speed of movement and the colours of both the objects and the background. But as it happens, it’s particularly apparent with AMD’s FreeSync demo involving a 3D-rendered wind turbine. The ghosting that appears behind the blades with FreeSync enabled is as obvious as it is ugly.

Critically, it’s not there with FreeSync off, regardless of any other settings including refresh rates or V-sync. So it’s not an inherent panel problem. You can also run the same demo on the Asus G-Sync panel with dynamic refresh enabled and clearly see that Nvidia’s solution doesn’t have the same problem.

Sobald man also FreeSync aktiviert entstehen Ghosting Effekte auf einem Panel, das eigentlich gar nicht mit Ghosting Problemen zu kämpfen hat. Eine Tatsache die dem asynchronen Refresh geschuldet ist und wogegen die Monitorhersteller anscheinend auch so einfach nichts machen können.
 
Zuletzt bearbeitet:
noxon schrieb:
...
Das das so gut funktioniert liegt mitunter auch am G-Sync Modul.
Märchenstunde?

Wenn "Overdrive" bei FreeSync/GSync aktivierbar ist, dann muss der Monitor Hersteller eben nicht wissen wie lange es bis zum nächsten Refresh tatsächlich dauert. Selbst die GKarte, SpieleEngine, ... "wissen" nicht wie lange das nächste Bild benötigt.
Das was du schreibst ist Stuss!

Der Monitor Hersteller muss "nur" dafür sorgen dass seine Angaben über die SyncRange stimmen und er diese "Schaltzeiten" mit Overdrive und der angegebenen FreeSync/GSync Range auch einhalten kann. Oder er hat Overdrive bei aktiviertem FreeSync/Gsync zu deaktivieren.

Und bitte keine FreeSync/GSync vergleiche (Im besonderen bei aktiviertem Overdrive!) mit unterschiedlichen Monitorherstellen und bitte bitte nicht von:
April 9th, 2015 at 10:00 pm
Danke ;)
 
Zuletzt bearbeitet:
noxon schrieb:
Mein Acer hat zum Beispiel eine hervorragende Overdrive-Implementierung.

Dein Acer hat dasselbe Panel wie mein Acer ( XF270HUA ) und das Overdrive ist im Freesync Modus fixierr und kann nicht verändert werden, dadurch kommt es auch zu keinerlei Ghosting in irgendeiner Situation.
 
Könnte mir vorstellen daß freesync 2 kaum unter QHD Monitoren erscheinen wird. Realistischer erscheint mir da alles ab 3840 x 2160 Displays und aufwärts. Ohnehin werden zertifizierte Displays wohl anfangs extrem teuer sein denn gute Bildqualität alleine hat schon ihren Preis, gepaart mit Spieletauglichkeit wird es richtig kostspielig.
 
D708 schrieb:
Mir geht es z.B auf den Sack, dass man inzwischen aufpassen muss, welchen Bildschirm und welche Graka man zusammen kauft.

Freesync Monitore sind nicht Freesync only sondern können mit sämtlicher APIs kommunizieren,die den VESA Standart unterstützen. Und dieser Standart ist quelloffen. Das AMD ihre Lösung nicht kostenfrei rausgibt, ist für mich normal.

Die Implimentierung von Adap. V-Sync ist Softwaretechnisch zu lösen, also NVIDA könnte beides parallel benutzen und auf die "kleinen" Vorteile von Gsync pochen.

Sorry, dass ich wieder derjenige sein muss, aber es ist 2017 und leute machen immernoch diesen Fehler!

StandarD wenn man von einem Definierten Zustand redet.
StandarT (Stand art) wenn man davon redet, wie man stehT.

Ansonsten muss ich dir aber zustimmen.
Es nervt, macht den Monitorkauf inzwischen umständlich kompliziert.
Früher hat man einfach nach der Zollgröße und nach Anschlüssen geschaut. Ich mein Freesync funktioniert auch mit Nvidia Karten. Is nicht so, dass das Bild schwarz bleibt und für den Ottonormaluser ists wahrsch. egal, aber für uns Enthusiasten isses wieder haufen arbeit.

Wobei es prinzipiell wie immer ist:
Wenn man Geld sparen will, muss man recherchieren und sich informieren: Freesync
Wenn man einfach will das es tut und Geld nicht so wichtig: G-Sync.
 
crowblade schrieb:
Wobei es prinzipiell wie immer ist:
Wenn man Geld sparen will, muss man recherchieren und sich informieren: Freesync
Wenn man einfach will das es tut und Geld nicht so wichtig: G-Sync.

Auch wenn ich dir zustimmen muss, werden sie dich für diese Aussage steinigen. Gut zusammen gefasst. :D
 
janeeisklar schrieb:
Wenn "Overdrive" bei FreeSync/GSync aktivierbar ist, dann muss der Monitor Hersteller eben nicht wissen wie lange es bis zum nächsten Refresh tatsächlich dauert.



Selbst die GKarte, SpieleEngine, ... "wissen" nicht wie lange das nächste Bild benötigt.
Das was du schreibst ist Stuss!
Das ganze geht natürlich nur mit Puffern. In sofern ist "Vorhersage" wohl das falsche Wort, sondern es ist vielmehr ein "Rückblick".
Ein Bild kommt an, wird in einem Speicher gepuffert und erst wenn das nächste Bild im Puffer ankommt weißt du wie lange es gedauert hat und kannst anhand der beiden Bilder und dem Zeitunterschied deine Overdriveberechnungen durchführen.

Was meinst du, warum das G-Sync Modul 768 MB Speicher mit an Bord hat. Die werden da ja nicht ohne Grund verbaut.

Der Monitor Hersteller muss "nur" dafür sorgen dass seine Angaben über die SyncRange stimmen und er diese "Schaltzeiten" mit Overdrive und der angegebenen FreeSync/GSync Range auch einhalten kann. Oder er hat Overdrive bei aktiviertem FreeSync/Gsync zu deaktivieren.
Overdrive deaktivieren ist keine Option und es reicht auch nicht dem Overdrive einfach nur eine Range mitzuteilen.
Macht das Bild denn nicht deutlich, warum der Algorithmus wissen muss, wie lang der Zeitraum zwischen den Frames sein muss?

LCD-Response.png

Du willst eigentlich die graue Linie treffen, wenn aber ohne dein Wissen der Refresh zu früh kommt hast du bereits eine viel zu hohe Overdrivespannung angelegt, weil du eigentlich erwartet hast, dass der Subpixel mittlerweile schon wieder viel dunkler geworden ist. Das ist er aber nicht un wenn du ihn jetzt erneut mit zu hoher Spannung übersteuerst, dann wird er zu hell.

Anders herum gilt das gleiche Spiel, wenn der Refresh zu lange auf sich warten lässt, dann wird der Subpixel einfach zu dunkel.


Und bitte keine FreeSync/GSync vergleiche (Im besonderen bei aktiviertem Overdrive!) mit unterschiedlichen Monitorherstellen und bitte bitte nicht von:
April 9th, 2015 at 10:00 pm
Danke ;)
Das ist aber auch nur einer von massenhaft vielen Artikeln, Berichten und Foreneinträgen im Netz, die alle das selbe Bild wiederspiegeln, wenn du mal nach dem Thema googlest.
G-Sync = keinerlei Ghosting, FreeSync = Ghosting

Selbst AMD drückt sich schön um das Thema herum.

I asked Nvidia's Tom Petersen about this issue, and he explained that maintaining the correct overdrive voltage needed to reduce ghosting on an LCD with variable refresh rates is a tricky challenge, one that Nvidia worked to overcome in the development of its G-Sync module. I think that's a credible claim.

When I asked AMD's Robert Hallock for his take, he responded with: "In our view, ghosting is one part firmware, one part panel, and zero parts FreeSync." I think that also is a credible statement.

Laut AMD liegt das also alles in der Verantwortung der Monitorhersteller, was in der Tat eine vertretbare Aussage ist.
Was hat AMD damit zu tun, wie Monitorhersteller ihre Displays ansteuern?
AMD kann hier auch nichts anderes machen. Das ist ganz einfach so, wenn man auf DP1.2a setzt. Damit geht das einfach nicht anders und das ist ganz einfach ein Nachteil gegenüber einem Hardwaremodul in den Monitoren, weswegen nVidia ja auch sagt, dass der adaptiveSync Vesa Standard nicht deren Qualitätsansprüchen genügt.


aivazi schrieb:
Dein Acer hat dasselbe Panel wie mein Acer ( XF270HUA ) und das Overdrive ist im Freesync Modus fixierr und kann nicht verändert werden, dadurch kommt es auch zu keinerlei Ghosting in irgendeiner Situation.
Du sagst mir lediglich, dass du keinerlei Möglichkeiten hast unterschiedliche Overdrive-Settings auszuwählen. Das sagt aber nichts über die Qualität des Overdrive-Algorithmusses aus, die dein Monitor verwendet.
Ich habe doch gesagt, dass die Hersteller das so gut wie möglich versuchen das zu lösen, es aber nicht so perfekt funktioniert (funktionieren kann) wie bei G-Sync, da ihnen die nötige Information über den nächsten Refresh fehlt.
Implementiert tun das aber alle IPS Panel, denn ansonsten würdest du nur auf eine Reaktionszeit von 16ms g2g kommen.
 
noxon schrieb:
Das ganze geht natürlich nur mit Puffern. In sofern ist "Vorhersage" wohl das falsche Wort, sondern es ist vielmehr ein "Rückblick".
Ein Bild kommt an, wird in einem Speicher gepuffert und erst wenn das nächste Bild im Puffer ankommt weißt du wie lange es gedauert hat und kannst anhand der beiden Bilder und dem Zeitunterschied deine Overdriveberechnungen durchführen.
Der Puffer ist sinnlos und, so wie du es beschreibst, drastisch Latenz erhöhend -also Unsinn für Overdrive.

ZB bei einer "Syncrange" von 30-120 Hz "kennt" der Monitor schon im voraus ALLE möglichen Zeitintervalle.
Sobald ein Bild dargestellt wurde und ein neuer refresh kommt ist die "laufzeit" ebenfalls bekannt _auch OHNE PUFFER_ dann, wenn es in seiner Syncrange liegt, wird das neu darzustellende Bild mit im vorausberechneten Spannungswerten, die der Hersteller schon für alle möglichen Zeitintervalle -passend zum Panel(!)- abgelegt hat Dargestellt.
Nur wenn ein Hersteller sein "altes" Statisches (zB 60Hz) Overdrive nicht für FreeSync/Gsync anpasst sollte er es deaktivieren.

Also nochmal, bitte vergleiche nicht Äpfel mit Birnen und bitte bitte etwas aktuellere "vergleiche" als von Anfang 2015.
 
noxon schrieb:
Wo steht, dass das ein offener Standard ist?.
Hier z.B.
reeSync was initially developed by AMD in response to NVidia's G-Sync. FreeSync is royalty-free, free to use, and has no performance penalty.

kisser schrieb:
Wieso sind Freesync Monitore dann teurer als Monitore ohne Freesync?
Weil Panels die damit umgehen können, eben teurer sind als 'Normale'!?

noxon schrieb:
FreeSync™ ist auch nur eine proprietäre Implementation eines offenen Standards..
Neien;) Freesync IST Adaptive Sync mit AMD Branding. Technisch identisch ohne properitäre Hardware! Wie bei GsyncHW, die abfragt, ob auch wirklich Nvidia Hardware verbaut ist!
 
Zuletzt bearbeitet:
Black&White schrieb:
Die Range von Freesync kann man auch modden (ja klappt bei vielen eher schlecht als recht).
sorry für OT, aber bitte wie? Freesync greift ert mit >48 fps?
Im Monitorthread hieß es, dass Freesync ja schon alles kann wie G-Sync, also out of the Box Skalierung von 1-1xx fps/hz über alle Frequenzbereiche, ohne Tearing, ohne Ghosting, ohne stutter, ohne Flicker, man müsse nichts modden oder mit Profilien justieren?
Oder habe ich hier etwas falsch verstanden?
 
Zurück
Oben