Test AMD FreeSync im Praxistest

@Wolfgang
Wird es noch weitere Tests geben? Vielleicht etwas "wissenschaftlicher" und nicht so subjektiv?

Es sind doch noch einige Fragen zu klären...
 
FreezR,
ich dachte, ich hätte auf sarkastische Art und Weise gezeigt, dass deine Aussage nicht gerade, nunja, intelligent war.
Warum sollte man G-Sync für etwas kritiseren, für das es nicht vorgesehen war?

Du hast das Konzept nicht verstanden. Das ist aber nicht die Schuld von jeglicher Art von variabler Refreshtechnik. :freak:

@Kisser,
inwieweit sind die Monitorhersteller schuld an der jetzigen Qualität? Wurden diese unterrichtet, dass ein Austausch eines Scalers nicht ausreicht? Immerhin tragen diese Monitor das Freesync Zertifikat von AMD. Also ist diese Qualität von AMD abgesegnet.
 
BlauX schrieb:
Kisser, oder Sontin 2.0,

Tja. Offene Industriestandards erlauben eben kein rum fuschen dritter.

Mal davon abgesehen, dass deine Antwort zu ziemlich komplett an meinem Posting vorbei geht:
Bei offenen Standards hat man den Nachteil, auf andere angewiesen zu sein, oder man verschenkt seine Investitionen. Beides ist schlecht, um wirtschaftlich erfolgreich zu sein.

Beispiel:
Ist bei Apple irgendetwas offen? Ist Apple erfolgreich?
 
"inwieweit sind die Monitorhersteller schuld an der jetzigen Qualität? Wurden diese unterrichtet, dass ein Austausch eines Scalers nicht ausreicht? Immerhin tragen diese Monitor das Freesync Zertifikat von AMD. Also ist diese Qualität von AMD abgesegnet. "

Was hast du denn andauernd mit der Qualität? Es gibt einen einzigen Test mit Ghosting?
Wo siehst du das denn bitte durch die Bank bestätigt? Bist du noch ganz dicht in der Birne Junge?

Seitenweise wird von dir trotz Hinweisen einfach ein Umstand angenommen, der gar nicht bewiesen ist, einfach frei erfunden sozusagen.
Wieso sperrt dich eigentlich niemand? Ist das zuviel verlangt, solche Dummschwätzer mal zu sperren?
 
Zuletzt bearbeitet:
Der Vergleich Hinkt aber, denn Apple profitiert hauptsächlich vom Image und der "Mode" "ich möchte Modern sein". Apple hat ein unglaublich gutes Marketing aber das macht das Produkt ja nicht automatisch gut
 
Bei Apple müsste man dann Google mit Android entgegenhalten. Da ist vieles offener Standard.

Beides kann sehr erfolgreich sein. Es kommt halt darauf an was man daraus macht.
 
also nicht für 23,456789 fps einer Blu Ray geeignet?
 
Es gibt natürlich auch Gründe dafür, dass AMD das Limit bisher auf 40 Hertz fesgesetzt hat.
Denn wenn wir schon bei PCper sind, dann kann man ruhig auch erwähnen, dass Pcper festgestellt hat dass bei G-sync rund um 30 FPS Helligkeitssprünge festgestellt wurden.

Alles auch nicht alles rosig mit G-sync bei 30 FPS. Aber diese Informationen, werden dann von den Spezialisten hier wieder unterschlagen.:rolleyes:

Soviel dazu G-sync sei viel besser.
 
Also ich sehe kein Problem von FreeSync an sich, wenn der Monitor eine Mindestfrequenz hat, dann ist das evtl. ungünstig, weil ein Sync gesendet werden muss (letzter Framebuffer) und die Latenz zum nächsten Frame evtl. kleiner ist als seine Maximalfrequenz.

Vielleicht habe ich es nicht richtig verstanden, aber wenn ab eine Minimalfrequenz etwas Flimmert, ist es ein Problem des Monitors.

Wenn man unter die Minimalfrequenz bei FreeSync kommt, muss man sowieso eine Sync erzwingen. Wäre nett wenn mir jemand erklären kann, wie GSync dieses Problem technisch anders lösen kann als FreeSync, außer den Monitorhersteller zu zwingen sein Display min. XHz (z.B. 30Hz) kompatibel zu machen.

Möglich Lösungen wären doch nur den Sync präventiv an der maximalen Frequenz zu halten, was wohl stark Mikrorucklern ähneln würde, oder die ausstehende Zeit bis zum nächsten Frame abzuschätzen und dann in der Hälfte dieser Zeit zu Syncen (kurzzeitig doppelte Frequenz) -> Halte ich aber eher für ein Treiberfeature, außer die Hardware kann in die Zukunft schauen ;)


Code:
(F = Berechnung fertig)
(S = Sync (bzw. Bufferswap))

mit VSync (min. doppelt gepuffert)

        1/60  2/60  3/60  4/60
        S-----S-----S-----S-----S
>60fps  |---F |---F |--F  |--F  |   kein Ruckeln
<>60fps |----F|-----|F----|---F |   2. & 3. Frame brauchen 33ms (Zuckeln)

mit adaptiv Sync (min. doppelt gepuffert)
                        
                            S  S    S  S   S                 
>monitor min Frequenz   ----F--F----FFWW----F   (wenn über maximale Refreshrate dann Warte)

                           S       Z   S    (Z ist Sync nach maximaler Monitordelay letztes Bild)
<>monitor min Frequenz  ---F-----------F
                                   <---> (wenn Abstad kleiner als Maximale Refrahsrate dann warten)

Vielleicht kann’s mir jemand erklären, denn ich sehe keinen, durch Software lösbaren, Unterschied zwischen G & FreeSnyc.
 
noxon schrieb:
PS:
Man hätte im Übrigen auch mal ULMB erwähnen können. Das gehört genauso zu GSync dazu wie das Sync Feature an sich.

Vielleicht bin ich diesbezüglich nicht auf dem neuesten Stand, aber meines Wissens nach schließt sich die gleichzeitge Aktivierung von Gsync und ULMB aus, weil sich die PWM-modulierte Beleuchtung eines Monitors nicht auf die niedrigen Refresh/Hz-Zahlen bei Gsync anpassen lässt. Das Bild würde bei niedrigen Hz flimmern.
 
Sontin schrieb:
FreezR,
ich dachte, ich hätte auf sarkastische Art und Weise gezeigt, dass deine Aussage nicht gerade, nunja, intelligent war.
Warum sollte man G-Sync für etwas kritiseren, für das es nicht vorgesehen war?

Du hast das Konzept nicht verstanden. Das ist aber nicht die Schuld von jeglicher Art von variabler Refreshtechnik. :freak:

@Kisser,
inwieweit sind die Monitorhersteller schuld an der jetzigen Qualität? Wurden diese unterrichtet, dass ein Austausch eines Scalers nicht ausreicht? Immerhin tragen diese Monitor das Freesync Zertifikat von AMD. Also ist diese Qualität von AMD abgesegnet.

Achso, mein Beitrag war nicht sehr intelligent, schon klar.
Es ist nun dafür nicht vorgesehen? Wofür ist denn genau von Nvidia vorgesehen? Es soll doch wohl das Spielgefühl und die Optik (Tearing..) verbessern, nicht? Und da hat es, in dem von mir genannten Fall schlicht versagt. Der mag relativ speziell sein, nichtsdestotrotz ist es nach heutigem Stand der Dinge, dort eine Nullnummer. Da kannst du reden was du willst. Und welches Konzept habe ich nicht verstanden? Konzeptionell scheint Freesync für solche Fälle ja besser gerüstet zu sein. Da habe ich kein Nachteile durch erzwungenes Vsync und bin, sobald die FPS wieder =< der Frequenz des Monitors sind, im dynamischen Sync.

Aber stattdessen spottest du lieber über GhostSync und der gleichen.
Übrigens, hat dein toller Test eigentlich mal den Monitor per DVI, gänzlich ohne FS angeschlossen und auf Ghosting untersucht?
Oder willst du jetzt am besten noch unterstellen, dass ein Monitor um Freesync zertifiziert zu werden, billige Scaler und ähnliches verbaut haben muss und dadurch ein solcher Test nicht nötig / sinnvoll ist? Wäre noch die Krönung :D

Und übrigens, ich habe einen "herkömmlichen", noch ziemlich neuen 144Hz Monitor von Benq. Selbst da kann man mit den richtigen Tests noch Ghosting sehen. Sogar wenn die tolle Blur Reduction des Monitors einschaltet sieht man noch etwas. Von daher ist Ghosting ganz sicher kein FS-exklusives Problem und schon gar nichts, wovon Gsync-Monitore zu 100% befreit wären.
 
smilefaker schrieb:
Es gibt natürlich auch Gründe dafür, dass AMD das Limit bisher auf 40 Hertz fesgesetzt hat.
Denn wenn wir schon bei PCper sind, dann kann man ruhig auch erwähnen, dass Pcper festgestellt hat dass bei G-sync rund um 30 FPS Helligkeitssprünge festgestellt wurden.

Alles auch nicht alles rosig mit G-sync bei 30 FPS. Aber diese Informationen, werden dann von den Spezialisten hier wieder unterschlagen.:rolleyes:

Soviel dazu G-sync sei viel besser.

Das Flackern insbesondere bei Ladebildschirmen ist seit release bekannt und nun frag mal rum wieviele user das gestört hat. ;)

Das G-Sync alles super macht behauptet wohl kaum jemand, da gibts ebenfalls genug Baustellen.
 
@FreezR

der rafft es einfach nicht ;) der merkt nicht mal das er sich selbst in Grund und Boden quasselt.

Zitat:
"inwieweit sind die Monitorhersteller schuld an der jetzigen Qualität? Wurden diese unterrichtet, dass ein Austausch eines Scalers nicht ausreicht? Immerhin tragen diese Monitor das Freesync Zertifikat von AMD. Also ist diese Qualität von AMD abgesegnet. "

Das kommt dabei raus wenn man seine Fanboy Phantasien mit der der Realität in Einklang bringen will. Der Satz zeigt überdeutlich das er Null Ahnung hat von was er da spricht. Trauerspiel
 
etoo schrieb:
Hats du einen Link zu dem Artiel von anandtech?
Ja klar, hier:
http://www.anandtech.com/show/9097/the-amd-freesync-review

smilefaker schrieb:
Denn wenn wir schon bei PCper sind, dann kann man ruhig auch erwähnen, dass Pcper festgestellt hat dass bei G-sync rund um 30 FPS Helligkeitssprünge festgestellt wurden.
Du sprichst in deinen vorherigen Beitragen in diesem Thema pcper jegliche Kompetenz ab, greifst dann aber selbige Quelle auf, wenn es darum geht, gegen Gsync zu wettern. Die Helligkeitssprünge hat man unterhalb der 30FPS festgestellt.
 
BeezleBug schrieb:
@FreezR

der rafft es einfach nicht ;) der merkt nicht mal das er sich selbst in Grund und Boden quasselt.

Zitat:
"inwieweit sind die Monitorhersteller schuld an der jetzigen Qualität? Wurden diese unterrichtet, dass ein Austausch eines Scalers nicht ausreicht? Immerhin tragen diese Monitor das Freesync Zertifikat von AMD. Also ist diese Qualität von AMD abgesegnet. "

Das kommt dabei raus wenn man seine Fanboy Phantasien mit der der Realität in Einklang bringen will. Der Satz zeigt überdeutlich das er Null Ahnung hat von was er da spricht. Trauerspiel

Jop, da könntest du gut Recht haben.
Alleine wie er krampfhaft versucht Nachteile zu finden und die (imaginäre) Schuld dann konsequent AMD in die Schuhe schiebt. Der Satz zeigt das wirklich zu gut :D
 
@sontin:

Erklär uns doch mal bitte deinen "technischen" Ansatz zur Theorie - Warum erzeugt Freesync Ghosting ?

Also welche Technische Eigenschaft von Freesync soll es sein die sich letztlich darin äußert dass der Ghosting effekt (vermeintlich) auftritt.

Das wär mal fein - nach meinem Verständnis der ganzen Displaytechnik und Freesync Technik ist dies nämlich ausgeschlossen dass es sich um ein "Freesync"-verursachtes problem handelt.

Wenn du das schaffst können wir weiter diskutieren - weil es dann nämlich was zu diskutieren gibt.

EDIT: Und wo du schon so schön dabei bist uns aufzuklären - erklär doch auch noch WIE genau es G-Sync schaffen soll Ghosting dann zu unterdrücken (also technisch ursächlich).
 
Zuletzt bearbeitet:
FreezR schrieb:
Schon lustig wie sich die grünen Trolle jetzt den letzten Strohhalm aka 40hz greifen und auf Basis dessen Gsync als wesentlich besser bezeichnen. Das ist doch ein reines Scheinargument!
Wer von euch spielt denn gerne unter 40fps?

Der eigentliche Nutzen von adaptiven Refreshraten ist doch gerade, das nun fps unterhalb von absolut 40Hz flüssig spielbar sind.
Im Zeitalter von 4k, wo es doch noch keine Karte gibt, die in dieser Auflösung immer über 40 fps liefert, ist das doch ein wahrer Segen. Und hier liegt derzeit noch der Vorteil aus Nvidias Seiten.
 
Was einige hier scheinbar vergessen ist, das Free-Sync über 9 Monate hintendran ist.

Wäre das 40Hz Feature nicht da, würde ich Free-Sync auf eine Stufe mit G-Sync stellen, da der Benq XL2730Z nur 30€ günstiger ist, als der Asus. (Gleiche Aussattung)

Durch das Feature sind die 60 Hz Monitore im Grunde nicht zu gebrauchen, da Free-Sync nur innerhalb von 40 - 60 Hz arbeitet. Die ganzen 4K Monitore ebenfalls nicht, da die GPU Leistung nicht ausreicht.

Damit verschiebt sich die Gleichstellung von Free- und G-Sync um weitere X Monate.

Das Free-Sync IRGENDWANN mal besser als G-Sync sein wird, ist aber absehbar.

Vielleicht werden aber dann zu der Zeit in der die Free-Sync Monitore die Führung übernehmen, 3D Monitore ohne Brille oder andere neue Features angekündigt und dann hat Free-Sync das Zeitfenster verpasst und es heißt wieder .. Warten, Warten, Warten.
 
Zurück
Oben