Test AMD FreeSync im Praxistest

naja bei nvidia ist sind es 30 und bei AMD 40 hz

Was nun unter diesem Wert? also bringt mir das alles nichts oder

Denke da kommt noch was wie v2 auf uns zu denn so ist das eher ne "teure" Bastellösung.
 
Zuletzt bearbeitet:
unter diesem Wert wirds eh eng. 20FPS werden selten flüssig ;)

-> Nvidia versucht auch nur irgendwie mit Kniffen den Bereich um 20-30hz zu lösen, gibt da Frames doppelt aus oder sonst was. Glaub im Anandtech Review zu Gsync oder so ist es wirklich genau erklärt.
 
AMD sagt 9-240 HZ ... allein um im Vergleich zu G-Sync etwas ZUM START besser zu machen und z.B. 25 HZ einzustellen (ob sinnvoll oder nicht ka) aber zu zeigen, hey es geht, machen sie 40 Hz wenn für einige Leute 30 FPS flüssig sind. (Siehe Konsolen)

Wie gesagt, 9 Monate mehr Zeit, da sollte man es schon besser machen. So hat man den Anschluss knapp verpasst.
 
Zuletzt bearbeitet von einem Moderator:
Alles klar, ich bleibe weiterhin bei AMD und LG. Danke für den Test CB

Ach ja, cööö Nvidia! Mit eurem G-Sync Zwang habt ihr jetzt einen Kunden weniger, außer ihr werdet euch dem adaptiven anschließen, dann ändere ich meinen Rhythmus zu eurem Gunsten.
 
Andy8891 schrieb:
Durch das Feature sind die 60 Hz Monitore im Grunde nicht zu gebrauchen, da Free-Sync nur innerhalb von 40 - 60 Hz arbeitet. Die ganzen 4K Monitore ebenfalls nicht, da die GPU Leistung nicht ausreicht.

Man weiß doch die min Hz der 60hz Monitore noch gar nicht, bis jetzt sind nur die 40hz der 144er TN's und die 48hz der 75er IPS bekannt.
 
Zitat:
"Mit dem Catalyst 15.3 stellt der Hersteller mit dem heutigen Tage die erforderliche Software bereit, um FreeSync auf Monitoren mit DisplayPort 1.2a zu unterstützen."

Sorry, aber wir haben schon MORGEN: wo sind die Treiber? Weder bei CB gehostet, noch gelinkt noch bei AMD im Download.
Davon abgesehen das 14.12 seit über einem Quartal der letzte Final Release ist.
 
Fragger911 schrieb:
Zitat:
"Mit dem Catalyst 15.3 stellt der Hersteller mit dem heutigen Tage die erforderliche Software bereit, um FreeSync auf Monitoren mit DisplayPort 1.2a zu unterstützen."

Sorry, aber wir haben schon MORGEN: wo sind die Treiber? Weder bei CB gehostet, noch gelinkt noch bei AMD im Download.
Davon abgesehen das 14.12 seit über einem Quartal der letzte Final Release ist.
Das ist das was AMD dazu schreibt:
" We’re working to make the Catalyst Beta driver with AMD FreeSync technology the highest quality as possible. Please stay tuned for updates.

https://twitter.com/AMDRadeon/status/578680712498454528. "
 
Schöner Test! Im Fazit erwähnt Ihr den Acer Predator XG270HUomidpx, 27" (UM.HG0EE.001) ab €499,--

Einen Ähnlichen gibt es auch mit G-Sync Acer Predator XB270HUbprz, 27" (UM.HB0EE.009) ab €749,--

Beide im Vergleich https://geizhals.de/?cmp=1216766&cmp=1216778#xf_top

Der Gsync hat zwar ein IPS-Panel und ist verstellbar, aber der Freesync deutlich günstiger, mehr Anschlüsse, schnellere Reaktionszeit und sieht geiler aus ;)

Warum poste ich das hier... k.A... :freaky: Ich will schon seit mindestens 2 Jahren mein System upgraden (E8400/4GB/GTX560)
und sah bei den technischen Errungenschaften der letzten Jahre irgendwie noch keinen Sinn. Wegen ein paar FPS mehr 600€ (mein max für CPU,MB,RAM und Graka) ausgeben? Nö. Aber mit solch feinen Neuerungen kann man mit 600€ +neuen Monitor (wie der Acer F.Sync) schon was reissen.
Mal sehn, 2016 vielleicht mit Zen, Mittelklasse Fiji (480X?) mit HBM und so´n FSync... ach jaaa
 
smilefaker schrieb:
Falsch, bei G-sync hat man dann V-sync, bei AMD Vsync oder kein Sync.
Nö. Bei GSync hat man GSync, aber das ist was anderes als VSync. Zwar begrenzen beide die Framerate fest auf die maximale Refreshrate des Monitors, aber der Unterschied ist, dass bei VSync der Monitor den Takt vorgibt mit dem die Bilder verarbeitet werden. Erst wenn der wieder ein Bild abgeholt und dargestellt hat, dann macht die Gameengine weiter und rendert ein neues Bild.

Bei GSync läuft das anders herum. Da rendert die Engine ein Bild und schickt es dem Puffer im GSync Modul. Wenn der Monitor dann beim nächsten Refresh das Bild anzeigt fängt die Engine an das nächste Bild zu berechnen und nach Fertigstellung kann es sofort wieder an den Monitor geschickt werden selbst wenn es noch nicht angezeigt werden muss.

Die Grafikkarte und der Monitor arbeiten hier also asynchron zueinander im Gegensatz zu VSync, wo sie synchron miteinander arbeiten müssen.

Ich könnte mir auch vorstellen, dass dies auch einer der Gründe für diese Wahnsinns Input-Lag Zeiten im Bereich der Processing Time aus dem Testbericht sind.

Anstatt, dass der Scaler eines normalen Monitors nach einem Refresh erst das Bild empfangen und verarbeiten muss, bevor er es darstellt, muss ein GSync Monitor einfach nur den Buffer switchen um das bereits vorher übertragene und verarbeitete Bild anzeigen zu können. Das dauert natürlich nur ein Bruchteil einer Millisekunde.

Vorteil von GSync gegenüber VSync ist also, dass die Verarbeitung der Bilder im Monitor parallel zur Anzeige erfolgt und nicht sequenziell geschehen muss. Die Folge ist deutlich reduzierter Input Lag.

Das wäre jedenfalls eine Erklärung dafür, warum die Processing Time bei dem Monitor praktisch bei 0 liegt. Wenn dort nur der Buffer-Switch gemessen wird, da das Processing asynchron im Hintergrund verlief, dann ist das natürlich logisch.

FreezR schrieb:
Schon lustig wie sich die grünen Trolle jetzt den letzten Strohhalm aka 40hz greifen und auf Basis dessen Gsync als wesentlich besser bezeichnen. Das ist doch ein reines Scheinargument!
Ach. Alle die nicht deiner Meinung sind, sind jetzt also Trolle.
Wenn man bedenkt, dass diese Sync techniken gerade den Sinn und Zweck haben Bildwiederholraten im niedrigen Bereich flüssig aussehen zu lassen, dann ist das sehr wohl relevant, wo die Untergrenze liegt bei der die Methode noch angewand werden kann. Bei 144 fps braucht man kein Sync Feature mehr. Die Hauptvorteile spürt man eben ganz besonders bei Drops unter 40 fps.


Dagegen fällt mir spontan sofort ein guter Grund ein, warum Gsync für manche Leute absolut nutzlos ist zu Zeit:
Jeder der im Multiplayer ernsthaft Shooter spielen möchte, wird niemals mit Vsync spielen. Z.B. CS, CSS oder CS:GO, da spielt es sich mit Vsync wie mit Schmierseife unter der Maus. Ganz schlimm wird es, wenn der Gsync Monitor < 120/144Hz hätte.. Input Lag³
Ja ne. Is klar. Wie gesagt.
Niedriger Monitor Input Lag
Niedriger Pipeline Lag

Letztendlich hast du mit GSync die gleichen niedrigen Latenzen wie mit ausgeschaltetem VSync nur ohne Tearing und dazu noch Monitore die ohne Processing Lag auskommen.

goldmomo schrieb:
Wenn man unter die Minimalfrequenz bei FreeSync kommt, muss man sowieso eine Sync erzwingen. Wäre nett wenn mir jemand erklären kann, wie GSync dieses Problem technisch anders lösen kann als FreeSync, außer den Monitorhersteller zu zwingen sein Display min. XHz (z.B. 30Hz) kompatibel zu machen.
Das grundsätzliche Problem liegt wie du schon sagtest an den Panels. Die müssen halt regelmäßig refresht werden. Passiert das nicht, dann verändern sich die Farbwerte der Pixel immer mehr zur Farbe Weiß. Zumindest bei TN Panels. Ich weiß nicht wie das bei IPS Panels ist.
Das GSync Modul macht deswegen auch nur grundsätzlich alle 33 ms einen Zwangsrefresh, wenn keiner erfolgt ist. Das zwingt die Farben zurück auf das letzte sich im Puffer befindliche Bild. Da sich die Farben allerdings schon ein wenig vom Grundwert zur Farbe Weiß abgewichen sind und jetzt wieder schlagartig den Normalwert bekommen empfindet man das später als ein leichtes 30 Hz flackern.

Leider kann man da glaube ich nicht viel gegen machen. Unnötig viele und häufigere Refreshes einzubauen würde angeblich zu Rucklern führen und die Aussichten, dass sich an den Panels etwas ändert sind wohl auch nicht besonders hoch. Grundsätzlich liegt es aber nicht an den Sync-Techniken selbst. Die funktionieren in der Theorie auch mit beliebig niedrigen Refreshrates.
 
Zuletzt bearbeitet:
Letztendlich hast du mit GSync die gleichen niedrigen Latenzen wie mit ausgeschaltetem VSync nur ohne Tearing und dazu noch Monitore die ohne Processing Lag auskommen.

Also hätte G-Sync dann doch die Nase vorne und macht genau das was Gamer wollen oder?
 
Interessante Sache. Gut das mir es nicht so wichtig ist, immer sofort bei neuen Techniken im PC Bereich einsteigen zu müssen. Da spiele ich dann doch lieber Schlagzeug und Gitarre. Ego kann ich abwarten und dann kaufen, wenn alles ausgereift ist.

@CB
Habt ihr euch eigentlich schon einmal Gedanken darüber gemacht, AMD mindestens einen Blumenstrauß zu überbringen?
Ich mein, immerhin bringen AMD Themen unglaublich viele Beiträge.
Beispiel:
In 11 Stunden schafft der Titan X Test rund 260 Beiträge. Dieses Thema hier schafft in 11 Stunden rund 295 Beiträge.
 
Mich interessiert neben dem Artikel ganz brennend ob eine der Technologien ihren Weg in Fernseher finden wird. Ich fauler Hund zocke nämlich gemütlich von der Couch :).
 
Zuletzt bearbeitet:
XdaywalkerX schrieb:
Mich interessiert neben dem Artikel ganz brennend ob eine der Technologien ihren Weg in Fernseher finden wird. Ich fauler Hund zocke nämlich gemütlich von der Couch :).
Glaub ich kaum, da wird gespart ohne Ende, das sieht man schon an den HDMI-Implementierungen und zum Fernsehen hilft das alles wenig ;)
Mich würds auch freuen, da ich die ganzen Monitore zu klein finde, muss ja leider noch länger auf meine Glyph warten X)
Ansonsten ist nur die anpassbaren Schaltzeiten was sinnvolles, alles andere geht mit RadeonPro und Dynamic V-Sync ebenso.
 
Ich finde es sehr gut,das AMD Freesync sauber umgesetzt hat. Die 40Hz Hürde wird sicherlich auch noch fallen, alleine um komplett mit Nvidia gleichzuziehen.

Ich unterstütze NVIDIA mit ihrer aktuellen Firmenpolitik nicht mehr und werde mir keinen G-Sync Monitor anschaffen.
Warum kann man hier nicht mit AMD zusammen einen Standard nutzen?! Nur um die Spieler für immer an die eigene GPU zu binden?

Ich warte noch ein Jahr und schlage dann bei Freesync mit UHD zusammen zu. :cool_alt:
 
Zurück
Oben