Test AMD FreeSync im Praxistest

Bislang verbaut nur Panasonic in ihren Fernsehern den für FreeSync zwingend notwendigen DisplayPort.
Dann braucht man noch einen hinreichend modernen Scaler mit einer aktuellen Firmware.

Das mit dem DP könnte sich ändern dank Apple und DP Alternate Mode über USB Typ C. Wann die passenden Scaler Einzug halten ist ungewiss, aber in Eile sind die TV-Hersteller sicher nicht.
 
Schön zu lesen, dass FreeSync und G-Sync gleichwertig sind.

Jetzt fehlt nur noch, dass man auf irgendeine Weise gegenseitige Kompatibilität hinbekommt. Das muss ja nicht zwangsläufig darüber laufen, dass Nvidia G-Sync einstampft und auf eine neue, AdaptiveSync-basierte Lösung umstellt (was sie ja schon als sehr unwahrscheinlich eingestuft haben). Denkbar wären auch Scaler für Monitore, die sowohl G-Sync als auch FreeSync unterstützen. Es dürfte nicht schwer sein, dem G-Sync-Scaler zusätzlich auch AdaptiveSync beizubringen und da das ein offener Standard ist, steht auch rechtlich nichts im Weg.

Etwas merkwürdig ist AMDs Entscheidung, dem Nutzer "nach oben", also bei höheren Bildfrequenzen als der Monitor unterstützt, die Wahl lässt (V-Sync an oder aus), aber nicht bei der minimalen Frequenz, ab der FreeSync greift. Bildflimmern wird wirklich sehr subjektiv wahrgenommen. Man verschenkt Potential, wenn man da eine starre Mindestgrenze setzt.
Würde man FreeSync bis runter zu den theoretisch möglichen 9 FPS zulassen, würde der einzige Nachteil gegenüber G-Sync wegfallen bzw. sich sogar in einen Vorteil wandeln.
 
Was bitte soll an 9 FPS flüssig sein oder welchen Vorteil soll es bringen?

Hoffentlich sagen die Hersteller nein zu G-Sync ein Doppel braucht niemand.
 
Sollte es für das flackern bei niedrigen fps nicht eine ganz einfachenLösung geben?

Wenn die Graka sagen wir mal 20fps liefert und der Monitor kann max 60Hz könnte man doch 1 Frame der Graka 2 oder 3 mal hintereinander zum Monitor senden und somit auch wider ein 40 oder 60Hz Bild erhalten. Das ganze sollte doch im Treiber möglich sein, der dann identische Frames mehrmals zum Monitor sendet, ja nachdem was dieser maximal kann. Dann sollte es auch kein Filmern durch die Hintergrundbeleuchtung geben, da der Monitor ja mit einer ausreichend hohen Frequenz läuft.

Ob das ganze so dann aber flüssiger wirkt kann ich nicht sagen.
 
Zuletzt bearbeitet:
Tronx schrieb:
Was bitte soll an 9 FPS flüssig sein oder welchen Vorteil soll es bringen?

9 FPS sind sicher in der Praxis nicht mehr sinnvoll. (Obwohl ich mich noch an Zeiten erinnern kann, da galten 10 FPS als Richtwert für flüssige Animationen. ;) ) Aber 48 oder auch 40 FPS ist schon eine ziemlich hohe Untergrenze.
Ich finde einfach, man sollte es dem Anwender überlassen, wie weit er den entsprechenden Wert runtersetzt. Es hängt halt stark an der eigenen Wahrnehmung ab und auch am Monitor, den man benutzt usw. Warum soll man nicht so weit runter gehen können, wie es die FreeSync-Technik grundsätzlich ermöglicht?

Hoffentlich sagen die Hersteller nein zu G-Sync ein Doppel braucht niemand.

Doppelt "braucht" niemand, aber eins von beiden. Nur mit AdpativeSync sind halt alle außer AMD komplett außen vor und damit der allergrößte Teil aller Spieler/Anwender. Das wäre weder im Sinne der Monitorhersteller noch im Sinne der Spieler.

Da halte ich es wie gesagt für sinnvoller, wenn es zukünftig Monitore mit Scalern gäbe, die sowohl G-Sync als auch Adaptive-Sync beherrschen. Dann hat man die freie Wahl, was für eine Grafikkarte man daran nutzen will. Für diese Flexibilität würden sicher viele einen gewissen Aufpreis zahlen.

Zumal der Preisnachteil von G-Sync mit der Zeit auch immer kleiner werden wird. Das G-Sync-Modul ist bisher vor allem so teuer, weil die Stückzahl niedrig ist und weil Nvidia aus Gründen der Flexibilität (auch G-Sync musste erstmal "reifen") auf ein frei programmierbares FPGA gesetzt hat.
Zukünftige G-Sync-Module (mit zusätzlichem AdpativeSync) in "Serien-Silizium gegossen" und in großen Stückzahlen wären letztlich sicher auch nicht mehr viel teurer, als 0815-Scaler und könnten in jedem Gaming-Monitor stecken.
 
Ich glaube mittlerweile dass das wichtigste an diesem ganzen gesynce ist, dass man es ausschalten kann, bzw. nicht nutzen muss.

Das reicht mir dann schon, bei dieser Technik.

Bevorzuge einfachen fps-limiter und vsync aus, egal mit welchem Monitor.
 
Fänds auch schön, wenn nvidia Freesync unterstüzt....ist allemal besser als garkein Sync. :D
Und diesen G-Sync Modul Scheiß unterstütze ich sicherlich nicht.

Was ich hier vorhin auch noch gelesen habe, war die Behauptung das ein FHD Monitor mit DSR genau so gut ausschaut wie ein nativer 4k Monitor. Ich habe nämlich genauso gedacht, bis ich mal 4k in live und real mit 80 cm Sitzabstand gesehen habe.
Dazwischen liegen Welten!
 
Nicht vorhandene pixel kann man halt nicht 1:1 ersetzen. ;)

Herdware schrieb:
9 FPS sind sicher in der Praxis nicht mehr sinnvoll. (Obwohl ich mich noch an Zeiten erinnern kann, da galten 10 FPS als Richtwert für flüssige Animationen. ;) ) Aber 48 oder auch 40 FPS ist schon eine ziemlich hohe Untergrenze.

In einem Strategietitel alá Attila oder Assault Squad 2 sind auch 15 fps noch ordentlich spielbar.
Zumal das ja auch für die fps drops gedacht ist.
 
Herdware;17170493 schrieb:
. Nur mit AdpativeSync sind halt alle außer AMD komplett außen vor und damit der allergrößte Teil aller Spieler/Anwender. Das wäre weder im Sinne der Monitorhersteller noch im Sinne der Spieler.
Ähm nein?
Nur mit G-Sync sind halt alle außer nvidia außen vor...

Adaptive Sync ist ein VESA Standard den jedes VESA Mitglied - und somit auch nvidia - vollkommen kostenlos im Sinne von Lizenz nutzen kann.

Kein Mensch braucht Scaler die beides können. Höchstens nvidia bzw deren Nutzer, welche zu "unflexibel" sind und sich an das Bein eines Herstellers binden lassen...
 
Grade das hier auf Facebook gesehen, am Treiber wird noch gearbeitet:

Unbenannt.jpg

Die sollen mal hinne machen, Monitor ist aufm Expressweg...
 
Ich habe jetzt den Artikel und alle 16 Seiten Kommentare gelesen und denke, dass Adaptive Sync als Definition im Standard ähnlich gut funktionieren kann wie G-Sync. Was mich aber erneut (zum wasweißich vielvielten Mal) aufregen könnte, ist die Implementierung seitens AMD.

AMD schafft es wieder einmal unter den eigenen Möglichkeiten zu bleiben. Man macht anscheinend wieder den gleichen Fehler wie schon so oft und wirft den anderen etwas hin ohne ein Konzept dahinter zu haben. Der Standpunkt "Adaptive Sync ist der Standard. Die Monitorhersteller halten sich dran. Wir halten uns dran. Alles wird gut." reicht IMHO nicht aus.

Man müßte im Rahmen von FreeSync als Funktion, bzw. Produkt, Richtlinien für die eigene Vorstellung davon was FreeSync leisten soll, bzw. wie die Funktion hardwareseitig ausgeführt sein soll, erlassen, und die Zertifizierung von Monitoren davon abhängig machen ob diese Richtlinien von den Hardwareherstellern eingehalten werden oder nicht. Adaptive Sync ist meiner Ansicht nach nicht per Definition auf Gaming ausgerichtet. FreeSync schon. Darum müsste FreeSync aus der eigenen Perspektive Einschränkungen oder Mindestanforderungen definieren.

Vielleicht gibts diese Dinge die ich vermisse schon. In den Kommentaren und im Artikel lese ich jedenfalls nichts von einer expliziten "FreeSync-Spezifikation". Vielleicht gibts einen Link dazu der nicht darin endet dass FreeSync 1:1 die Implementation von Adaptive Sync ist. Dann editiere ich diesen Post sofort.

Außerdem bin ich mir sicher dass wieder einmal kaum jemand versteht worauf ich hinaus will, weil gleich wieder die instinktive Reaktion kommt "Der findet AMD doof, den pup ich an". Nein, ich finde AMD nicht doof. Ich finde doof wie sie manche Dinge realisieren.

Und nur um das Klarzustellen: Ich werde mir in absehbarer Zeit weder einen G-Sync, noch FreeSync, noch eine neue Grafikkarte kaufen. Einen neuen Monitor gibts erst wenn der alte kaputtgeht und ne neue Grafikkarte wenn die neuen Generationen <28nm kommen.
 
Zuletzt bearbeitet:
FreeSync ist AMDs Implementierung von variable refresh, die zur Kommunikation mit dem Monitor den VESA Adaptive-Sync Standard nutzt.

Die FreeSync-Zertifizierung besagt lediglich, dass der Monitor den Kompatibilitätstest bestanden hat.

Was da eine gesonderte Spezifikation oder ein Gütesiegel bringen soll, weiß ich nicht. Der Kunde braucht lediglich auf das Merkmal "unterstützter Frequenzbereich für Adaptive-Sync" zu achten.
 
DirtyOne schrieb:
Ich unterstütze NVIDIA mit ihrer aktuellen Firmenpolitik nicht mehr und werde mir keinen G-Sync Monitor anschaffen.
Warum kann man hier nicht mit AMD zusammen einen Standard nutzen?! Nur um die Spieler für immer an die eigene GPU zu binden?
Weil nVidia GSync erfunden hat bevor es einen Standard gab. Deswegen. Die können jetzt GSync nicht einfach wieder einstellen und ihre Kundschaft die bereits GSync Monitore gekauft hat im Regen stehen lassen.

Abgesehen davon halten sie ihre GSync Technik auch für überlegen. Sie bietet ja nicht nur mehr Features (ULMB Modus), sondern lässt sich in Zukunft ja eventuell noch weiter erweitern. Wer weiß, vielleicht kann man sogar die FPGA Chips bestehender GSync Module einfach per Software umprogrammieren um sie zu optimieren oder neue Features hinzuzufügen.
Und selbst enn es nicht per Software erweiterbar ist, dann kann man aber auch immer noch GSync 2.0 Monitore mit besseren Modulen herausbringen die neue Features bieten werden. GSync ist halt nicht nur GPU/Monitor Synchronisation. Die Technik bietet noch viel Potenzial für Verbesserungen.

Letztendlich ist es aber auch wirtschaftlich ertragreicher für nVidia. Das sollte eigentlich die Frage erübrigen, warum sie GSync nicht einfach aufgeben.
Sie haben ein gutes Produkt und sind sogar in der Lage Lizenzgebühren dafür zu verlangen. Warum sollten sie das aufgeben?
 
Zuletzt bearbeitet:
Marc53844 schrieb:
Wer spielt denn schon mit 40 fps? Ist doch lächerlich ...

Um es mal mit den Worten der Antikonsolenfraktion zu sagen. ;)
Dafür sind AdaptiveSync Monitore konzipiert. Um GPUs nicht mehr über 60FPS prügeln zu müssen für ein flüssiges Bild
Krautmaster schrieb:
Edit: Wichtig ist wirklich dass es auch bei <40 FPS funktioniert & die Panels das umsetzen. Gerade weil ich mit Adaptive Sync viel viel Performance spare da ich nicht zwingend 60 FPS erreichen muss. Viele Seiten schrieben dass es gerade in dem Bereich um 40 FPS am meisten bringt - was ja logisch ist. Ich will nicht fortlaufend in einen Bereich droppen in dem ich wieder Vsync / Tearing habe.
Lieber nen Panel von 30-75 hz als ein 40-144hz Panel.
Exakt. Aber das Optimum wäre 23-75 Hz
Lübke82 schrieb:
Aber dafür schon ein Jahr eher auf dem Markt war ;-)
Womit? Mit einem verkrüppelten DP-Anschluss? Sogar das Audio kann GSync nicht übertragen weil die Bandbreite nicht reicht.

BlauX schrieb:
Man muss einfach warten, bis das passende (gewünschte) Modell auf den Markt kommt, wo der Hersteller eben Scaler verbaut, die auch 30hz oder sogar weniger mitmachen.
Aus dem Grund gibt es ja verschiedene Monitore, ansonsten hätte jeder den selben :)

Ebenso würde ich gerne mal hören wie AMD daran Schuld ist, dass Monitorhersteller noch 60Hz Monitore anbieten obwohl es ja 120Hz und 144Hz Monitore gibt.

Gsync Monitore haben alle den identischen Controller der die Daten an die GPU übermittelt. AdaptiveSync Monitore haben alle ihren Herstellerspezifischen Controller der bestimmt was der Monitor kann. AMD baut keine Monitorcontroller, Nvidia allerdings schon.

Das bedeutet, das jegliche Kritik an den Hersteller des Monitorcontrollers gerichtet sein sollte, dazu gehört Nvidia im Falle von Gsync jedoch gehört AMD nicht dazu.

Definitiv sind 40Hz Grenze zu hoch IMHO, doch hier muss man sich fragen was den größeren visuell sichtbaren Störeffekt hat. Das vielleicht nicht wahrnehmbare gelegentliche ruckeln oder das ständig sichtbare flimmern. Ich bin sicher, dass höherwertige Panels auch niedrigere Frequenzen flickerfrei hin bekommen werden. Die Hersteller werden die unterschiedlichen Fähigkeiten auch unterschiedlich bepreisen wie bisher, nur wird Freesync hier kein Kostenfaktor sein.

Dann lese ich immer wieder von Sync fähigen scalern. Dass scaler auch nur ansatzweise mit dem Sync zu tun haben ist wohl ein Mythos den noch nicht mal die Redaktionen auf technische Plausibilität überprüfen. Scaler skalieren das Bild für die unterschiedlichen Display-Anschlüsse in verschieden Auflösungen und haben absolut keinen Einfluss auf die Frequenz mit der das statt findet.

Auch ist es seltsam, dass manche Gsync einen Bildpuffer im Monitor zu schreiben, den Nvidia verbaut und Freesync Monitoren angeblich fehlt.

Den Puffer muss Nvidia verbauen, da alle DP1.2a Monitore mit Panels inkl. Panel Self Refresh diesen im VESA Standard spezifizierten Framebuffer sowieso mit an Board haben. Was sollte AMD da noch entwickeln? Nur D.P 1.2 Monitore benötigen hier ein Upgrade durch Nvidias Modul, was zeitgleich ein Downgrade bei wichtigen Monitor Features ist wie Anschlüsse oder den fehlenden Bildsteuerkanälen und Audiokanälen bedeutet.

Die kleinste Mögliche Frequenz mit Freesync ist 9Hz. Die grösste ist 240 Hz. AMD wird vorgeworfen die ersten Monitore kämen nur auf 40Hz runter und nicht wie Gsync auf 30. AMD hat seinen Teil der Entwicklung erledigt um das zu ermöglichen. Oder ist nun AMD auch Schuld, dass keiner einen 240Hz Monitor anbietet? Oder am Monitor kein HDMI Anschluss vorhanden ist obwohl auf der GPU ein Ausgang verbaut ist?

Was die Begrenzung seitens der Treiber angeht, so denke ich dass dies eine Marketingbegrenzung zum Launch ist, weil das Erlebnis durch das flickern schlimmer ist als durch das deaktivieren von AdaptivSync auf den bisher von den Herstellern zur Zertifizierung eingereichten Monitoren. Wenn in 4 Wochen die Grenze gesenkt wird, werden die wenigsten noch über das flickern nachdenken das da passieren kann. Und vor allem wird niemand AMD die Schuld daran geben wenn dann deutlich wird wie unterschiedlich die Ergebnisse von Monitor zu Monitor sind. Der Hersteller steht in der Pflicht dann und im Wettbewerb mit den anderen und dazu gehört allerdings Nvidia dazu im Gegensatz zu AMD als Hersteller der Module für Gsync.
 
AMD hat scheinbar gar keine Lust für FreeSync Werbung zu machen!
Da haben einige seit ca. 6 Monaten einen FreeSync Monitor aber noch keinen Treiber von AMD.
Der sollte am 19.03. erscheinen!
Oder 2016 mit Zen?
Schöne Supportaussichten bei AMD!
 
PiPaPa schrieb:
Adaptive Sync ist ein VESA Standard den jedes VESA Mitglied - und somit auch nvidia - vollkommen kostenlos im Sinne von Lizenz nutzen kann.

Deswegen sage ich ja, dass es durchaus möglich wäre, AdaptiveSync mit den G-Sync-Modulen zu unterstützen. Da AdaptiveSync ein freier Standard ist, kann Nvidia den in die G-Sync-Scaler-Module integrieren.

Andersherum ist aber FreeSync kein freier/offener Standard, sondern AMDs "Secret Sauce" (O-Ton). Da darf man sich nicht von dem Namen verwirren lassen.
Es wäre nicht mal eben so gemacht, dass Nvidia eine ganz neue Sync-Technologie aus dem Hut zaubert, die wie FreeSync ebenfalls auf AdaptiveSync aufsetzt.

Deshalb wären die naheliegende Lösung Scaler-Module die beides können (G-Sync und FreeSync/AdaptiveSync) in allen Gaming-Monitoren.

Die andere "Lösung", dass Nvidia die jahrelange Arbeit, die sie in G-Sync gesteckt haben, in die Tonne kloppen, nochmal (fast) bei Null anfangen und eine neue Technik entwickeln, die dann auch nicht mehr kann als G-Sync, aber zu AMDs FreeSync kompatibel ist, hört sich bestenfalls für einen beinharten AMD-Fan logisch und sinnvoll an, der eh nichts mit Nvidia am Hut hat. ;)
 
Danke für den Test! Wäre es möglich ein Video nach zu liefern?
Wir haben uns explizit gegen Videos entshieden, da man auf Videos den Effekt leider einfach nicht zeigen kann...Man sieht zwar einen Unterschied, doch ruckelt es auch mit Wasauchimmer-Sync in Videos grausam.

Den Absatz verstehe ich nicht zu 100%.
Das Fettgedruckte ist wortwörtlich zu nehmen. Die beste Qualität gibt es eben mit aktivem FreeSync/G-Syn und wenn der Monitor 120/144 Hz unterstützt.

Was mich verwundert ist, dass die 7790 V-Sync unterstützt, hingegen die R9 280 Serie nicht.
Die Bonaire-GPU der HD 7790 ist von neuerem Datum als die Tahiti-GPU der 280. Das ist das Problem.

@cb: Wie groß war eigentlich der Unterschied zwischen 75Hz beim LG und den 144Hz beim BenQ?
Und funktioniert Freesync auch im Vollbild-Fenstermodus oder wie G-Sync nur im reinen Vollbildmodus?
Zu letzterem...puh, das weiß ich jetzt auch nicht.
Und zu ersterem: Nunja, 75 Hz ist schonmal ne gute Ecke besser als 60 Hz, das merkt man in Windows und Spielen sofort. 120 Hz ist dann aber schon nochmal eine andere Hausnummer. 144 Hz dagegen...nunja, das ist glaube ich mit G-Sync/FreeSync mehr Einbildung die man da hat :) Es hat aber Vorteile, wenn man mit klassischem V-Sync off spielt.

Hat man bei Adaptive Sync verglichen mit normalen Monitoren ohne Vsync nun Input-Lag oder nicht, solange man innerhalb des ausgewiesenen FPS-Bereichs ist? Das geht aus dem Artikel nicht eindeutig hervor.
Wenn FreeSync etc. funktioniert, ist der Input-Lag minimal höher als ohne V-Sync. Aber ich bezweifle, dass man das wirklich spürt.

Seit wann soll G-sync mit ULMB (Ultra Low Motion Blur) funktionieren, das funktioniert auch unter G-sync nicht ??!
Entschuldigt bitte die Verwirrung, das stand zunächst falsch im Artikel!

Verstehe ich nicht.
Auch verstehe ich nicht, was genau ein Freesync-Modus mit Tearing sein soll.
Was verstehst du daran nicht? Und wenn du V-Sync aktivierst, bekommst du bei einem FreeSync-Monitor Tearing, wenn du unterhalb oder überhalb der vom Monitor unterstützten Bildwiederholraten kommst.

@Wolfgang ich nehme an ihr habt den neuen Catalyst 15.3(?) schon vorab von AMD bekommen? Könnt ihr sagen wann genau der freigegeben wird?
Das wissen wir leider auch nicht. AMD hat wohl noch einen Fehler gefunden, den sie erst beheben möchten.

Das Ghosting bei PCper liegt übrigens nicht an Freesync, aber die Lagerkämpfe können nun beginnen.
Für mich steht es jedenfalls 1:1.
Das Ghosting beim BenQ kann zumindest ich in Spielen nicht sehen. Da habe ich extra in mehreren Spielen drauf geachtet (hat nunmal ein Hersteller, ich sehe da aber nichts. In der FreeSync-Mühle bzw. der G-Sync Demo kann man da tatsächlich etwas sehen, doch sehe ich das fast genauso auf dem Asus G-Sync-Monitor.

Mit G-Sync bekommt man nicht "nur" bis runter auf 30 FPS eine flüssige Erfahrung, sondern sogar durchaus noch mit 20-30 FPS weil das G-Sync Modul die Raten "hochrechnet" und damit sogar in diesem normalerweise schon üblen FPS Bereichen einigermaßen flüssig für das Auge abläuft.
Ja, ein G-Sync-Montor ist bei unter 30 FPS besser. Aber nein, flüssig ist auch das nicht mehr. 35 FPS mit G-Sync auch nicht wirklich, wenn auch spielbar.

Wird es noch weitere Tests geben? Vielleicht etwas "wissenschaftlicher" und nicht so subjektiv?
Aktuell ist da nichts geplant. Aber da wird es auch verdammt schwer, abseits subjektiver Eindrücke etwas zu machen. Dafür benötigt man alleine schon sau teures Messequipment.
 
Zurück
Oben