Test AMD FreeSync im Praxistest

Wolfgang schrieb:
Was verstehst du daran nicht? Und wenn du V-Sync aktivierst, bekommst du bei einem FreeSync-Monitor Tearing, wenn du unterhalb oder überhalb der vom Monitor unterstützten Bildwiederholraten kommst.

Meinst du dass nicht genau umgekehrt?
 
Wolfgang schrieb:
Ja, ein G-Sync-Montor ist bei unter 30 FPS besser. Aber nein, flüssig ist auch das nicht mehr. 35 FPS mit G-Sync auch nicht wirklich, wenn auch spielbar

Das is aber für mich (und auch für viele die auf ultra hohen einstellungen spielen) doch der entscheidnde punkt!!! Das man bei 35fps einen inputlag von >1/35s hat ist klar geht nicht anders aber man kann die frames syncen sodass man wenigstens keine zerissenen Bilder bekommt!
Und da sind die AMD Monitore klar im NAchteil!
 
Nur weil etwas aktiviert werden kann, muss es nicht auch das bessere Ergebnis liefern.

Daher sollten diese Tests zu Sync grundsätzlich Monitortests sein und keine GPU Tests. 8 Freesync-Monitore verglichen und mal sehen wer das besser implementiert. So testet man übrigens andere Monitorfeatures auch, an der selben Hardware.
 
Wolfgang schrieb:
Das Ghosting beim BenQ kann zumindest ich in Spielen nicht sehen. Da habe ich extra in mehreren Spielen drauf geachtet (hat nunmal ein Hersteller, ich sehe da aber nichts. In der FreeSync-Mühle bzw. der G-Sync Demo kann man da tatsächlich etwas sehen, doch sehe ich das fast genauso auf dem Asus G-Sync-Monitor.

Danke Wolfgang!

Bitte Sontin...
 
Herdware schrieb:
Andersherum ist aber FreeSync kein freier/offener Standard, sondern AMDs "Secret Sauce" (O-Ton). Da darf man sich nicht von dem Namen verwirren lassen.
Es wäre nicht mal eben so gemacht, dass Nvidia eine ganz neue Sync-Technologie aus dem Hut zaubert, die wie FreeSync ebenfalls auf AdaptiveSync aufsetzt.
Das hat doch auch keiner behauptet. Natürlich ist FreeSync AMDs eigenes Süppchen, weil das der Name des Treiberparts ist, der Adaptive Sync anspricht.

Deshalb wären die naheliegende Lösung Scaler-Module die beides können (G-Sync und FreeSync/AdaptiveSync) in allen Gaming-Monitoren.
Die Scaler müssen kein FreeSync unterstützten, sie müssen nur Adaptive Sync unterstützten. FreeSync ist nur der Name eines AMD Treibers.

Die andere "Lösung", dass Nvidia die jahrelange Arbeit, die sie in G-Sync gesteckt haben, in die Tonne kloppen, nochmal (fast) bei Null anfangen und eine neue Technik entwickeln, die dann auch nicht mehr kann als G-Sync, aber zu AMDs FreeSync kompatibel ist, hört sich bestenfalls für einen beinharten AMD-Fan logisch und sinnvoll an, der eh nichts mit Nvidia am Hut hat. ;)
Nvidia muss nichts für FreeSync entwickeln, weil dies lediglich der Treibername von AMD ist.
Nvidia muss nur für Adaptive Sync entwickeln, einen offenen Standard.
Und wenn G-Sync plötzlich mit Notebooks ohne G-Sync Modul funktioniert dann haben sie offenbar schon was ähnliches ohne großen Aufwand...
 
Ghosting kommt auch immer sehr stark auf den Monitor an
Mein alter LG 22" ist da ziemlich empfindlich wohingegen mein Asus 27" IPS das nicht ist.
Daher sollte man wirklich mal mehrere Monitore vergleichen
 
Hui, hoffentlich gibts dann auch bald einen schönen Monitor von Dell mit dem Feature :)
 
noxon schrieb:
Ach. Alle die nicht deiner Meinung sind, sind jetzt also Trolle.
Wenn man bedenkt, dass diese Sync techniken gerade den Sinn und Zweck haben Bildwiederholraten im niedrigen Bereich flüssig aussehen zu lassen, dann ist das sehr wohl relevant, wo die Untergrenze liegt bei der die Methode noch angewand werden kann. Bei 144 fps braucht man kein Sync Feature mehr. Die Hauptvorteile spürt man eben ganz besonders bei Drops unter 40 fps.

Es geht mir nicht darum, dass jeder der meine Meinung nicht teilt gleich ein Troll wäre.
Wenn wir aber sehen, wie einige FS hier madig reden wollen und daneben mal die Fakten halten, ist es doch absolut lächerlich. Das hat mir objektiver Betrachtung gar nichts zu tun, da wird nur ein Grund gesucht, warum AMD scheisse wäre!

Aber mal zu den Fakten:

-AMD sagt, FS könnte bis runter zu 9 Hz arbeiten.
-Das AMD Gebashe findet zur Zeit ausschließlich auf der Basis von 2 Monitoren statt, wovon einer ein IPS-Panel verbaut hat, die technisch schon immer limitiert in Bezug auf die Frequenz sind.
-AMD sagt auch, dass es unter 40Hz zu einem Flackern kommen kann. Bis jetzt habe ich noch nirgends gelesen, dass Gsync dieses Problem zu 100% nicht hätte. Ich meine, AMD zieht sich das sicher nicht einfach mal so aus den Haaren. Zumal hier in den Kommentaren auch jemand eine Passage eine Tests (glaube von Anand) gepostet hat, wo gesagt wird, dass es bei Gsync im 30er FPS Bereich zu flackern gekommen wäre.

Abschließend kann man wohl sagen, dass wir es jetzt definitiv nicht wirklich beurteilen können. Es könnte durchaus sein, dass Gsync das Flackern deutlich mindert bei 30FPS im Vergleich zu FS. Vielleicht aber auch nicht und FS und GS flackern bei 30FPS gleich stark und es ist einfach nur abhängig von der Person die vorm Monitor hockt. Vielleicht ist für die meisten Menschen das Flackern sogar auf Dauer so unangenehm, dass man, obwohl der 30FPS-Bereich in Sachen "flüßiges Bild" am meisten von variablem Sync profitiert, komplett gemieden werden sollte. Dann wäre die aktuelle 40Hz-Grenze von AMD absolut sinnvoll. Wer weiß das schon und kann es 100% beurteilen?

Und daher bleib ich dabei. Jeder, der auf dieser Basis AMD und FS verunglimpft und madig redet, argumentiert ganz sicher nicht objektiv und sachlich, er ist und bleibt ein Troll.

Und verteidigt obendrein noch eine proprietäre Technik, die sofern sie sich durchsetzt, zu Ungunsten aller Konsumenten geht. Oder gibt es hier tatsächlich Leute, die sich mit der Wahl ihrer Graka / ihres Monitors gerne aufgrund der jeweils anderen Komponente von vornherein festlegen möchten? Ich definitiv nicht, eine Monitor sollte weiterhin universell sein.
 
Die andere "Lösung", dass Nvidia die jahrelange Arbeit, die sie in G-Sync gesteckt haben, in die Tonne kloppen, nochmal (fast) bei Null anfangen und eine neue Technik entwickeln, die dann auch nicht mehr kann als G-Sync, aber zu AMDs FreeSync kompatibel ist, hört sich bestenfalls für einen beinharten AMD-Fan logisch und sinnvoll an, der eh nichts mit Nvidia am Hut hat.

So ein Schmarn, Nvidia muss da gar nix entwickeln, weil haben sie ja schon. Sie müssen nur ihr DRM Modul über Board werfen und auf den Industriestandart der VESA umschwenken. Die Funktionswiese von F-Sync und G-Sync sind doch von der grundsätzlichen technischen Umsetzung total identisch, da gibt es keinen nennenswerten technischen Unterschied.

Das is aber für mich (und auch für viele die auf ultra hohen einstellungen spielen) doch der entscheidnde punkt!!! Das man bei 35fps einen inputlag von >1/35s hat ist klar geht nicht anders aber man kann die frames syncen sodass man wenigstens keine zerissenen Bilder bekommt!
Und da sind die AMD Monitore klar im NAchteil!

Noch mal, das liegt nicht an AMD, sondern am Monitor Hersteller, dass sie nicht weiter runter gehen als bis 40 - 48 HZ (was nur für die 120 / 14 HZ Monitore zutrifft.) Der Frequenz Bereich für die anderen Modelle ist teilweise ja noch nicht mal bekannt gegeben worden.
Free Sync kann runter bis 9 fps, muss nur noch ein Monitor verfügbar werden, der dass kann. Wird sicher kommen, 30 HZ Monitore sind schon angekündigt.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Die Scaler müssen kein FreeSync unterstützten, sie müssen nur Adaptive Sync unterstützten. FreeSync ist nur der Name eines AMD Treibers.

Das ist korrekt. Wobei es in der Praxis halt so wäre, dass dieser Scaler (G-Sync-Modul + AdaptriveSync) dann sowohl mit Grafikkarten mit AMDs FreeSync., als auch mit Nvidias G-Sync funktionieren würde. AdaptiveSync für sich allein bedeutet ja erstmal gar nichts, bzw. ist keine Funktionalität, von der der Anwender etwas bemerkt.

Nvidia muss nichts für FreeSync entwickeln, weil dies lediglich der Treibername von AMD ist.
Nvidia muss nur (meine Hervorhebung) für Adaptive Sync entwickeln, einen offenen Standard.
Und wenn G-Sync plötzlich mit Notebooks ohne G-Sync Modul funktioniert dann haben sie offenbar schon was ähnliches ohne großen Aufwand...

Das "nur" ist hier die große Frage. Für AMD war der Aufwand offenbar nicht ganz unerheblich, eine auf AdaptiveSync basierende Lösung zu entwickeln. Schließlich lagen da, wie auch zuvor bei Nvidia und G-Sync, viele Monate zwischen der ersten Demonstration und einer marktreifen Umsetzung und auch davor wurde sicher auch schon lange fleißig daran gearbeitet.

Das "G-Sync-Modul-Freie G-Sync", was da bei angeblich auf einem Notebook mit speziellen Treibern "funktioniert" hat, würde ich erstmal mit einer gehörigen Prise Skepsis aufnehmen. Es ist jedenfalls noch lange kein Beweis dafür, dass Nvidia eine Adaptive-Sync basierte Lösung von G-Sync in der Schublade hat. Da hat nur irgendetwas irgendwie funktioniert, aber das muss noch lange keine wirklich in echten Spielen funktionierende Sync-Technik sein.
 
Das "nur" ist hier die große Frage. Für AMD war der Aufwand offenbar nicht ganz unerheblich, eine auf AdaptiveSync basierende Lösung zu entwickeln. Schließlich lagen da, wie auch zuvor bei Nvidia und G-Sync, viele Monate zwischen der ersten Demonstration und einer marktreifen Umsetzung und auch davor wurde sicher auch schon lange fleißig daran gearbeitet.

Nochmal, die technischen Unterschiede zwischen G-Sync, F-Sync und A-Sync sind marginal. Das einzige was G-Sync anders macht als die anderen beiden Varianten ist die Einbindung des DRM Moduls. (Wenn man es genau nimmt, ist F-Sync und A-Sync nur unterschiedliche Namen für das selbe). Daher, die NV Treiber sind mit nur minimalen Änderungen auch für A-Sync verwendbar. Ist eher eine politische Entscheidung seitens NV als eine technische.
 
PiPaPa schrieb:
Die Scaler müssen kein FreeSync unterstützten, sie müssen nur Adaptive Sync unterstützten. FreeSync ist nur der Name eines AMD Treibers.
Die scaler haben mit Freesync nichts zu tun. Fur Nvidia sind die Scaler nur aus einem Grund wichtig. Sie müssen so weit abgespeckt sein, damit noch genügend Bandbreite für Gsync unter DP 1.2 frei gemacht wird. Deshalb wird Nvidias Scaler beschnitten um DVI, VGA, HDMI Anschlüsse. Das Audiosignal des DP wurde auch deaktiviert und zudem auch weitere Möglichkeiten der Bildsteuerung.

Freesync nutzt einfach jeden Scaler der verbaut ist. Es gibt keinen Scaler mit dem Freesync nicht funktioniert. Es spielt keine Rolle für das erzeugen Adaptiver Frequenzen oder auch fixer Frequenzen.

Ansonsten würde ich wirklich mal darum bitten mir einen Link zu einem Scaler zu geben der spezifisch für AdaptiveSync nutzbar gemacht wurde oder alternativ zu einem Scaler der NICHT mit Freesync funktioniert.
 
Das ist gelinde gesagt Pech für nvidia. Sie hätten genauso mit dem VESA Konsortium zusammen arbeiten und gemeinsam einen Standard entwickeln können.

Aber nein, sie haben mal wieder versucht 1 Jahr die Kunden zu schröpfen
 
Chief_Rocker schrieb:
Wird sicher kommen, 30 HZ Monitore sind schon angekündigt.

Wo sind diese angekündigt?


Chief_Rocker schrieb:
Noch mal, das liegt nicht an AMD, sondern am Monitor Hersteller, dass sie nicht weiter runter gehen als bis 40 - 48 HZ (was nur für die 120 / 14 HZ Monitore zutrifft.) D

Doch liegt es indirekt. Die Freesync Monitore sind (1)von AMD zertifiziert so wie sie auf dem markt kommen eben mit 40 oder 48hz und (2) es gibt keinen Framebuffer ala Gsync Modul das das Problem unter 40hz löst!
 
PiPaPa schrieb:
[...]Aber nein, sie haben mal wieder versucht 1 Jahr die Kunden zu schröpfen

Und genau so siehts aus. nVidia ist doch genauso in dem Konsortium und hat sich bei dem Standard schön rausgehalten und auf Adaptive Sync ihr eigenes DRM Modul gebaut. Klar ist ne gewinnorientierte Firma und darf es ruhig machen, geschenkt. Aber man muss es deshalb noch lange nicht gut finden.
 
Herdware schrieb:
Das "nur" ist hier die große Frage. Für AMD war der Aufwand offenbar nicht ganz unerheblich, eine auf AdaptiveSync basierende Lösung zu entwickeln. Schließlich lagen da, wie auch zuvor bei Nvidia und G-Sync, viele Monate zwischen der ersten Demonstration und einer marktreifen Umsetzung und auch davor wurde sicher auch schon lange fleißig daran gearbeitet.
AMD musste an gar nichts lange arbeiten. Sondern warten bis die ersten Monitorhersteller Geräte mit den zugrundeliegenden Standards fertig haben, wie z.B. das notwendige ersetzen der zu langsamen LVDS Anbindung der Panels durch eDP und der enthaltenen PSR Funktion mit samt dem Farembuffer. Auf der CES 2014 wurde das schon gezeigt von AMD. Erst nachdem nun die EDID Profile der ersten Monitore bekannt sind kann AMD darauf optimieren. Das sind wenige Wochen.
Ergänzung ()

etoo schrieb:
Doch liegt es indirekt. Die Freesync Monitore sind (1)von AMD zertifiziert so wie sie auf dem markt kommen eben mit 40 oder 48hz und (2) es gibt keinen Framebuffer ala Gsync Modul das das Problem unter 40hz löst!
Wieso sollte ein Freesync Zertifikat etwas über die genutzte Monitorfrequenz aussagen?
Soll AMD nur Zertifizieren wenn der Monitor zwischen 9-240 Hz kann?

Freesync ohne Framebuffer würde gar nicht funktionieren und es ist Teil des DP-Standard, dass Panel Self Refresh genutzt wird bei AdaptiveSync. Dafür muss ein Puffer verbaut sein.
 
Zuletzt bearbeitet: (Cebit durch CES ersetzt)
Doch liegt es indirekt. Die Freesync Monitore sind (1)von AMD zertifiziert so wie sie auf dem markt kommen eben mit 40 oder 48hz und (2) es gibt keinen Framebuffer ala Gsync Modul das das Problem unter 40hz löst!

Na eben, wurden zertifiziert, dass sie mit AMD GCN 1.1 aufwärts Karten funktionieren. Nicht mehr, nicht weniger.
Und woher nimmst du die Aussage, dass F-Sync nicht auf einen Framebuffer setzt? So wie ich das Verstanden habe, ist der auch bei A-Sync teil des Standards? Ausserdem scheint es ja nicht, so als ob die NV Produkte zwischen 30-40 HZ da so mega performen, Helligkeitsschwankungen etc sind wahrnehmbar und selbst bei 35 FPS scheint das ganze nicht wirklich flüssig zu wuppen. Ich sehe daher die Grenze bei 40 FPS (im Treiber) als vernünftige Entscheidung seitens AMD an, um den Kunden ein Mindestmaß an Qualität zu gewährleisten. Hätte NV evtl. auch machen sollen, wenn es aufgrund der Paneltechnologie noch nicht besser geht, muss man die Pille eben schlucken.

Ich sehe halt bei F/A-Sync den Vorteil, dass es nicht starr ist, sobald die Monitorhersteller Fortschritte bei der Paneltechnik haben, werden wir davon profitieren können, da es ein offener Industriestandart ist. Grade im Desktop Bereich steckt das ganze ja noch in den Kinderschuhen, da werden alle Hersteller noch lernen müssen. Wie immer bei sowas zahlt der early adaptor den Aufpreis und muss mit den technischen Einschnitten der ersten Generation leben. Wem nicht grade akut der Monitor abgefackelt ist, sollte einfach den Monitorkauf solange aussetzen, bis die ersten wirklich guten Panels da sind.
 
chithanh schrieb:
Die FreeSync-Zertifizierung besagt lediglich, dass der Monitor den Kompatibilitätstest bestanden hat.
Was da eine gesonderte Spezifikation oder ein Gütesiegel bringen soll, weiß ich nicht

Eben. Die FreeSync-Zertifizierung sollte meiner Meinung nach noch viel mehr sagen, so dass sich der Kunde wenn er einen FreeSync-Monitor kauft eine gewisse Erwartungshaltung haben kann und diese auch nicht enttäuscht wird. Eben z.B. durch zu hohe Mindestfreuquenzen bei den Displays. So lax wie es anscheinend gehandhabt wird, verhält sich FreeSync auf unterschiedlichen Monitoren auch unterschiedlich. Nur zu sagen "wir können 9 bis 240 Hz. Der Rest ist uns wurscht. Nicht unsere Baustelle" ist mir einfach zu wenig. Es wirkt wie nicht zuende gedacht. Da bin ich aber vielleicht auch einfach zu anspruchsvoll. "Es funktioniert" reicht mir daher auch nicht. Es sollte immer das gleiche Ergebnis sein, egal welchen Monitor man kauft.
 
Zuletzt bearbeitet:
Nur zu sagen "wir können 9 bis 240 Hz. Der Rest ist und wurscht. Nicht unsere Baustelle" ist mir einfach zu wenig. Es wirkt wie nicht zuende gedacht. Da bin ich aber vielleicht auch einfach zu anspruchsvoll.

Ich glaub ihr habt denn Sinn eines offenen Standards noch nicht verstanden?
Der soll sicher stellen, dass eben Hardware A mit Hardware B zusammenarbeiten / kommunizieren kann in einem festgelegten Rahmen. In wie weit der Rahmen dann auch genutzt wird, hängt eben von vielen Faktoren ab, z.B. technische Machbarkeit, Anwendungsfall und letztendlich auch am Kosten / Nutzen Faktor.
 
Chief_Rocker schrieb:
Ich sehe halt bei F/A-Sync den Vorteil, dass es nicht starr ist, sobald die Monitorhersteller Fortschritte bei der Paneltechnik haben, werden wir davon profitieren können, da es ein offener Industriestandart ist. Grade im Desktop Bereich steckt das ganze ja noch in den Kinderschuhen, da werden alle Hersteller noch lernen müssen. Wie immer bei sowas zahlt der early adaptor den Aufpreis und muss mit den technischen Einschnitten der ersten Generation leben. Wem nicht grade akut der Monitor abgefackelt ist, sollte einfach den Monitorkauf solange aussetzen, bis die ersten wirklich guten Panels da sind.

Das sehe ich auch so nur muss man wieder warten bis der offene standard Früchte trägt. Im September letzten Jahres hats geheissen die monitore kommen bald und mit tearing soll schluß sein. Was jetzt dabei rausgekommen ist sehen wir jetzt ein halbes Jahr später an der Diskusison hier. Sicherlich nicht das was AMD versprochen hat nämlich tear und Lagfree.
 
Zurück
Oben