Test AMD FreeSync im Praxistest

Momentan sollte man erstmal keines von beiden kaufen. Beides bindet bisher einen einfach an die Grafikkarten des jeweiligen Herstellers, beide Techniken scheinen ja noch das eine oder andere kleine Problem zu haben.
Ich würde abwarten, einen Monitor kauft man ja recht selten und meist eher für einen längerfristigen Nutzen. Daher wäre mir ein Kauf eines GSync Monitors wegen der Bindung an NV Karten zu heikel (wenn ich die Funktion in Zukunft ständig nutzen will) und der Kauf eines Free-Sync/Adaptive-Sync Monitors auch, da bisher nur AMD Karten das nutzen.
Besser abwarten, ob NV/Intel mit aufspringen bei Adaptive-Sync und dann entsprechend kaufen. Bis dahin ist die Technik auch noch etwas ausgereifter, bessere Panels usw.
 
Die Verkaufszahlen gefallen der Industrie bei G-Sync nicht. Cebit lässt Grüßen.
Und Adaptive-Sync Variante bzw. die Panels die die Hersteller verwenden sind bei beiden Varianten (G/F-Sync) fürn Popo, für mich zumindest. Gefällt mir alles nicht. Die Industrie wird sich auf diesen aber einschlagen, da kaum Kosten verursacht, fehlen leider die Panels für den neuen Standard, sowas braucht Zeit. Aber Beta Tester sind die Early-Adaptors - daher ein Danke an alle die sich G-Sync schon reingezogen haben :)

Die Teile auf den Messen haben alle hässlich geflimmert, gefiel mir mal überhaupt nicht. Und die mir gefallen, sind nur bei 40hz und haben grottige TN Panels neee danke.

Wird wohl allem Anschein nach nen 4K Samsung Teil. Noja. Warten kostet nüx.
 
Zuletzt bearbeitet:
Sehe ich auch so
Mein Monitor ist erst ca. sechs Monate Alt und bis ich mir einen neuen kaufe wird sicherlich noch gut zwei Jahre vergehen, wenn der nicht vorher schon die Grätsche macht (auf Holz Klopf). Bis dato hoffe ich das Nvidia endlich von ihrem proprietären Misst runter kommt und wir dadurch Adaptive Sync Monitore bekommen die mit jeder Grafikkarte verwendet werden kann.

144Hz IPS mit Adaptive Sync ist das was ich mir wünsche!
 
Nur mal so am Rande.
Intels "GPU" können von einem kostenfreien FreeSync auch profitieren. Sollte Intel das aufnehmen, dann dürfte FreeSync eine krassen "Preis und Leistungskrieg" auslösen
 
tnoay schrieb:
volle zustimmung. sowas würde ich nie kaufen.

Diese Teilung des Marktes kam halt mal wieder durch nVidia. Sie wollten wieder ihren eignen proprietären Mist an den Kunden bringen, anstatt auf einen Standard zu setzen, der dadurch Industrieweit genutzt werden kann.

Fakt ist auch, dass momentan die Technik der Panels noch leicht hintendran ist, und man den Herstellern noch ein weilchen Zeit geben muss, bis die letzten Fehler behoben sind. Allerdings bin ich erneut AMD dankbar dafür, dass sie auf den 1.2a DP Standard gedrängt haben, dadurch wurde das immerhin vorangetrieben, dass diese Technologie genutzt werden kann, und sich die Industrie da eher dranwagt.

Genauso bin ich auch AMD dankbar für Mantle, denn durch diesen Druck kommt es überhaupt erst so schnell zu Direct X 12 mit ähnlichen Möglichkeiten wie Mantle. Das einzige was nVidia in der letzten Zeit getan hat, war auf offene Standards zu pfeifen, und zu versuchen schnellstmöglich proprietäre Sachen zu verkaufen, um auch noch Lizenzgebühren von den Monitorherstellern einzusacken. Sehr grenzwertig, selbst für nVidia.
 
Glaubt ihr man könnte zb den LG34UM67 so modden dass man mit den Hz zb. auf 40 runter könnte? Von Seiten AdaptiveSync sollte es ja dann keine Probleme geben. War nur so ein Gedanke grad eben.
Manche overclocken ja ihr Monitore. Vl kann man ja auch runter mit den Hz
 
Glaube nicht das dies funktioniert. Overclocken tut man ja immer nach Oben

Edit: Also ich habe mein Asus von 60Hz auf 75Hz übertaktet aber wüsste ehrlich gesagt nicht wie man das hinbekommen sollte den unteren Grenzwert zu verschieben
 
Zuletzt bearbeitet:
Keine Ahnung auch, vl indem man irgendwelche Hex Tabellen editiert? :D
 
Relaxo32 schrieb:
Momentan sollte man erstmal keines von beiden kaufen. Beides bindet bisher einen einfach an die Grafikkarten des jeweiligen Herstellers, beide Techniken scheinen ja noch das eine oder andere kleine Problem zu haben.
Ich würde abwarten, einen Monitor kauft man ja recht selten und meist eher für einen längerfristigen Nutzen. Daher wäre mir ein Kauf eines GSync Monitors wegen der Bindung an NV Karten zu heikel (wenn ich die Funktion in Zukunft ständig nutzen will) und der Kauf eines Free-Sync/Adaptive-Sync Monitors auch, da bisher nur AMD Karten das nutzen.

Also bei mir hat GSync einwandfrei funktioniert.

Ich verstehe auch nicht so ganz das Rumreiten auf den 30-40Hz. Wer ein Spiel mit 30fps spielt und damit keine Probleme in Bezug auf Ruckeln hat, braucht eh kein GSync/Freesync. Bei allen Anderen, die 30fps stören würde, bringt eine bessere Grafikkarte viel mehr.

Ich selbst bin von 60Hz auf 144Hz und anschließend auf 144Hz mit GSync gewechselt. Der Wechsel von 60 auf 144Hz war wie eine Offenbarung. Seitdem stelle ich lieber sämtliche Details runter als auf 120-144fps zu verzichten. Der Wechsel auf GSync hat "nur" das Tearing entfernt, was nett, aber bei weitem nicht so einen Aha-Effekt auslöste wie der Wechsel auf 144Hz.

Und mal ehrlich, 4K ist zwar nett, nutzt aber nicht viel ohne passende Grafikkarten. Imho wird vermutlich erst die Nachfolgeneration der 390X genug Saft für 4K mit anständigen FPS haben.
Deswegen warte ich auf einen passenden curved 34Zoll Freesync-Monitor mit 144Hz und 2560x1080er Auflösung. Sollte es das nicht geben bis Ende des Jahres, werde ich wahrscheinlich einen 27Zöller mit 2560x1440er Auflösung nehmen.
TN oder IPS wäre mir dabei egal, da anscheinend die billigen IPS-Panels auch nicht so toll sein sollen und ich mit meinem jetzigen TN-Panel eigentlich keine Probleme habe.
 
Doch, deine ganze Argumentation basierte bisher darauf, das du AMD die schuld gibst das es noch kein Adaptive Sync Monitor gibt unterhalb von 40Hz...

Du solltest also dringend mal deine eigene Beiträge lesen :D
 
@Cyber
Firmware des Monis bearbeiten. Der meldet ja Freesync/GPU was er kann.

Aber dann ergeht es diesem womöglich so, wie den ganzen Acern und ROG Monitoren. :D
 
Pumpi schrieb:
Wenn ich mit meinen fps weiter runter gehen kann, weil das adaptive System eben dort funktioniert, dann kann ich mit der frei gewordenen Leistung mehr Bildqualität erzeugen.
Das ist Blödsinn. Die derzeit verwendeten Panels flimmern zwischen 30 und 40 Hz. Das zeigen alle Gsync Tests. Das ist die schlechtere Bildqualität, denn bevor der Monitor irgendetwas anderes können muss, muss er flimmerfrei sein.
 
Zwischen 30 und 40 Hz flimmert da gar nichts, die Tests beziehen sich auf "stall events", also Totalaussetzer.
 
Daedal schrieb:
Das ist Blödsinn. Die derzeit verwendeten Panels flimmern zwischen 30 und 40 Hz. Das zeigen alle Gsync Tests. Das ist die schlechtere Bildqualität, denn bevor der Monitor irgendetwas anderes können muss, muss er flimmerfrei sein.

G-Sync flimmert bei 30fps hin und wieder in ein paar wenigen Menü's und das nicht mal bei jedem Monitor ! G-Sync flimmert nicht generell. Davon berichten weder Tester noch User. Mir ist kein User bekannt der sein G-Sync Gerät wegen flimmerns zurück gegeben hat. Das wäre in Deutschland mit dem Rückgaberecht ja problemlos möglich.

CB: Vorläufiges Fazit

Im Arbeitsbereich von 30 bis 60 FPS behebt G-Sync die von V-Sync bekannten Nachteile Tearing, Input Lag und Stottern effektiv. Wie groß der Effekt ausfällt, hängt vom Spiel ab – denn nicht immer sind die Probleme bei V-Sync gravierend.

So gibt es Titel wie Anno 2070, das mit V-Sync an oder aus beim Scrollen entweder extrem stark grafisch zerhackt wird oder störend anfängt zu ruckeln, wenn die FPS-Rate unter die magischen 60 FPS rutscht. Hier wirkt G-Sync geradezu Wunder. In anderen Titeln, zum Beispiel Tomb Raider, bringt die Nvidia-exklusive Technik ebenso spürbare Vorteile. Die Grafik wirkt mehr „aus einem Guss“. Doch es gibt Titel, bei denen G-Sync im Arbeitsbereich auf einem 60-Hertz-Monitor nicht viel ausrichtet. Crysis 3 ist solch ein Fall.

G-Sync macht bei 60-Hertz zwar nicht alles besser als V-Sync, arbeitet aber immer optimal. Auf „schnelleren“ Monitoren wird der spürbare Nutzen allerdings immer kleiner. So verhalten sich viele Spiele bei 144 Hertz (mit V-Sync an und aus) ziemlich ähnlich zum 60-Hz-Pendant inklusive G-Sync. Optisch am besten ist zweifellos die Kombination aus beidem: 144 Hz mit G-Sync erzeugt das flüssigste Bild, das derzeit möglich ist – doch der Unterschied zum abgeschalteten G-Sync ist bei dieser Bildwiederholfrequenz gering.

Fazit: G-Sync minimiert Tearing, Stottern und den erhöhten Input Lag effektiv, bringt als proprietäre Technik mit dem Zwang zum Neukauf des Monitors allerdings zwei große ABER mit sich. Die in diesem Zusammenhang guten Nachrichten für Besitzer von AMD-Grafikkarten und glückliche Inhaber funktionstüchtiger Monitore sind zum einen, dass G-Sync nicht immer einen deutlichen Vorteil gegenüber V-Sync an/aus liefert, weil die altbekannte Lösung oftmals zufriedenstellend ihren Dienst verrichtet. Zum andere funktioniert die Technik nur zwischen 30 FPS und der maximalen Bildwiederholfrequenz des Monitors, ihr Erwerb ist auch deshalb nicht zwangsläufig der heilige Gral.

Darüber hinaus zeigt unser Test, dass Monitore mit viel Hertz die Probleme von V-Sync auf 60-Hertz-Monitoren vergleichbar effizient angehen. Und diese Lösung steht bereits allen Anwendern, auch denen mit AMD-Grafikkarte zur Verfügung.

Ein schöner Nebeneffekt von G-Sync wäre, wenn auf diesem Weg hochwertige Monitore ohne TN-Technik, die aktuell lediglich 60 Hertz liefern, fitter für den Spielealltag gemacht werden. Dann könnten Spieler ein störungsfreies Bild mit einer generell höherwertigen Qualität kombinieren. Solche Monitore sollen laut Nvidia zwar auch auf den Markt kommen, doch wird es am Anfang voraussichtlich nur 144-Hz-Monitore mit TN-Panel geben. Wie unser Test zeigt, ist der Einsatz von G-Sync auch bei diesen Exemplaren von Vorteil – aber nur von kleinem.

Persönliche Meinung des Autors:
Als Enthusiast bin ich immer für einen Fortschritt zu haben – auch für einen Hersteller-exklusiven Fortschritt. So traue ich der AMD-exklusiven Low-Level-API Mantle viel zu. Und auch G-Sync wird meiner Meinung nach nicht einfach so wieder von der Bildfläche verschwinden, wie manch andere proprietären Techniken. Und dennoch sehe ich ein Problem bei G-Sync – das aber nicht mit der Technik an sich zusammenhängt.

Mein letzter Monitorkauf stammt von Anfang 2009. Seitdem hat sich auf dem Markt durchaus viel getan, aber wiederum nicht so viel, wie ich gern hätte. Denn mittlerweile haben sich zwei Lager aufgetan: Das Lager der Spielermonitore und jenes der allgemein besseren Bildqualität (Panel). Beide kommen zwar so gesehen mit exklusiven Techniken daher, einen Monitor der „alles“ kann gibt es aber nicht. Und genau das ist das Problem.

Denn da ich viel mehr am PC mache als nur zu spielen, kommt für mich ein TN-Panel nicht in Frage. Zwar hat es auch bei diesen in den letzten Jahren zweifellos Verbesserungen gegeben, dennoch erkenne ich innerhalb von Sekunden, ob ich vor einem TN- oder einem anderen, hochwertigeren Panel sitze. Dies ist auch beim Asus-Monitor mitsamt G-Sync der Fall. Der Qualitätsunterschied zwischen den Paneltechniken ist mir einfach zu groß, als dass ich einen TN-Monitor auch nur als ernste Alternative in Betracht ziehen würde.

Wer sich auf dem Markt umschaut, findet zahlreiche Geräte mit IPS/MVA-Panel oder andere Technologien mit einer angenehmen Größe von 27 Zoll und einer Auflösung von 2.560 × 1.440 Bildpunkten. TN-Panel stagnieren dagegen bei 1.920 × 1.080. Maximal bei 24-Zoll-Geräten halte ich diese Auflösung am PC noch für sinnvoll, ansonsten werden die Pixel zu groß. Auf der anderen Seite kleben hochwertige Monitore bei 60 Hertz fest. 120 und 144 Hertz gibt es nur im TN-Lager. Aber die höhere Bildwiederholfrequenz macht sich in Spielen durchaus positiv bemerkbar. Gleichzeitig gibt es somit auch 3D nur auf TN-Monitoren und dasselbe gilt auch für G-Sync – zu Beginn zumindest.

Damit muss ich mich im Endeffekt entscheiden, welche Nachteile für mich akzeptabler sind: Schlechtere Bildqualität und flüssigere Spiele oder lieber höhere Bildqualität bei mitunter weniger flüssigem Spielgeschehen. Doch ich möchte mich nicht selbst ausbremsen. Wo also bleibt der 27 Zoll große Monitor mit einem hochwertigen Panel, einer Auflösung von 2.560 × 1.440 Pixel, 144 Hertz und gerne auch mit G-Sync? Ja, so ein Gerät wäre gewiss teuer. Doch kaufe ich mir ja auch nicht andauernd einen neuen Monitor und starre zudem teils stundenlang am Stück auf das Display. Da kann es dann auch gerne etwas teurer sein.
Ergänzung ()

graysson schrieb:
Also bei mir hat GSync einwandfrei funktioniert.

Ich verstehe auch nicht so ganz das Rumreiten auf den 30-40Hz. Wer ein Spiel mit 30fps spielt und damit keine Probleme in Bezug auf Ruckeln hat, braucht eh kein GSync/Freesync. Bei allen Anderen, die 30fps stören würde, bringt eine bessere Grafikkarte viel mehr.

Ich selbst bin von 60Hz auf 144Hz und anschließend auf 144Hz mit GSync gewechselt. Der Wechsel von 60 auf 144Hz war wie eine Offenbarung. Seitdem stelle ich lieber sämtliche Details runter als auf 120-144fps zu verzichten. Der Wechsel auf GSync hat "nur" das Tearing entfernt, was nett, aber bei weitem nicht so einen Aha-Effekt auslöste wie der Wechsel auf 144Hz.

Du verstehst bzw. nutzt die G-Sync Technik nicht in seiner Gänze weil du ein high-fps Gamer bist. Wer viel Strategiespiele spielt der weiß das 30 saubere fps eigentlich ausreichen würden, wenn es dann glatt laufen würde. Wenn ich von 40 minfps auf 30 minfps runter gehen kann, dann sind 25% Leistung frei geworden die ich in BQ investieren kann. Wer den extremen Benefit nicht erkennt tut mir leid...
 
Zuletzt bearbeitet:
JMP $FCE2 schrieb:
Zwischen 30 und 40 Hz flimmert da gar nichts, die Tests beziehen sich auf "stall events", also Totalaussetzer.
http://www.anandtech.com/show/8915/asus-rog-swift-pg278q-g-sync-monitor-review/2
One of the other issues that you run into with 4K gaming and G-SYNC is that you will frequently drop below 40 FPS in demanding games. At that point, the on-screen pixels begin to decay and you can see a noticeable flicker. That's one more reason to stick with a lower resolution, as staying above 40 FPS isn’t as difficult, but there are other potential benefits. With a 144Hz maximum refresh rate, rather than only drawing a frame twice when the refresh rate drops below 30Hz, it’s possible for G-SYNC to draw frames twice at anything below 72FPS, at which point flicker shouldn’t be an issue. It’s not clear whether or not ASUS (or NVIDIA G-SYNC) do this right now, and the response when I asked was a cryptic “we are not releasing any implementation details on G-SYNC right now”, which means it may be a future feature (and there’s likely a bit of overhead with drawing a frame twice). It would be smart to at least draw twice at frame rates below 45 FPS, though, as that’s when flicker starts to become a problem and there’s no reason a 144Hz display couldn’t refresh twice (effectively 90Hz).
PCPer hat auch die Bestätigung von Nvidia dafür und dass es keine Lösung dafür gibt derzeit.

http://techreport.com/news/27449/g-sync-monitors-flicker-in-some-games-and-here-why

http://www.pcper.com/reviews/Editorial/Look-Reported-G-Sync-Display-Flickering
So there you have it. It's basically down to the physics of how an LCD panel works at varying refresh rates. While I agree that it is a rare occurrence, there are some games that present this scenario more frequently (and noticeably) than others. If you've noticed this effect in some games more than others, let us know in the comments section below.

(Editor's Note: We are continuing to work with NVIDIA on this issue and hope to find a way to alleviate the flickering with either a hardware or software change in the future.)
 
Zuletzt bearbeitet:
Pumpi schrieb:
Du verstehst bzw. nutzt die G-Sync Technik nicht in seiner Gänze weil du ein high-fps Gamer bist. Wer viel Strategiespiele spielt der weiß das 30 saubere fps eigentlich ausreichen würden, wenn es dann glatt laufen würde. Wenn ich von 40 minfps auf 30 minfps runter gehen kann, dann sind 25% Leistung frei geworden die ich in BQ investieren kann. Wer den extremen Benefit nicht erkennt tut mir leid...
Wie ich schon erwähnt habe, finde ich eine flüssige Darstellung wichtiger für das Spielgefühl als hohe Grafikeinstellungen. Und es scheint genug zu geben, die das ähnlich sehen, da es ja sonst keine 144Hz Monitore geben würde.
 
Daedal schrieb:
PCPer hat auch die Bestätigung von Nvidia dafür und dass es keine Lösung dafür gibt derzeit.
Schon wieder scheinen sich Anandtech und PCPer zu widersprechen. Erstere schreiben von Problemen zwischen 30 und 40 FPS, letztere von Problemen bei kompleten stalls, also Stillständen.
 
Beides passiert. Das ist kein Widerspruch. Deshalb habe ich auch beides verlinkt. Warum Stalls als gesondert betrachtet werden ist sowieso nicht zu begründen..die Pixel verblassen unter 40 Hz so weit, dass es flimmert. Ob die FPS drunter fällt oder ein stall dafür sorgt dass es kein neues Bild gibt spielt doch keine Rolle. Die Grenze der wahrnehmbarkeit schein 36 FPS zu sein...was auch den verwendeten Panel-Spezifikationen entspricht die zu 90% verbaut werden: 36-240 Hz
 
@Smagjus,

gibt auch empfindlichere Menschen, ich hab die Geräte vor mir gehabt. Beide Varianten lohnt sich nicht zu kaufen, die Panels sind alle fürn Popo. Monitore die so flimmern wie diese hab ich das letzte mal bei einem 10 Jahre alten Monitor erlebt, allerdings wegen des Alters, da kriegt man Kopfschmerzen von.

Wenn Samsung nicht bessere Panels verbaut, dann warte ich auf Panels von Sharp. Die können das, was Softwaretechnisch von F-Sync unterstützt wird ohne zu flimmern.
Und wie man die Industrie kennt, bestimmt erstmal nur in Modellen für 800€ -.-

Flüssig auf low fps ist mir rille, ich will das Tearing nicht mehr haben :)
 
Zuletzt bearbeitet:
Zurück
Oben