Test AMD FreeSync im Praxistest
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: AMD FreeSync im Praxistest
B
BlauX
Gast
Musst du leider lange warten, zur Zeit sind bei allen 21:9 Monitoren, Panels von LG verbaut. Die können das nicht. Die haben sogar schon vereinzelnd Probleme mit 120hz.
Nächstes Jahr, mit dem 4K Zug.
Nächstes Jahr, mit dem 4K Zug.
Zuletzt bearbeitet:
Lord Horu$
Commander
- Registriert
- Mai 2008
- Beiträge
- 2.175
Interessant die Technik.
Momentan ist FreeSync mmn. die bessere Technik, zumal sie in den DisplaPor Standard Einzug halten soll.
Das Problem sehe ich leider bei nVidia.
Die haben in der Vergangenheit schon oft gezeigt, dass sie stur gegen den Strom schwimmen, nur um Ihre Technik durchzudrücken.
Ich kann mir also gut vorstellen, dass die einfach GSync pushen und die FreeSync Unterstützung für DP schlichtweg ignorieren.
Warum? Weil mimimimimi! Anders kann ich es mir nicht erklären. nVidia war hier schon immer stur, wie n Esel.
Das würde dann alles irgendwie negieren, weil man dann seinen Monitor in dieser Hinsicht an den GPU Hersteller bindet, was doch ziemlich dämlich ist.
Momentan ist FreeSync mmn. die bessere Technik, zumal sie in den DisplaPor Standard Einzug halten soll.
Das Problem sehe ich leider bei nVidia.
Die haben in der Vergangenheit schon oft gezeigt, dass sie stur gegen den Strom schwimmen, nur um Ihre Technik durchzudrücken.
Ich kann mir also gut vorstellen, dass die einfach GSync pushen und die FreeSync Unterstützung für DP schlichtweg ignorieren.
Warum? Weil mimimimimi! Anders kann ich es mir nicht erklären. nVidia war hier schon immer stur, wie n Esel.
Das würde dann alles irgendwie negieren, weil man dann seinen Monitor in dieser Hinsicht an den GPU Hersteller bindet, was doch ziemlich dämlich ist.
B
BlauX
Gast
Glaub ich nicht mal... den Herstellern gefällt das nicht, weil die noch weniger davon verkauften, als gedacht. Die 3 größten Big-Player für die Scaler haben sich schon auf den VESA Standard eingeschossen.
Fehlen nur noch die Panels, die schon auf dem Weg sind. Ich gehe eher von einer Stillen Unterstützung aus. Ab nächstes Jahr weil vermutlich erst die Maxwells mit dem Monitor (DP 1.2a) labern (VRR) können, und sobald das gesamte Lineup bei Nvidia mit Maxwell ausgestattet ist, hat man auch die entsprechende breite Unterstützung (Anzahl @Consumer)
Fehlen nur noch die Panels, die schon auf dem Weg sind. Ich gehe eher von einer Stillen Unterstützung aus. Ab nächstes Jahr weil vermutlich erst die Maxwells mit dem Monitor (DP 1.2a) labern (VRR) können, und sobald das gesamte Lineup bei Nvidia mit Maxwell ausgestattet ist, hat man auch die entsprechende breite Unterstützung (Anzahl @Consumer)
Zuletzt bearbeitet:
CortanaXB
Cadet 4th Year
- Registriert
- Dez. 2014
- Beiträge
- 91
Naja, bis dahin begnüge ich mich mit meinem LG 29EB73. Der lässt sich immerhin auf 75Hz übertaktenBlauX schrieb:Musst du leider lange warten, zur Zeit sind bei allen 21:9 Monitoren, Panels von LG verbaut. Die können das nicht. Die haben sogar schon vereinzelnd Probleme mit 120hz.
Nächstes Jahr, mit dem 4K Zug.

luluthemonkey
Lt. Commander
- Registriert
- Sep. 2005
- Beiträge
- 1.114
Wie verhält sich das mit dem ImputLag außerhalb der Refreshrate wenn man im Spiel oder Treiber eine FPS Limitierung gesetzt hat?
Pumpi schrieb:Der Punkt ist doch folgender:
NV hat vor gut einem Jahr G-Sync erfolgreich raus gebracht. Ab 30fps kann jeder G-Sync Monitor adaptiv Bilder ausgeben. Die Maximal fps schwanken je nach Hersteller, es ist aber möglich die komplette Range von 30-144fps zu erhalten.
Dann kam AMD ein paar Wochen später mit einer Demo und hat über Mitarbeiter sinngemäß verlautbaren lassen das man das auch alles kann, und sogar noch besser. Ohne teure Zusatzhardware und das schon zum Jahreswechsel. Es braucht nur den AMD Treiber und den VESA Standard.
Und was ist daraus geworden ? Ein System das im Moment für HQ-Gamer eher uninteressant geworden ist, denn die Limitierung auf 40/48fps ist erheblich wenn ich ordentliche BQ schätze. Jetzt kann man natürlich im kleingedruckten finden das AMD gar nicht liefern muss, nur ist es das was man heute erwartet hat ? Ich sage Nein.
Diese 30-144Hz Bandbreite bei G-Sync liegt aber einfach an dem verbauten G-Sync-Modul. Davon gibt es momentan genau 1 Typ, nämlich das eine Ding das nVidia an die Panelhersteller liefert.
Bei Adaptive Sync/Freesync hingegen ist der Displayhersteller ungebunden was die Wahl seines Scalers betrifft...es gibt ZIG-Scaler hersteller und die größten 3 stellen schon adaptive sync fähige scaler her.
Gegenfrage: Wieviele Custom-Design GPUs gibt es nach einem GPU-Release an Tag 1 ? Wieviele nach 2 Monaten etc. ?
=> DER Vorteil von Freesync/DP1.3-Standard vs. G-Sync ist dass man eben auf die Innovationsfähigkeit des GESAMTEN marktes setzen kann...wenn jemand einen besseren/cleveren Scaler kreiiert und mit einem besseren Display kombiniert wird dieser besser sein als alles vorherige.
Bei G-SYNC kannst du nur den scaler nehmen den nVidia liefert...der ist ja nach den gängigen Tests nicht schlecht aber ich gehe JEDE WETTE ein dass die Innovationskraft der zig-display und scaler hersteller binnen kurzer Zeit eine Qualität bringen wird die das G-Sync-Modul in allen Bereichen schlägt.
[/Quote]Es scheint eben nicht ohne weiteres möglich mit dem Freesync System an die G-Sync Qualität ran zu kommen. .
Die Antwort gab Smilefaker:
Die Tests zeigen ja das man an die Qualität von G-sync sehr wohl herankommt.
Wer unbedingt bis hinab zu 30 FPS Sync benötigt, der muss aber auch mit diversen Nachteilen leben können.
Die Qualität ist eben nicht geringer, lediglich die Specs sind anders, das haben doch die Tests gezeigt?
Ob da nun bessere Scaler gebaut werden müssen oder ob die Panels für Freesync verbessert werden müssen ist dabei unerheblich. So schnell, einfach und günstig wird es eben nicht gehen. Und wenn da jemand angepisst ist der Monate auf Freesync gewartet hat, und nun dieses Resultat vor findet, dann hab ich da volles Verständnis für
wie oben schon geschrieben:
Gegenfrage: Wieviele Custom-Design GPUs gibt es nach einem GPU-Release an Tag 1 ? Wieviele nach 2 Monaten etc. ?
=> DER Vorteil von Freesync/DP1.3-Standard vs. G-Sync ist dass man eben auf die Innovationsfähigkeit des GESAMTEN marktes setzen kann...wenn jemand einen besseren/cleveren Scaler kreiiert und mit einem besseren Display kombiniert wird dieser besser sein als alles vorherige.
Verstehst du vielleicht jetzt warum so viele Technik interessierte soviel von Adaptivesyn/freesync halten und G-Sync "verteufeln"...
Warum gibt es hunderte verschiedene autohersteller ? Aus dem gleich grund - weil Wettbewerb die Innovation fördert.
Der CPU-Markt ist auch quasi eingeschlafen seit Intel so weit an AMD vorbeigezogen ist dass sie ihr quasi-Monopol halten können.
CyberdyneSystem
Fleet Admiral
- Registriert
- Okt. 2009
- Beiträge
- 10.857
So sieht es aus
Ich möchte Zukünftig Monitore kaufen können mit Adaptive Sync ohne an einem Grafikkartenhersteller gebunden zu sein. Ansonsten haben wir Kunden irgendwann ein Dickes Problem und wir können gleich auf eine Konsole umsteigen
Ich möchte Zukünftig Monitore kaufen können mit Adaptive Sync ohne an einem Grafikkartenhersteller gebunden zu sein. Ansonsten haben wir Kunden irgendwann ein Dickes Problem und wir können gleich auf eine Konsole umsteigen
Pumpi
Lt. Commander
- Registriert
- Juni 2010
- Beiträge
- 1.173
Iscaran schrieb:Gegenfrage: Wieviele Custom-Design GPUs gibt es nach einem GPU-Release an Tag 1 ? Wieviele nach 2 Monaten etc. ?
Bei Nvidia (GTX 970) gab es fast alle Customs ab Tag1. Und da es kein Referenz Freesync Monitor gibt war für die Monitorhersteller klar das sie in der Pflicht sind....
Bei Adaptive Sync/Freesync hingegen ist der Displayhersteller ungebunden was die Wahl seines Scalers betrifft...es gibt ZIG-Scaler hersteller und die größten 3 stellen schon adaptive sync fähige scaler her.
Natürlich stellen die freien Scalerhersteller nur AdaptiveSync Teile her, denn NVidia gibt ihnen keine Lizenz.
Bei G-SYNC kannst du nur den scaler nehmen den nVidia liefert...der ist ja nach den gängigen Tests nicht schlecht aber ich gehe JEDE WETTE ein dass die Innovationskraft der zig-display und scaler hersteller binnen kurzer Zeit eine Qualität bringen wird die das G-Sync-Modul in allen Bereichen schlägt.
Die Frage ist eben welchen Aufwand es braucht um einen Superscaler herzustellen....
Die Monitorhersteller sollten dann, wenn die Scaler günstiger geworden sind, beide verbauen. So kann man sich dann immer noch für einen Hersteller bzw eine Scalertechnik entscheiden.
- Registriert
- Nov. 2008
- Beiträge
- 523
Beide zu verbauen wäre der falsche Ansatz, damit würde man eine proprietäre Technik unterstützen, die das selbe tut, was der Monitor soweiso schon kann. Es wäre wesentlicher einfacher, wenn Nvidia über seinen Schatten springt und diese freie Technik unterstützen würde.
Davon haben die Nvidia Kunden wesentlich mehr.
Davon haben die Nvidia Kunden wesentlich mehr.
CyberdyneSystem
Fleet Admiral
- Registriert
- Okt. 2009
- Beiträge
- 10.857
So mal Nvidia die Preise bestimmt für Ihre Scaler.
Das würde ein Monitor unnötig teuer machen
Das würde ein Monitor unnötig teuer machen
Neronomicon
Captain
- Registriert
- Dez. 2009
- Beiträge
- 3.227
Freu mich das AMD das auf den Markt gebracht hat. Hier ein Video zu FreeSync http://www.pcgameshardware.de/AMD-F...namische-Bildwiederholfrequenz-Video-1153894/.
Aber zum Schluß sagt der Redi das man es am besten direkt bei einem Spiel sieht. Denn beim Video seh ich auch keinen großen Unterschied.
Generell seh ich das Thema für mich eh als Luxusproblem an, obwohl ich schon gerne selber mal ausprobieren würde.
Aber was Nvidia macht ist nur Geldschneiderei. Da seh ich es nicht ein soviel Geld dafür auszugeben. In den 90 J. wäre es viel dringender gewesen als jetzt. Aber wenn ich irgend wann mal meinen Monitor auswechsel, also in ungefähr 10 Jahren, könnte ich mich mal umschauen danach.
Aber zum Schluß sagt der Redi das man es am besten direkt bei einem Spiel sieht. Denn beim Video seh ich auch keinen großen Unterschied.
Generell seh ich das Thema für mich eh als Luxusproblem an, obwohl ich schon gerne selber mal ausprobieren würde.
Aber was Nvidia macht ist nur Geldschneiderei. Da seh ich es nicht ein soviel Geld dafür auszugeben. In den 90 J. wäre es viel dringender gewesen als jetzt. Aber wenn ich irgend wann mal meinen Monitor auswechsel, also in ungefähr 10 Jahren, könnte ich mich mal umschauen danach.
Zuletzt bearbeitet:
A
Andy8891
Gast
Iscaran schrieb:=> DER Vorteil von Freesync/DP1.3-Standard vs. G-Sync ist dass man eben auf die Innovationsfähigkeit des GESAMTEN marktes setzen kann...wenn jemand einen besseren/cleveren Scaler kreiiert und mit einem besseren Display kombiniert wird dieser besser sein als alles vorherige.
Es geht um das JETZT. ALLES verbessert sich irgendwann. Sobald es gute Free-Sync Monitore gibt, wird Oled angekündigt und dann kannst wieder warten, dann 3d ohne Brille und dann wieder usw.
B
BlauX
Gast
Zuletzt bearbeitet:
Daedal schrieb:Beides passiert. Das ist kein Widerspruch. Deshalb habe ich auch beides verlinkt. Warum Stalls als gesondert betrachtet werden ist sowieso nicht zu begründen..die Pixel verblassen unter 40 Hz so weit, dass es flimmert.
Ich sehe da nur einen Tester, der bei einem Exemplar des Acer 4k-Monitors ein Problem festgestellt hat, und das zu einem generellen Problem aufzublasen versucht.
Und das mit den "Stalls" ist deshalb eine andere Baustelle, weil es offensichtlich ein Bug der Autorefreshlogik ist. Die von PCper beobachtete Frameverdopplung/-verdreifachung etc. bei unter 30 fps erhält zwar die volle G-Sync-Funktion, ist aber auf eine Vorhersage der Frametime angewiesen. Und die schlägt bei einem plötzlichen Aussetzer (Nachladeruckler o.ä.) natürlich fehl.
Bei eigenen Tests mit Quake 3 und dem Acer XB270HA fing unterhalb von 8 fps der Hardware-Frameratenbalken des Monitors an zu spinnen, und nur (!) bei 5 fps gab es sichtbare Helligkeitsschwankungen, die bei 4 und 6 fps lustigerweise verschwanden. Jeder einzelne Wert zwischen 8 und 40 fps funktionierte einwandfrei - kein Flimmern, kein Tearing und kein Vsync-Holpern.
Mir zumindest sind leichte Glitches im einstelligen fps-Bereich deutlich lieber als die Totalkapitulation von AMD (wahlweise 25 ms Judder oder grässliches Tearing bei Frameraten unter 40 bei den aktuell verfügbaren Monitoren).
noxon
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 7.570
Doch gerade hier sind GSync/Freesync sinnvoll. Wenn du spiele mit hohen Frameraten spielst fällt auch das Tearing geringer aus und der Lag wird auch immer geringer. Sinn machen die Sync Techniken ganz besonders im niedrigen FPS Bereich. Von daher ist das schon relevant.graysson schrieb:Ich verstehe auch nicht so ganz das Rumreiten auf den 30-40Hz. Wer ein Spiel mit 30fps spielt und damit keine Probleme in Bezug auf Ruckeln hat, braucht eh kein GSync/Freesync.
Es geht ja auch nicht darum konstant bei 30 fps spielen zu wollen. Spiele schwanken ja immerhin schon mal zwischen 30 und 60 fps. Das ist ja durchaus normal. Da wäre es schön, wenn der Monitor nicht ständig zwischen Freesync und VSync hin und herwechseln müsste, was eventuell zu Microrucklern führen könnte.
Die neuste Iteration von G-Sync funktioniert sogar noch bis zu 25 fps, bevor VSync wieder aktiviert wird.
Bis 30 fps ist GSync noch ganz normal aktiviert und sobald die Framerate unter das Minimum fällt verdoppelt nVidia einfach die Framerate und stellt jedes Bild einfach zwei Mal da. Erst wenn das Limit von 25 fps erreicht ist, dann ist endgültig Schluss und es wird auf die Monitorrefreshrate geschaltet.
http://wccftech.com/amd-freesync-nvidia-gsync-verdict/ schrieb:G-Sync employs a very clever trick in its latest iteration. Unlike the previous G-Sync behavior below the minimum refresh rate G-Sync now wouldn’t simply fix the panel at the maximum refresh rate. Instead the panel will display the frame at a refresh that’s twice the FPS.
Let’s say your game FPS falls down to 25 FPS (40ms per frame), the display panel can’t simply go down to 25Hz for reasons tied to brightness and pixel longevity. So what G-Sync does is display the frame twice at a rate of 50Hz (20ms per frame twice = 40ms ). So the frame stays on the screen for the exact length of time that it needs to. This provides an experience that’s identical to a panel that’s capable of 25Hz. The only downside to this technique is that it can cause a perceptible change in brightness on some panels i.e. flickering. So it’s certainly not a perfect solution but it’s still a viable and more satisfying alternative to the current FreeSync implementation.
Natürlich ist es nicht optimal hier dauerthaft mit 25 fps zu spielen, aber es ist gut zu Wissen, dass man während einer Explosion auf dem Schirm, die die Framerate in den Keller drückt nicht gleich aus dem GSync Modus geschmissen wird und deswegen ist die Untergrenze auch recht wichtig.
Zuletzt bearbeitet:
noxon schrieb:Die neuste Iteration von G-Sync funktioniert sogar noch bis zu 25 fps, bevor VSync wieder aktiviert wird.
Bis 30 fps ist GSync noch ganz normal aktiviert und sobald die Framerate unter das Minimum fällt verdoppelt nVidia einfach die Framerate und stellt jedes Bild einfach zwei Mal da. Erst wenn das Limit von 25 fps erreicht ist, dann ist endgültig Schluss und es wird auf die Monitorrefreshrate geschaltet.
G-Sync funktioniert auch noch unterhalb von 25 fps:
http://www.pcper.com/reviews/Displays/AMD-FreeSync-First-Impressions-and-Technical-Discussion/Inside-and-Outside-VRR-Wind
Ähnliche Themen
- Antworten
- 19
- Aufrufe
- 880
- Antworten
- 8
- Aufrufe
- 557
- Antworten
- 7
- Aufrufe
- 283
- Antworten
- 8
- Aufrufe
- 500
- Antworten
- 11
- Aufrufe
- 931