Test AMD FreeSync im Praxistest

Ja das ist schlecht an Nvidia. Das Adaptive Sync ist ja auch ein super standard aber eben leider immer noch nicht marktreif wg den displayherstellern. Nvidia greift denen halt mit diesem Modul unter die arme. Dafür bezahlt man. Dafür gibts aber auch DSR bei Nvidia wo man Custom Resolutions machen kann nicht nur ne handvoll wie bei VSR. Keiner der beiden ist perfekt aber wenn ich tear free will und das jetzt dann bleibt wieder nur Nvidia außer man spielt spiele die nie unter 40 fps sind, was bei downsampling und schlecht optimierten spielen durchaus vorkommen kann und bei 4k sowieso.
 
Junge junge... hier ist aber was los :rolleyes:

Aktuell ist G-Sync vorne, aber was IHR ALLE nicht vergessen dürft: Beide Technologien sind noch ganz am Anfang. Es gibt für beide nur eine handvoll Monitore und kaum optimierte Treiber.

Das ist hier wie auf einem Grundschul-Elternabend, auf dem sich die Eltern streiten welcher 1.-Klässler später das bessere Abitur haben wird... auf der Argumentationsgrundlage der ersten 2 Wochen Unterricht. Großes Kino.

Diesen Test sollte man als VORABTEST sehen, als der aktuelle Stand des Betaphase. Warum streitet ihr euch über sowas?
 
Krautmaster schrieb:
eben. Und für diese Kunden die bewusst Gsync gekauft haben war das genau das eine Jahr und auch jetzt noch ein Benefit. 1 Jahr früher im Besitz einer Technik zu sein, die offensichtlich einen wirklichen Mehrwert bietet - da zahlen viele einen guten Aufpreis für. Und aus NV Sicht ist es schlicht wirtschaftlich.

Vielleicht hätte AMD einfach mit Freesync ein Jahr früher am Markt sein sollen...

Jup das Stimmt :D. Ich hab G-Sync schon seit ende März 2014. Man bemerkt bei soo vielen Spielen einen großen Unterschied. Zuletzt ist es mir extremst bei Lords of the Fallen aufgefallen. Hatte mal versehentlich in den Borderless Windowed mode geschaltet und dann war V-Sync aktiv. Ich dachte nur, wieso is denn das Bild so unruhig bzw. ruckelig? Bis ich es dann bemerkt hab xD. Ich will nie wieder ohne G-Sync.
 
engineer123 schrieb:
Insgesamt einigermaßen detaillierter Test, allerdings kann man das 40 Hz Problem von FreeSync nicht genug betonen und auch in diesem Artikel kommt es eher wie ein kleinerer Schönheitsfehler rüber.

Dazu schreibt und erklärt "PC Perspective" Tacheles
http://www.pcper.com/reviews/Displa...hnical-Discussion/Inside-and-Outside-VRR-Wind



Mit G-Sync bekommt man nicht "nur" bis runter auf 30 FPS eine flüssige Erfahrung, sondern sogar durchaus noch mit 20-30 FPS weil das G-Sync Modul die Raten "hochrechnet" und damit sogar in diesem normalerweise schon üblen FPS Bereichen einigermaßen flüssig für das Auge abläuft.

Ich kann jedem nur raten den PC Per Artikel zu lesen. Glaubt nicht wenn es hier und anderswo heißt: F-Sync ist fast genauso gut wie G-Sync. G-Sync ist aktuell im Gesamten immer noch eine ganze Ecke besser. Mag sein, dass AMD treiberseitige Besserung erreichen kann, das müssen sie aber erst beweisen.

Dem schließe ich mich an, bei Gamestar tun sich auch Unterschiede auf im Test und der Unterschied bei unter 40 fps ist sichtbar, was zumindest die ersten Freesync -Monitore für mich disqualifiziert bzw. nicht gleichwertig zu G-Sync macht.
 
smilefaker schrieb:
Die Bilder werden nicht verdoppelt ausgegen, sondern halbiert ausgegeben.
Das liegt daran, dass G-sync unterhalb von 30 Hertz nicht funktioniert, wahrscheinlich aufgrund das Panels.
Wir werden ja sehen wie es aussieht, wenn mehr Freesynmonitore kommen, und wie die Panels und Scaler arbeiten.

Was AMD dabei nur nicht bedacht hat... du kannst gar keine Displays produzieren die eine so niedrige Bildwiederholfrequenz bieten. Außer du gehst das Risiko ein, dass dir alle paar Tage das Display abraucht.

Deswegen sagt NVidia ok unter 30Hz skalieren wir einfach auf die doppelte, dreifache vierfache Frequenz, was halt gerade passt.
AMD macht es sich einfach und schiebt den schwarzen Peter zu den Monitor Herstellern. Die Grafikkarte kann bis zu 9 fps runter, wenn die Monitor Hersteller solche Displays nicht anbieten können ist das zwar nicht direkt AMDs Schuld, aber indirekt, da sie das Problem nicht angehen was sie aber müssten, da es seitens der Displays eine Grenze gibt wo die Hersteller nichts mehr machen können.
 
etoo schrieb:
Ja das ist schlecht an Nvidia. Das Adaptive Sync ist ja auch ein super standard aber eben leider immer noch nicht marktreif

Das halte ich für völlig übertrieben. Es bietet lediglich nicht die gleichen Specs wie NVdias G-sync.
Keine Markreife würde ich nicht unterstellen. Es hat ja auch Vorteile gegenüber G-sync.
 
Bei PC Hardware heißt es immer, kaufe dann wann du es brauchst/willst.

Ich wollte Oktober 2014 einen neuen Monitor.
Freesync Hype das wird der Knaller Ende 2014 erste Monitore.
Jetzt ist März und was ist?
Wieder irgendein Problem, diesmal die Displayhersteller schuld und wieder warten?

Nach dem versauten Start der 290er Reihe bei der man ebenfalls mehrere Monate warten musste, bis es was brauchbares gab, hab ich mich für eine JETZT funktionierende Technik entschieden.

Und wenn die ersten GUTEN Freesync Monitore auf den Markt kommen (Ende 2015?) hat sich der Mehrpreis von G-Sync bereits relativiert.
 
SimsP schrieb:
Was AMD dabei nur nicht bedacht hat... du kannst gar keine Displays produzieren die eine so niedrige Bildwiederholfrequenz bieten. Außer du gehst das Risiko ein, dass dir alle paar Tage das Display abraucht.

Ja, natürlich das Display raucht ab, deswegen arbeiten ja soviele 4K Monitore auch mit 30 hertz....
AMD hat sich für Qualität entschieden, also lieber kein Flimmern.
Das kann sich durchaus ändern und es wird sich auch ändern.
 
smilefaker schrieb:
Das halte ich für völlig übertrieben. Es bietet lediglich nicht die gleichen Specs wie NVdias G-sync.
Keine Markreife würde ich nicht unterstellen. Es hat ja auch Vorteile gegenüber G-sync.
Welche Vorteile sind das momentan?

Ja, natürlich das Display raucht ab, deswegen arbeiten ja soviele 4K Monitore auch mit 30 hertz....
Abrauchen war übertrieben. Aber Pixelfehle, Einbrennen sind Nebeneffekte die auftreten können. Hinzu kommt Bildflimmern.
Auch 4k Panels arbeiten intern selten mit so niedrigen Frequenzen.
 
Zuletzt bearbeitet:
Geringerer FPS Verlust, deutlich geringerer Preis, beim B Beispiel rund 200 Euro für vergleichbare Monitore.
Keine Bindung an einen Hersteller, da Nvidia das jetzt schin bei mobilen Geräten supportet und es sicherlich nicht lange dauert, bis sie es auch bei Desktopmodellen tun.

Ich finde die Vorteile wiegen das 40 Hertz/30 Hertz Problem auf, das soll aber jeder für sich entscheiden.

Wie sieht es aus mit Blacklight Flickering und G-sync?
 
Zuletzt bearbeitet:
@Andy8891
LOL da hab ich denau den gleichen Leidensweg hinter mir. Eigentlich ja will ich ja AMD und es wird auch viel versprochen aber immer nur herwarten ist auch so ne Sache ^^
 
@smilefaker

Das mit dem Frameverlust ist ja mal Quatsch. 0,6- 1,2 fps weniger sind ja wohl ehr ein Witz bzw. Messungenauigkeiten...was sogar Gamestar so angibt. Preis nimmt sich in Kürze nicht mehr so viel bestimmt, oder was soll der Samsung in 28" in 4K und Freesync kosten? 699€? Das tat meiner auch vor einen halben Jahr mit den selben Specs und G-Sync ;-)
 
Zuletzt bearbeitet von einem Moderator:
Das ghosting ist natürlich Mist, mal schauen ob es behoben werden kann.
Wenn nicht wäre das wirklich ein riesen Nachteil G-Sync gegenüber.

Edith wurde wiederlegt :D
[abschnitt ignorieren plox]
Monitore mit Freesync ab 30Hz wurden übrigens schon auf der CES 2015 vorgestellt. Der BenQ XL2730Z ist es, siehe https://www.youtube.com/watch?v=8rY0ZJJJf1A
 
Zuletzt bearbeitet:
smilefaker schrieb:
Geringerer FPS Verlust, deutlich geringerer Preis, beim B Beispiel rund 200 Euro für vergleichbare Monitore.
Keine Bindung an einen Hersteller, da Nvidia das jetzt schin bei mobilen Geräten supportet und es sicherlich nicht lange dauert, bis sie es auch bei Desktopmodellen tun.

Ich finde die Vorteile wiegen das 40 Hertz/30 Hertz Problem auf, das soll aber jeder für sich entscheiden.

Der fps Verlust bewegt sich - zumindest nach cb-tests zu urteilen - quasi im Rahmen der Messungenauigkeit. Da spielen andere Faktoren eine wesentlich größere Rolle.

Die Monitore sind etwas billiger das stimmt. Allerdings werden auch nur die aktuellsten Karten unterstützt. Für meine HD7970 müsste ich mir zB schon wieder eine 200€ teure Ersatzgrafikkarte besorgen. Meine GTX680 kann ich mit GSync einfach weiter verwenden. Von daher ist für mich der Preisunterschied minimal.

Und keine Bindung an einen Hersteller ... Freesync funktioniert also auch schon auf NVidia Karten? Ich weiß, dass es theoretisch sein könnte, aber es geht darum was jetzt ist. Mantle sollte auch mal eine ganze tolle offene API werden, die auch NVidia nutzt (wie mir das von einigen Leuten hier prophezeit wurde).

Sofern 30Hz Freesync Monitore bald erscheinen sehe ich unter 30Hz da auch keinen großen Unterschied. Bei weniger als 30fps hab ich normalerweise andere Sorgen als Vsync.

Tatsache bleibt aber GSync bleibt die minimal bessere Lösung und da es für mich preislich kaum einen Unterschied macht werde ich mich wohl dafür entscheiden, wenn überhaupt.
 
Warum sollte eigentlich bei vsync=off Tearing entstehen, das war doch bis jetzt so und wo bleibt dann der Vorteil?
Dachte die Grafikkarte liefert bei Freesync immer das Bild wenn es fertig ist.

Und gerade bei niedrigen FPS sollte Freesync ja einen Vorteil bieten.
Irgendwie alles unlogisch oder nicht ausgereift, oder ich habe etwas überlesen.
 
Zuletzt bearbeitet:
Ich bin sehr erfreut das sich nun gezeigt hat, dass FreeSync absolut die gleiche Leistung bietet, jedoch wirklich hart das eine R9 280X nicht unterstützt wird.

Ich wollte mir wirklich einen FreeSync Monitor in den nächsten Monaten bestellen, da die Grafikkarte noch mehr als genug Leistung bietet, und nun muss ich feststellen das sie FreeSync nicht unterstützt. :freak:

Enttäuschung pur.
 
hi cbt.

nein leider, wenn die monitore eine minimum refreshrate von 48hz haben dann gibts mit weniger als 48 fps eben wieder die alten herkömmlichen probleme. zumindest bei freesync atm.
 
Zurück
Oben