Test AMD FreeSync im Praxistest

Krautmaster schrieb:
vermutlich unendlich mal mehr AMD bisher an Freesync, denkst du nicht auch? :D

Es ist vermutlich eine Sache von 5 Minuten Aufwand ... G-Sync auf Adaptiv Sync zu adaptieren (bzw. Null da im NB Umfeld schon am laufen). Ergo ist 99,99% der Arbeit für Nvidia gemacht

Deine Argumente überzeugen mich jedenfalls selten.
Der Entwicklungsaufwand von G-sync Modul+DRM ist jetzt auch nicht gerade ohne.
Im Vergleich dazu hat AMD ja nur nen Treiber geschrieben und mit dem Monitoren abgestimmt.#


Lübke82 schrieb:
Den Test von CB find ich schon ziemlich arg Oberflächlich. Mich würde mal der Inputlag zwischen 30-40 fps interessieren z.B.

DAs ist leider wirklich ein Nachteil von Freesync at the moment.
 
Lübke82 schrieb:
Mich würde mal der Inputlag zwischen 30-40 fps interessieren

Was wäre daran Interessant, wenn die Technik derzeitig erst ab 40+ FPS greift? Wenn ist der nutzbare Bereich interessant, also die 40/48 bis X.
 
Lübke82 schrieb:
Aber dafür schon ein Jahr eher auf dem Markt war ;-)
Und dich und andere schön ordentlich geneppt haben. Aber vielleicht fällt es ja auch dir mal auf
Und das du dir selber schadest, indem du solche Sachen gut heißt. Vielleicht sollte dir als Konsument wichtig sein das der Konsument Vorteile hat, und du nicht zum Knecht einer Firma wirst.... :rolleyes:
 
BlauX schrieb:
@Marc53844,
indirekt. Die Funktion am Desktop-PC spart auch Strom! -

Aber das sind doch jetzt Dinge auf die die Wenigsten gewartet haben. Wir sprechen hier zu 99,9% von Tearing und Inputlags ... und nicht von "ich will 5 Watt weniger verbrauch".
 
Das Ghosting bei PCper liegt übrigens nicht an Freesync, aber die Lagerkämpfe können nun beginnen.
Für mich steht es jedenfalls 1:1.
 
Ha, aus VaporSync wird GhostSync:
http://www.pcper.com/reviews/Displa...hnical-Discussion/Gaming-Experience-FreeSync-

FreeSync once activated, the flow advances, without increasing latency. This is as good as G-Sync ... at least if the performance level is between 120-144 fps. Below, the Acer screen quickly shows its limits.

A smaller level of performance, such as 60 fps, a very pronounced ghosting phenomenon appears. The ghosting is a natural phenomenon for LCD screens, but various techniques, such as overdrive, so are in principle to eliminate or at least reduce the maximum.

But for XG270HU or disables Acer simply overdrive when the LIF is used (3 options are proposed and make no real difference) or the overdrive was calibrated only for operation at 144 Hz and operating parameters not adapted to the lower refresh rates. But ultimately, the problem is that on this screen and realistic level of performance for most players, FreeSync adds a compromise over for the players: you must choose between flow and no ghosting.

And unfortunately that's not the only problem we encountered. In many games, when we aim +/- 60 fps, it is common to have short passages at 40 fps, or under the lower limit of the LIF range supported by this display. In this case, significant jerks impacting fluidity. It's a little better when the V-Sync is disabled, but it is very troublesome.

We tested several G-Sync screens and no problems of this kind has never been met. Nvidia uses its G-Sync module for applying an overdrive suitable for LIF and avoids rather well the phenomenon of ghosting.
https://translate.google.com/transl...ync-disponible-premiers-ecrans-decoivent.html
Aber hey, es ist billiger.
 
Zuletzt bearbeitet:
@smilefaker & PiPaPa

ja dieses DRM Ding ist das eine, in wie fern Gsync jetzt aber auch beim Scaler mitgewirkt hat weiß ich nicht - ich meine aber dass es zu der Zeit noch gar keine Scaler gab die variable Frameraten mal eben erlaubt haben. Ich mein, was hätte Nvidia deiner Meinung nach machen sollen? Eine neue Technik, eine Idee mit Potential direkt einfach mal eben auch der Konkurrenz zugänglich machen? Vielleicht schön für den Kunden, aber in dieser Welt leben wir leider nicht.
AMD hat die Mantle API ja auch nicht mir nichts dir nichts OpenSource gemacht (quasi erst mit DX12 Konkurrenz, macht man daraus jetzt nen neuen Namen Vulcan). Beide Unternehmen sind Aktioenunternehmen und beide Unternehmen sind gewinnorientiert - was irgendwie bei Nvidia etwas besser klappt - vielleicht weil man das bessere Arschlochunternehmen ist. Kein Plan :D
Ich geh davon aus dass Nvidia zügig sich Gsync für Adaptive Sync fit macht bzw frei schält.
 
Zuletzt bearbeitet:
Marc53844 schrieb:
Aber das sind doch jetzt Dinge auf die die Wenigsten gewartet haben. Wir sprechen hier zu 99,9% von Tearing und Inputlags ... und nicht von "ich will 5 Watt weniger verbrauch".

Beim Laptop und Tablett sind die 5 Watt aber schon wieder eine Zeitspanne die man das Gerät länger nutzen könnte.
 
Lübke82 schrieb:
Ich hab meinen Monitor schon 7 Monate ;-) und davor gab es schon längst andere mit G-Sync.
Sie waren reine Papiertiger, hübsche Bildchen mit nicht lieferbaren Geräten...
 
@Marc53844,

darauf sprach er aber an, wo du aber gedacht hattest, es würde um Notebooks gehen... darum ging es mir und ihm! Eben den Sinn für die 9hz zu nennen, den die Notebooks für das Sparen verwenden und somit nun auch am Desktop-PC zur Verfügung stehen.


@Sontin,

liegt am Panel genauer(Overdrive) Abstimmung vom Hersteller. Dämliche Verschwörung wieder von dem Saftladen...das du den Müll hier her Portierst ist ja kein Wunder.
Und bei den Ausfällen bei der ROG-Serie mit G-Sync erkennt man auch wunderbar, dass dieser derart außerhalb der Spezifikationen aufgebohrt wurde, dass die bei den Reviewer reihenweise verrecken.
 
Zuletzt bearbeitet:
Richtig - es liegt an dem billigen Panel mit dem billigen Scaler und der billigen Elektronik in Verbindung mit der fehlenden händischen Optimierung.

Ergo: Es ist billiger.

GhostSync ist eben noch nicht marktreif. Proof of Concept. Wer jetzt kauft, wird in ein paar Monaten nur noch Schrott haben, weil die Nachfolgemonitore besser funktionieren. Wow. Wenn man darüber nachdenkt, ist GhostSync jetzt sogar teurer als G-Sync. :evillol:
 
Hab mir mal den Acer Predator bestellt, morgen Mittag kann ich dann mal selbst Hand anlegen. :p
 
Wenn AdaptiveSync im VESA Standard verankert und für DisplayPort 1.2a vorgeschrieben ist, steht Monitoren mit G-Sync und FreeSync Support doch nichts mehr im Weg, oder?

@Artikel:
Kurz und knapp, aber wie erwartet tut sich da nicht viel zwischen beiden Techniken :)
 
Sontin schrieb:
Richtig - es liegt an dem billigen Panel mit dem billigen Scaler und der billigen Elektronik in Verbindung mit der fehlenden händischen Optimierung.

Stimmt, hast Recht: https://www.google.de/search?newwin...sedr...0...1c.1.62.hp..1.21.830.0.9Arm3y6YRQM

Oder übertriebener um Ghosting mit aller Macht zu verhindern, und außerhalb der Spezifikationen arbeitet, die die verbauten Komponenten eben nicht lange mit machen, tja. Wer billig kauft, kauft mehrmals ;-)

HT4U und zahlreiche andere, können dir ja auch ein Lied singen @Vorzeitigen Defektes.


Wie du siehst, hat beides nichts mit G-Sync/Free-Sync zutun. Es liegt beim Hersteller, was der verbastelt.
 
Zuletzt bearbeitet:
Sontin schrieb:
Richtig - es liegt an dem billigen Panel mit dem billigen Scaler und der billigen Elektronik in Verbindung mit der fehlenden händischen Optimierung.

Schlicht und einfach Blödsinn was du hier behauptest.
Du willst Freesync mit jeder Faser deines Körpers schlechtmachen, dabei interessiert es dich einen Feuchten, ob es nun am Monitor oder an Freesync liegt und tust so als ob das bei jedem Monitor so wäre, was einfach dämlicher Dummfuck ist.
Zudem benennst du Freesync und Ghostsync um. ( Vorher hieß es laut dir ja Vaporsync ), jetzt heißt es Ghostsync.

Propaganda @ its best.
Aber Freesync ist ja sooo schlecht. Wenn es wirklich soo viel schlechter als G-sync wäre, dann hätte CB das wohl beim Test schon herausgefunden.
:freak:
 
Nach einigen Tests, weiß ich defintiv welche Technik so in meinem nächsten Monitor aufjedenfall dazu gehört :D

Ach du meine Güte, hier treibt Sontin auch sein grünes Unwesen?... Dachte bei PCGH reicht mir das ganze schon.
Naja dann weiß ich ja wenigstens was in allerlei AMD News auftauchen wird.
 
Zurück
Oben