Test AMD FreeSync im Praxistest

Atalanttore schrieb:
Hauptsache die Betrügerfirma Nvidia zieht mit seiner proprietären Erweiterung wieder mal den Kürzeren.

Das Problem ist einfach, dass NVidia die deutlich größere Marktmacht hat und auch keinerlei Skrupel besitzt, diese auszunutzen. Und wie man ja beim Athlon 64 gegen den Pentium 4 gesehen hat, setzt sich nicht immer das bessere Produkt durch.

NV geht es hier einfach darum, die Kunden mit ihrer Marktmacht dazu zu zwingen, teuer Monitore mit ihrem GSync-DRM zu kaufen, um dann auch beim nächsten Grafikkartenkauf wieder NV kaufen zu müssen. Auf diese Weise kann man die Konkurrenz ausschalten. Wenn die Kunden sich weiter wie Schafe verhalten, braucht NVidia da auch nichts ändern, siehe GTX 970.

Natürlich wäre im Interesse des Verbrauchers, dass GSync verschwindet und Adaptive Sync mit offenem Standard unterstützt wird, letztendlich hat dieser es aber selbst in der Hand.
 
smilefaker schrieb:
Was soll Nvidia an G-sync schon groß verdient haben?

vermutlich unendlich mal mehr AMD bisher an Freesync, denkst du nicht auch? :D

Es ist vermutlich eine Sache von 5 Minuten Aufwand ... G-Sync auf Adaptiv Sync zu adaptieren (bzw. Null da im NB Umfeld schon am laufen). Ergo ist 99,99% der Arbeit für Nvidia gemacht. Sie müssen es nur wirtschaftlich abwiegen was besser ist. Einen eigene Lösung anbieten die den OEM Monitor Herstellern aber im vergleich zu Freesync keinen Mehrwert bringt, oder ob sie auf den Adaptive Sync Zug aufspringen wie im Notebook Umfeld....

Wie es Anandtech treffend formuliert:

Assuming you haven’t already jumped on the G-SYNC train, there’s now this question of whether or not NVIDIA will support non-G-SYNC displays that implement DisplayPort’s Adaptive Sync technology. I have little doubt that NVIDIA can support FreeSync panels, but whether they will support them is far less certain. Given the current price premium, it’s probably a good time to sit back and wait a few months to see how things develop.

Edit: Wichtig ist wirklich dass es auch bei <40 FPS funktioniert & die Panels das umsetzen. Gerade weil ich mit Adaptive Sync viel viel Performance spare da ich nicht zwingend 60 FPS erreichen muss. Viele Seiten schrieben dass es gerade in dem Bereich um 40 FPS am meisten bringt - was ja logisch ist. Ich will nicht fortlaufend in einen Bereich droppen in dem ich wieder Vsync / Tearing habe.
Lieber nen Panel von 30-75 hz als ein 40-144hz Panel.

Es wird wie schon vor nem Jahr über kurz oder lang darauf hinauslaufen, dass FreeSync / Gsync das Tupfengleiche sind und beide auf Adaptive Sync setzen.
 
Zuletzt bearbeitet:
Und die gierigen Monitorhersteller gehen wieder den billigsten Weg, danke ihr Kaputten.

Warum nicht runter bis 9 FPS ?

Was ist so verdammst schwer daran einen z.B. 9-90 Hz Monitor in 1920x1080 rauszubringen für 250 Flöckchen ???

ICH WILL FREE-SYNC
 
Da hätte CB vielleicht deutlicher hervorheben sollen, dass die aktuelle Beschränkung von 40hz bzw. 48hz allein durch die momentane erhältlichen Monitor Modellen gegeben ist und kein Feature von FreeSync/AdaptiveSync ist, weil FreeSync erst ab 9hz beschränkt (Die min. Hz-Zahl der 4 von 8 angekündigten Modellen ist noch gar nicht bekannt). Hervorheben deshalb, damit es unmissverständlich für diejenigen wird, die nicht lesen können. Gibt ja anscheinend mehr als genug im Forum.
 
Zuletzt bearbeitet:
Flare schrieb:
Was ist so verdammst schwer daran einen z.B. 9-90 Hz Monitor in 1920x1080 rauszubringen für 250 Flöckchen ???

90Hz.,.. wie soll ich denn bei CSS irgendwas treffen mit lächerlichen 90 Frames?

Aber mal ehrlich ... Würde GENAU so ein Monitor rauskommen würden alle schreien ... "9-90 ... was für ein Quatsch ... der muss bis 144 ..."
Aber ... WER SPIELT MIT 9 FPS???
 
Marc53844 schrieb:
Aber ... WER SPIELT MIT 9 FPS???

Geht nicht nur um spielen. Bei Laptops und Tabletts kann man so Strom sparen, wenn man halt nur noch 9 Bilder die Sekunde ans Display schickt und nicht 30+ Bilder abackern braucht. Auch lässt sich, bei der derzeitigen Untergrenze, auch Videos schlechter Synchronisieren. Man muss die fps verdoppeln damit man es erledigen kann.
 
Krautmaster schrieb:
Es ist vermutlich eine Sache von 5 Minuten Aufwand ... G-Sync auf Adaptiv Sync zu adaptieren (bzw. Null da im NB Umfeld schon am laufen). Ergo ist 99,99% der Arbeit für Nvidia gemacht.
Schön wie du aufzeigst das nvidia den Kunden verarscht und neppt, und gleichzeitig zeigst das nvidia wohl doch einfach nur ein DRM Modul eingebaut hat und die Entscheidung der VESA nicht abgewartet hat und um die selbe Technik einen DRM Käfig gezogen hat... :D
 
k0ntr schrieb:
Sorry das geht mir zu weit! Eine lächerliche 260x wird unterstützt, und meine 280x NICHT!!!

Das war schon von anfang an klar. Sorry aber ich hab kein Verständnis für dich und was für dich zu weit geht. ;)

Der 280x ist nichts anderes als ein rebrand. Der 260x auch, aber der basiert auf eine neuere Karte, die halt etwas mehr Features dadurch erhalten hat.

280x = GCN 1.0
260x = GCN 1.1
 
Den Test von CB find ich schon ziemlich arg Oberflächlich. Mich würde mal der Inputlag zwischen 30-40 fps interessieren z.B.
 
Lübke82 schrieb:
Aber dafür schon ein Jahr eher auf dem Markt war ;-)

eben. Und für diese Kunden die bewusst Gsync gekauft haben war das genau das eine Jahr und auch jetzt noch ein Benefit. 1 Jahr früher im Besitz einer Technik zu sein, die offensichtlich einen wirklichen Mehrwert bietet - da zahlen viele einen guten Aufpreis für. Und aus NV Sicht ist es schlicht wirtschaftlich.

Vielleicht hätte AMD einfach mit Freesync ein Jahr früher am Markt sein sollen...
 
Verstehe nicht, was so mancher rum meckert. FreeSync läuft optimal und funktioniert ebenbürtig zu G-Sync.
AMD kann man aber null komma null ankreiden, was die Hersteller entschieden haben ( 40hz oder 48hz ) Abstimmung mit der Panelsteuerung (Ghosting) ....

Vielleicht liegt es auch daran, dass die Hersteller bei 30hz die Kristalle voneinander weg driften sahen... das liegt aber auch an ihm, dass zu ermöglich, ohne das dies passiert.

Man muss einfach warten, bis das passende (gewünschte) Modell auf den Markt kommt, wo der Hersteller eben Scaler verbaut, die auch 30hz oder sogar weniger mitmachen.
Aus dem Grund gibt es ja verschiedene Monitore, ansonsten hätte jeder den selben :)
 
smilefaker schrieb:
Ein Jahr? Nicht wirklich, eher ein Halbes. Vorher gab es einen Umbaukit.:freak:

naja, Monitore gabs schon nur waren kaum welche lieferbar

Das erste Review mit Monitor ist aber 2013
http://www.anandtech.com/show/7582/nvidia-gsync-review

Habs jetzt auch nicht genau verfolgt wenn ich ehrlich bin. Und es spielt an sich auch keine Rolle, ob 3, 6 oder 10 Monate.
Bin eher mal gespannt wie Nvidia reagiert.
 
Zuletzt bearbeitet:
nille02 schrieb:
Geht nicht nur um spielen. Bei Laptops und Tabletts kann man so Strom sparen,

Achso, wusste garnicht das es um Bildschirme für Laptops geht ... zumal es diese Technik schon jahre für Laptops gibt.
Wurde hier in diesem Thread im übrigen auch schon mehrfach erwähnt.
 
@Marc53844,

indirekt. Die Funktion am Desktop-PC spart auch Strom! - Auf dem Desktop brauch ich keine 30 oder mehr... da reichen auch deutlich weniger. Und das spart eben Strom, da die GPU im Halbschlaf arbeitet und der Monitor selbst auch weniger Energie benötigt. Bei einem 40" UHD Monster ist das nicht wenig.
 
Marc53844 schrieb:
... zumal es diese Technik schon jahre für Laptops gibt.
Wurde hier in diesem Thread im übrigen auch schon mehrfach erwähnt.

Nur wurde die Technik nicht in Spiele eingesetzt...leider
 
Zurück
Oben