News „Intel FreeSync“: Laut Chris Hook ist Adaptive-Sync weiterhin geplant

noxon schrieb:
Ich bezahle gerne etwas mehr um die Nachteile von Freesync nicht in Kauf nehmen zu müssen. Meinst du da jucken mich die paar 100€?

Wie gesagt. Der Kauf von Gucci Schuhen mag für viele unlogisch erscheinen, weil Addidas Schuhe doch auch ganz gut und viel günstiger zu haben sind, aber Gucci ist halt ein klein wenig besser und es gibt halt Leute, denen macht es nichts aus, dafür mehr auszugeben.

Yeezys sind teuerer als der meiste Gucci Müll also fasel mal nicht so viel wenn du keine Ahnung hast
 
Iscaran schrieb:
Na passt doch - für den Aufpreis den man für G-Sync zahlt kauft man sich einfach eine "kleine" AMD GPU und übergibt ihr die vom primären Adapter gerenderten Framebuffer daten und lässt sie die Ausgabe erledigen. Mit Freesync.
Die Frage ist nur, wie lange dieser Trick wohl noch funktioniert, ich kann mir einfach nicht vorstellen, wenn man Nvidia kennt, dass die das lange dulden!
 
NMir schrieb:
Yeezys sind teuerer als der meiste Gucci Müll also fasel mal nicht so viel wenn du keine Ahnung hast
Sie sind aber nicht teurer weil die Qualität besser ist, sondern nur weil ihre Stückzahl limitiert ist. Das ist ein Unterschied. Ich kaufe mit GSync-Monitore nicht als Statussymbol oder weil sie so selten sind.

Mach meine Analogie also nicht noch lächerlicher als sie es ohnehin schon ist.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
noxon schrieb:
GSync ist zwar etwas teurer, dafür aber qualitativ auch etwas besser. Warum sollte nVidia also dieses Qualitätsmerkmal aufgeben? Das ist so als ob Gucci seine Sachen jetzt so günstig verkaufen würde wie Addidas.
Natürlich können die das, aber warum sollten sie? Sie haben das bessere Produkt und Leute, die das haben wollen, die bezahlen auch gerne dafür.

Noch. Es ist ja nicht in Stein gegossen, das Adaptive Sync auf dem jetzigen Niveau verweilt. Die Scaler, welche verbaut werden, sind ja mittlerweile deutlich besser als bei den ersten Freesync Monitoren. Ich sehe ein Modul, welches aktive Kühlung benötigt, auch nicht unbedingt als Fortschritt an.
 
  • Gefällt mir
Reaktionen: valnar77 und immortuos
Sehr schön, dann klappt eine INTEL CPU mit IGP und einer Nvidia Grafikkarte, um unter WIN 10 Freesync zu nutzen.
 
Sollte es dabei bleiben, dass FreeSync mit NVidia mit diesem Trick funktioniert, und sollte Intel tatsächlich künftig Adaptive-Sync unterstützen, dann kann das zu einem Problem für Ryzen-CPUs ohne Grafikeinheit werden.

Die wären dann nämlich plötzlich deutlich weniger attraktiv durch die folgende paradoxe Situation:

Intel-CPU + NVidia-GPU: FreeSync geht
AMD-CPU + NVidia-GPU: FreeSync geht nicht

Da bliebe nur zu hoffen, dass bei AMD bald auch 6+ Kerner mit integrierter Grafik kommen.
 
AssembIer schrieb:
Ich sehe ein Modul, welches aktive Kühlung benötigt, auch nicht unbedingt als Fortschritt an.
Definitiv nicht. Die neuen Module sind aber noch nicht in Stein gemeißelt und nachdem nVidia alle Bugs aus dem FPGA entfernt hat und sich der Chip etabliert hat wird nVidia sicherlich auch anfangen ihn in Serie als Asic zu produzieren, womit der aktive Kühler hoffentlich auch überflüssig werden wird. Mit Lüfter ist das jedenfalls keine Lösung.

janeeisklar schrieb:
Wo bitte ist den gsync "etwas besser"?
Es gibt eine Mege technischer Gründe. Zuerst einmal sind alle Monitore von nVidia zertifiziert und da kann nicht jeder anbieten was er will.

Jeder Monitor unterstützt so garantiert auch Variable Overdrive. Das ist für mich ein Must-Have und das wichtigste Feature überhaupt, welches technisch bedingt bei Freesync gar nicht möglich ist.
Auch die Tatsache, das GSync eine gantiert vollumfängliche Refresh Rate hat die immer super funktioniert ist für mich ein Plus.
Auf ULMB kann ich persönlich verzichten und hat ja auch nichts mit adaptive Sync zu tun.

Am wichtigsten ist für mich aber letztendlich das subjektive Empfinden und da liest man immer wieder, dass dies bei GSync besser sei als Freesync. Im Endeffekt sind alle tollen Features egal, wenn das subjektive Empfinden einem sagt, dass die Qualität schlechter ist und von daher ist mir eigentlich so etwas hier 100 mal wichtiger als jeder technische Hardwarevergleich.
Immer wenn Reviewer von ihren Erfahrungen mit Freesync und GSync berichten wird erzählt, dass GSync die Sache geringfügig besser meistert als Freesync, selbst wenn man das oft nur unterbewusst wahrnimmt.

Beispielsweise führt Gsync Szenenwechsel, bei denen die Framerate schlagartig von 100 auf 30 fps wechselt, mit Bravour durch, indem es die Framerate in leichten Schritten (über 90 und dann 60 fps an die Zeilframerate heranführt. Freesync hingegen wechselt die Framerate wie in der Szene schlagartig direkt auf 30 fps, was einem wie ein Stottern oder Ruckeln vorkommt und so unschön erscheint.
Besonders, wenn die 30 fps nur für ein paar Frames erreicht werden und danach wieder ansteigen. Solche kleinen Dips oder Spikes gleicht GSync besser aus und erscheint dadurch smoother.
 
  • Gefällt mir
Reaktionen: AssembIer und cruse
Iscaran schrieb:
Kann doch nVidia egal sein ? Sie verkaufen deshalb doch nicht weniger GPUs ?

Ich hab Vega nur wegen meinen Async monitor, die meisten AAA Games laufen nicht mit 120FPs, vielleicht in gammel FHD.
Die Pixeldichte von WQHD/4K auf 27" und Asnyc erzeugen einfach top Bilder, da drehe ich auch eher von Ultra auf hoch runter als auf Async zu verzichten, sprich wenn ich eine 1080TI hätte.

Den Monitor habe ich noch gekauft als ich eine 290X hatte.
Jetzt wo der eine "umweg" mit GPU ränderer Auswahl vorhanden ist würde ich auch eine Turing GPU kaufen, wie ich AssiNV kenne werden die das aber einfach mal dicht machen mitm Treiberupdate.

Also nein, keine NV für mich bis ein neuer Monitor ansteht, obwohl ich TU102 gerne hätte, auch weil es keine Holz DX11 GPU mehr ist....

@noxon Ja wir alle wissen das Gysnc etwas besser ist, dennoch zu teuer, Laserdisc war auch toll.
Du kannst das hier noch so detailliert schön saufen, das NV nicht einen VESA Standart Supporten will wird IMMER negativ aufstoßen.
 
Zuletzt bearbeitet von einem Moderator:
noxon schrieb:
Es gibt eine Mege technischer Gründe. Zuerst einmal sind alle Monitore von nVidia zertifiziert und da kann nicht jeder anbieten was er will.
Ebenso bei FreeSync.
noxon schrieb:
Jeder Monitor unterstützt so garantiert auch Variable Overdrive. Das ist für mich ein Must-Have und das wichtigste Feature überhaupt, welches technisch bedingt bei Freesync gar nicht möglich ist.
Unsinn, es gibt natürlich auch FreeSync Monitore mit "adaptive" Overdrive.
noxon schrieb:
Auch die Tatsache, das GSync eine gantiert vollumfängliche Refresh Rate hat die immer super funktioniert ist für mich ein Plus.
Bei FreeSync bekommst du die Rate die drauf steht. Du kauft bei FreeSync eben das was du brauchst und nicht das was Nvidia meint was du braucht.

Bei FreeSync kaufst du das was du brauchst, Range von bis, Overdrive, HDR, 6 Bit, 8 Bit oder 10Bit Farbtiefe und natürlich mit Adaptive-Sync.
noxon schrieb:
Am wichtigsten ist für mich aber letztendlich das subjektive Empfinden und da liest man immer wieder, dass dies bei GSync besser sei als Freesync. Im Endeffekt sind alle tollen Features egal, wenn das subjektive Empfinden einem sagt, dass die Qualität schlechter ist und von daher ist mir eigentlich so etwas hier 100 mal wichtiger als jeder technische Hardwarevergleich.
Immer wenn Reviewer von ihren Erfahrungen mit Freesync und GSync berichten wird erzählt, dass GSync die Sache geringfügig besser meistert als Freesync, selbst wenn man das oft nur unterbewusst wahrnimmt..
Gibt es andersrum aber auch, das subjektive Empfinden ist bei FreeSync für viele besser.
noxon schrieb:
Beispielsweise führt Gsync Szenenwechsel, bei denen die Framerate schlagartig von 100 auf 30 fps wechselt, mit Bravour durch, indem es die Framerate in leichten Schritten (über 90 und dann 60 fps an die Zeilframerate heranführt. Freesync hingegen wechselt die Framerate wie in der Szene schlagartig direkt auf 30 fps, was einem wie ein Stottern oder Ruckeln vorkommt und so unschön erscheint.
Besonders, wenn die 30 fps nur für ein paar Frames erreicht werden und danach wieder ansteigen. Solche kleinen Dips oder Spikes gleicht GSync besser aus und erscheint dadurch smoother.
Jetzt wird es lächerlich.
Wenn dein Spiel erst 100FPS (10ms) schafft, das nächst Bild dann aber erstz nach ~33ms (30FPS) fertig ist, was stellt den deiner Meinung nach gsync anderes dar als das alte Bild? Das neue Bild ist ja noch nicht Fertig?
Und wenn das neue Bild fertig ist, dann wird es natürlich "schlagartig"/so schnell wie möglich dargestellt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: valnar77, Iscaran, ReVan1199 und eine weitere Person
Zurück
Oben