paul1508 schrieb:
Gibt es eigentlich einen technischen Unterschied zwischen G-Sync und Freesync? Bei beiden Technologien gibt es einiges an Gestaltungsspielraum, wie groß der Bereich ist usw.
Ob es wirklich ein großen Unterschied gibt, ist so klar nicht wirklich erkennbar, da beide Systeme genau das machen was sie sollen.
nVidia behauptet zwar, dass es ein paar technische Unterschiede gibt - siehe Noxons Beitrag - wie zum Beispiel, dass das Modul "vorhersagen" kann, wann das nächste Bild kommt und deswegen Overdrive usw. besser steuern kann. Dass er da zum Teil dem üblichen Marketing-Blub der Hersteller erliegt, erkennt er nicht wirklich.
Es gibt einen Vorteil für GSYCN, den man nicht weg diskutieren kann, was am Ende aber kein Problem von FreeSync ist, sondern eher der Monitorhersteller. GSYNC hat einen recht niedrig definierten minimalen Bereich. Bei FreeSync/AdaptivSync haben die Monitorhersteller wesentlich mehr Freiraum was die Frequenzen angeht und sie können diese frei bestimmen. Die Scaler werden komplexer und auch teurer je größer der Frequenzbereich ist.
Beide Systeme können aber Theoretisch x - y Hz abdecken. Da nVidia das entsprechende Modul anbietet, ist dort jedoch der minimale Frequenzbereich vorgeben. Ob die angeblichen anderen Vorteile wirklich von Bedeutung sind und wirklich spürbare Auswirkungen haben, dass muss jeder selbst für sich testen.
aivazi schrieb:
AMD macht es mit dem Scaler, den gab es in jedem Monitor auch schon nur waren diese nicht für dynamische Frequenzen ausgelegt. Entsprechend kann ein Monitor mit entsprechendem Scaler Chip auch die Frequenzen ansprechen. Das ist nicht einmal eine Änderung am Monitor Design der letzen Jahren und Nvidia braucht dafür einen FPGA Chip für dieselben Resultate ? Das stinkt nach proprietär.
In wie weit der FPGA-Chip da wirklich notwendig wäre, kann man wirklich stark in Zweifel ziehen. Im Endeffekt geht es nVidia aber immer darum die Konkurrenz aus zu sperren und die Nutzer in eine Art Geiselhaft zunehmen. Lustig ist hier, dass manche der nVidia-Verfechter gleichzeitig ärgste Apple-Hasser sind. Manche scheinen echt Schizophren zu sein.
aivazi schrieb:
TW: Bezüglich HDR bin ich mir ziemlich sicher, dass es nicht vom Modul abhängt, sondern wie gut einfach die Schaltzeiten für die Dimming Zonen sind. HDR funktioniert schließlich auch auf der PS4 ohne Zusatzmodul.
Du kannst dir da nicht nur ziemlich sicher sein, sondern es ist so. Ebenso wie GSYNC vermutlich ohne den FPGA auskommen würde. Es gibt zwar vielleicht etwagige "Vorteile" wie sie Noxon sie beschreibt, aber ob sie notwendig sind?
noxon schrieb:
Erstaunlich ist eher, dass du nicht weißt, dass Hertz nichts anderes als 1/s bedeutet und somit die Einheit von Frames/s ist.
Noch viel erstaunlicher ist es, dass du versuchst andere zu belehren und dabei beweist, dass du absolut keine Ahnung von der Materie hast.
Es stimmt zwar, dass Hertz erst mal 1/s bedeutet, aber Hertz ist nicht die Einheit von Frames/s. Es gibt nämlich eine sehr wichtige Einschränkung ab wann Hertz wirklich die Einheit ist.
Hertz ist periodisch. Ergo: Die Abstände zwischen den auftretenden Ereignissen pro Sekunde sind gleichmäßig. 60 Hz bedeutet also, dass alle 16 Millisekunden ein "Tock" erfolgt.
noxon schrieb:
Die Framerate lässt sich also sehr wohl in Hertz ausdrücken und wenn jemand die Refresh rate eines Monitors mit fps bezeichnet ist das auch nicht falsch, denn so viele Bilder pro Sekunde stellt er dar.
1. Nein, die Framerate bei einem Computerspiel kann man nicht als Hertz ausdrücken. Sie erfüllen nicht die Anforderung der Periodizität und damit der Gleichmäßigkeit. Die FPS in Spielen schwanken und daher werden Frames auch nicht gleichmäßig an den Monitor gesendet. Wäre die Framerate wirklich periodisch, bräuchten wir solche Späße wie GSYNC, FreeSync, VSYNC und wie man weitere Techniken nennt nicht. 60 FPS wären zum Beispiel auch möglich, wenn 60 Bilder bereits nach 1 Millisekunde beim Monitor ankommen, die restlichen 980 Millisekunden dafür aber nicht mehr.
2. Natürlich könnte man die Hz-Anzahl des Monitores als FPS bezeichnen, unterschlägt dann aber wiederum die Periodizität. Wie unter dem Punkt 1 bereits erwähnt: FPS sagt nur, wie viele Frames die Sekunde angezeigt werden, die Anzeige muss aber nicht periodisch erfolgen.
noxon schrieb:
Das können die GSync Module auch besser, besonders wenn die Frameraten dabei in Bereiche rutscht, die Freesync nicht mehr mitmacht.
Immer dieses Halbwissen … FreeSync unterstützt ähnliche Frequenzbereiche wie Gsync. Problem bei FreeSync ist nur, dass AMD keine Vorschrift macht welcher Frequenzbereich abgedeckt werden muss. Theoretisch kann es der Bereich ab
9Hz bis hinauf zu 240 Hz sein.
Das Problem sind hier die Hersteller der Monitore, da sie entsprechende Scaler nicht verbauen.
noxon schrieb:
Auch dort GSync besser. Es deckt einen viel größeren Bereich ab und die Übergänge zwischen GSync, Vsync und diversen Übergängen in den Bilddopplungen sind nicht spürbar.
Auch hier: Das Problem hat nichts direkt mit FreeSync zu tun, sondern ist einmal den Freiheiten geschuldet, die AMD den Herstellern lässt und ebenso der Tatsache, dass die Hersteller versuchen die Elektronik möglichst günstig zu halten. Wenn die Hersteller wollten, könnten sie auch FreeSync-Monitore mit entsprechenden Eigenschaften ausstatten.
-- Eingefügt 22:10 --
Ein Grund, warum AMD bei FreeSync deutlich schärfere Vorschriften macht und gleichzeitig auch FreeSync 2 um ein paar Techniken erweitert - aktuell noch optional.
https://www.pcper.com/news/Graphics...ings-Latency-LFC-and-Color-Space-Requirements
Wieder einmal wird gefährliches Halbwissen verbreitet. …