marco_f schrieb:
Vielleicht nochmal für die Nichtnachrichtentechniker:
Das Ruckeln das man bei den Gsyncvorführungen sieht liegt daran, dass ein Abtasten immer nur Frequenzen bis zur halben Abtastfrequenz sauber wiedergeben kann. Ein 60Hz-Monitor kann also nur 30FPS wiedergeben. Ein 144Hz-Monitor kann 72FPS darstellen. Alles was über der halben Abtastfrequenz wird "verzerrt" durch Spiegelfrequenzen.
Gsync von Nvidia macht nichts weiteres, als dass es Monitor und GPU synchron hält, und somit die Abtastung überflüssig macht. So schafft ein 60Hz Monitor fast saubere 60FPS.
Nur fragst man sich halt wozu, wenn auch 120Hz Monitore auf dem Markt sind die das Selbe machen. Ich fände es übrigends auch nett wenn die Autoren solcher Artikel neben Gsync und Freesync auch hochfrequente Monitore eine Lösung sind. Diese sind vollständig systemunabhängig und laufen immer.
Insb. Gaminggeeks besitzen schon heute 120Hz-Monitore. Denen bringt Gsync nichts.
ui, da hat aber jemand herrlich wenig Ahnung und nicht einen Link zu Gsync/Freesync gelesen und verstanden. Gsync zaubert dir gerade bei 30-60FPS (schwankend) ein weit aus flüssigeres, sauberes Bild hin als jeder 120/144hz Monitor da die Frequenz eben nicht "gebrochen" werden muss - was bringen dir also 120hz wenn du nur 35FPS ohne Tearing ausgeben willst? 120hz Monitore sind schön wenn dien Game ohnehin mit 100 FPS + läuft.
Es ist immer so dass man FPS und Hertz des TFTs nach Möglichkeit gleich halten will oder letztere ein Vielfaches davon beträgt.
Beispiel:
35FPS in Game -> entweder mit 35, 70, 105 oder 140hz ausgeben - so dass ein ganzes Bild auch immer genau einem Bildaufbau gleich kommt. Wenn dasselbe Bild dann 1 oder 4 mal neu aufgebaut wird ist das erstmal egal - es geht um das "perfect Match" zwischen GPU Bild und dargestelltem Bild.
Wenn dein 120hz Monitor also nun deine 35FPS inGame darstellen will, was macht er dann?
Er kann nicht einfach auf 35/70/105/140 Hz wechseln sondern muss entweder ein Bild brechen (Tearing) oder aber du nutzt - sofern möglich, V-Sync - was bei 120hz TFT und 35FPS in game dann in 30 FPS resultieren würde. Vsync bedeutet dann dass ebenfalls 1 Bild (GPU ) auch 1 Bild TFT wird, - allerdings birgt das auch den Nachteil, das Vsync ein recht komplexes Verfangen sein kann, vor-allem wenn z.B die Frames zwischen 28 und 62 FPS schwanken, deine GPU muss die Bildinhalte ja immer so generieren, dass gleichmäßige Bewegungen "flüssig" aussehen, also nicht der Inhalt mal 1 cm hüpft von Bild zu Bild, dann wieder 0,5cm - sonst ruckels, Vsync und hohe Frames hin oder her.
Ich hab bei meiner HD6970 eig fast immer zw 30 und 60 hz und ja, mir kommt selten das Bild wirklich flüssig vor was nicht an FPS oder Monitor liegt.
Das greift Gsync wie auch freesync an - indem die GPU "Freischnautze" auf 100% laufen kann, immer die maximalen FPS berechnet und der TFT sich 1:1 an diese FPS anpasst, 1 Bild GPU auch als 1 Bild ausgibt.
Wenn du natürlich einen 60 Hz Gsync Monitor hast und deine GPU 64 FPS schafft, gibt der Monitor genau jedes 2. Bild aus, also 32 hz (was dennoch weit flüssiger aussieht als 32/64FPS auf einem 120hz Monitor)
Nvidia schafft es nicht mehr FPS zu generieren, oder eben auszugeben. Im Gegenteil, oft arbeitet der Monitor mit weniger Hz aber der Content kommt dennoch weit flüssiger rüber, was in diesen Gsync Reviews auch mit Erstaunen festgehalten wird. Ich kann das schon nachvollziehen - wie viele regen sich auf wenn der Monitor kein 24p kann... weil dann die BD ruckelt (und die Abweichung da sind minimal im Vergleich zu Games, da ist das Ruckeln allgegenwärtig).
Edit:
ist doch nur logisch, dass der Anfangspreis hoch ist, gerade auch wegen geringer Stückzahl und keiner Konkurrenz. Wenn man als Anwender den Mehrwert erkennt und dann vielleicht auch mal erleben kann - die Absatzzahlen steigen, dann sinkt dieser Preis auch recht fix.
Gut möglich dass Gsync später auch absolut überflüssig ist wenn die Displays eventuell von Haus aus ihr Wiedergaberate anpassen können, siehe FreeSync mit eventuellen DP 1.3 Standards.
Bisher spricht aus meiner Sicht wenig dagegen, dass Nvidia nicht genau gleich wie AMD mit Freesync zukünftige Displays ansteuern kann - Gsync hin oder her. Wenn es technisch geht und nahezu jeder Monitor damit umgehen kann (auch ohne Gsync) wird man wohl kaum verpicht auf Gsync Zwang setzen können (außer es arbeitet weit besser als offene Standards).