News Zehn FreeSync-Monitore machen den Anfang

Mich würde auch schwer interessieren ob es dann bei Displayport 1.3 verpflichtend ist einen hochwertigen Scaler zu verbauen der Adaptive-Sync beherscht.

Bei Displayport 1.2a ist meiner Meinung nach jeder Monitor Adaptive Sync fähig, denn genau das macht ja das neue "a" aus.

Mein Traummonitor in den nächsten 2-3 Jahren wäre:

- 25"
- 3840x2160
- 120/144 HZ
- Freesync
- TN oder OLED Display
- Flicker Free

Und mein genereller Traummonitor wäre ( :) ):

- 25"
- 10.240 x 4320 (21:9) --> 10K bzw. 8K als Breitbild Auflösung
- natives 240 HZ Panel
- OLED
- Freesync

Wenn der Monitor kommt werde ich jubeln :) Ordentlicher ppi Wert von ca. 300 und alle Technologien die das Bild endlich deutlich verbessern werden.
 
kisser schrieb:
Auch G-sync dürfte technisch nicht auf 30-144Hz limitiert sein, aber das ist nunmal das, was mit den Panels nur machbar ist.

sofern man hier von Limitierung sprechen kann. Gsync mit Fokus auf Spiele aber auch generell dürften durch die untere Grenze von 30hz nicht Limitiert werden - ganz einfach weil bei 25FPS Inhalten genauso gut mit 50hz ausgegeben werden kann.

Angenommen ich schau ein 25FPS Video im Browser, am gängigen 60hz Panel würde das minimal ruckeln - mit Freesync / Gsync wird man natürlich nicht 25hz ausgeben, wieso sollte man wenn quasi jeder TFT >= 60hz kann - ergo kann ich ganz einfach entweder 50hz ausgeben (und hab eine deutlich angenehmere Mausbewegung) oder einfach weitere Vielfache von 25 - zb 75 hz, 100 hz... oder 125hz bei einem 144hz Panel.
Auch müssen bei beiden Techniken auch Hertzzahlen wie 54,6 möglich sein, ich denke nicht dass an in ganzen Frames Hz springen muss.

Diejenigen die bei der unteren 30hz Grenze von "Limitierung" reden haben schlicht nicht weit genug nachgedacht. Unter 30hz ruckelt eh und man kann jederzeit Vielfache davon ausgeben und dabei quasi nur gewinnen. Einziges Argument wäre Stromsparen (sich nicht ändernden Inhalt auch nur mit zb 1 hz refreshen), im Desktop Umfeld aber quasi nicht relevant.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Diejenigen die bei der unteren 30hz Grenze von "Limitierung" reden haben schlicht nicht weit genug nachgedacht. Unter 30hz ruckelt eh und man kann jederzeit Vielfache davon ausgeben und dabei quasi nur gewinnen. Einziges Argument wäre Stromsparen (sich nicht ändernden Inhalt auch nur mit zb 1 hz refreshen), im Desktop Umfeld aber quasi nicht relevant.

Jein...das wollt ich ja auch schon posten, aber eigentlich ist das nicht so einfach. In ner klassischen 2D-Umgebung kann man 2D-Hintergrund und Mauszeiger sicherlich einfacher trennen, und dem ruckeligen Inhalt ne neuen Mausposition verpassen. Damit wäre ne einfache Frameverdopplung ohne Neuberechnung möglich. Bei den heutigen Oberflächen wirds schon schwieriger, mit Mouse-Over-Effekten, aber lassen wir das mal.
3D? Schwierig bis unmöglich. Immerhin ist ja die Framerate niedrig, weil kaum Rechenleistung zur Verfügung steht. Der Mauszeiger ist Teil des Bildes, je nach Position werden Buttons eingefärbt, Sachen hervorgehoben, Infos eingeblendet. Ändert sich die Position auch nur um einen Pixel, kann das schon ganz anders sein. Zumal auch der Inhalt nicht statisch sein muss, ein paar ms später kann man seine Maus zwar verschoben haben, aber ein Gegner kann sich auch weiterbewegt haben, da eine nicht gegebene Genauigkeit hinzuzaubern würde bestimmt gut ankommen...
In einem bestehenden Bild kann man also nicht mal eben Hintergrund von Mauszeiger trennen, Mauszeiger irgendwo anders hinmalen, wieder zusammenfügen und als Zwischenbild ausgeben. Partielle Neuberechnung müsste vom Spiel unterstützt werden, bräuchte aber auch nennenswert Rechenleistung, und das eben in einer Umgebung, die eh schon keine ruckelfreie Darstellung hinkriegt. Alternativ kann man auch bloß den Mauszeiger ohne weitere Reaktion verschieben, das führt aber neben Doppelbildern auch zu Flackereffekten und anderen Sachen, die man nicht haben möchte.

Also: Mehrfachausgabe eines gerenderten Bildes ja, aber wirkliche Vorteile wie flüssigere Mausbewegungen bringts nicht.
 
ich dachte da jetzt eher an etwas wie ein Youtube Video mit 25FPS in einem Browser abgespielt. Das läuft heute ja bei 60hz auch ohne Tearing - sicher weil im Player (HTML5 oÄ) so definiert ist, dass es mit vsync ausgegeben wird. Mit Gsync / Freesync könnte der Monitor ja vollkommen transparent von vielleicht Standard 60hz im Desktop auf ein Vielfaches von 25 umschalten, nicht auf 25hz als solche. Die höchstmögliche auszugebende Hertzzahl wäre also 50hz. Gut, dieses dynamische Umschalten müsste dann sicher Windows auch supporten ja.

Vielleicht meinst du dass das Windows dann auch unterstützen müsste, also on the fly Bildschirmmodi hin und herschalten. In Games macht Vsync auf 30FPS ja auch nichts anders... der Bildschirm gibt 60hz und jedes Bild 2 mal aus.

Edit: Es ging ja um das untere Limit von beispielsweise 30hz bei Gsync. <30 FPS ruckeln quasi immer, egal ob ich das Bild mehrfach ausgebe oder nicht. Man braucht im Standard also unter 30hz nicht wirklich abdecken, da ich bei 24p zb auch einfach Mehrfachausgabe also 48hz nutzen kann bei selbem Resultat - auch wenn dann der Mauszeiger vielleicht wie das ganze bild nur in 24p effektiv bei rauskommt.
Wie man es dreht, man hätte keinen wirklichen Vorteil von 24p -> 24hz.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
sofern man hier von Limitierung sprechen kann. Gsync mit Fokus auf Spiele aber auch generell dürften durch die untere Grenze von 30hz nicht Limitiert werden - ganz einfach weil bei 25FPS Inhalten genauso gut mit 50hz ausgegeben werden kann.

Was G-Sync macht, steht hier:

http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-DIY-Upgrade-Kit-Installation-and-Performance-Review/Impressions

Um dieses "Loch" zwischen 30 und 25 fps zu füllen, müsste der Treiber die durchschnittliche Dauer der letzten dargestellten Frames auswerten, um den automatischen Refresh bei Bedarf früher auszulösen. Dann gäbe es keine tote Zone zwischen 33 und 40 ms mehr, in der das Spiel auf den Autorefresh warten muss.

Das gleiche müsste bei Freesync auch möglich sein.
 
das ist interessant, danke dafür.

Wie es scheint kann man dem Monitor also nicht viel mehr mitgeben als dass selbe Bild nochmal aufzubauen, was er dann aber mit höchstmöglicher Geschwindigkeit tut. Sehr strange. Wöllte man ein Bild mit 25FPS also 40ms ausgeben - wieso dann nicht statt 33ms (30hz)+7ms (144hz) zweimal 20ms? naja, da hängt sicher einiges dahinter...
 
Zuletzt bearbeitet:
Naennon schrieb:
verstehe, denn so schlecht sind die freesync Teile ja nicht, nur würde ich das gern mit nvidia nutzen :)

Da must du dann auf G-Sync gehen und alleine für die Monitore gleich mal ca.200€ mehr bezahlen.
Eben weil die Technik dafür teurer ist und NVidia dafür noch deftige Lizenzkosten abkassiert, der unflexible NV Jünger darf das von mir aus gerne bezahlen...
Ich nehm lieber die meist günstigeren AMD Karte samt günstigem Freesync Monitor und kauf mir vom gesparten Wechselgeld noch ne 2te Grafikkarte :p
 
Direkt Zehn Monitore die FreeSync unterstützen ist natürlich eine super Meldung. Die Großen Hersteller sind ebenfalls mit on Board und nun kann man nur Hoffen das FreeSync auch wirklich gut Funktioniert. Sollte dem so sein, muss Nvidia sich was einfallen lassen ;)

Dan Kirpan schrieb:
Und mein genereller Traummonitor wäre ( :) ):

- 25"
- 10.240 x 4320 (21:9) --> 10K bzw. 8K als Breitbild Auflösung
- natives 240 HZ Panel
- OLED
- Freesync

Wenn der Monitor kommt werde ich jubeln :)
Das könnte mit deinem System verdammt schwer werden dies zu befeuern :evillol:
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Wöllte man ein Bild mit 25FPS also 40ms ausgeben - wieso dann nicht statt 33ms (30hz)+7ms (144hz) zweimal 20ms? naja, da hängt sicher einiges dahinter...

Das war es, was ich meinte. Der Treiber müsste die Wartezeit auf den nächsten Frame aus dem Mittel der letzten Framezeiten abschätzen. Ist dieser Mittelwert z.B. 25 ms (40 fps), würde ich den ersten Autorefresh schon nach 7 ms auslösen. Dann ist der Bereich, in dem G-Sync/Freesync funktioniert, verschoben von 7-33 ms auf 14-40 ms. Es gäbe also Reserven in beide Richtungen, bevor zu irgendwelchen Notfallmaßnahmen gegriffen werden müsste.

DaBzzz schrieb:
Abgemacht, aber Nvidia muss eine offizielle Presseerklärung mit folgendem sinngemäßen Inhalt herausgeben:
"Die Konkurrenz kanns besser, also geben wir unsre teure Eigenkonstruktion "G-Sync" auf, deaktivieren sie sofort und unwiderruflich treiber- und hardwareseitig, und bieten AS (mit Werbeeinblendung "brought to you by AMD" beim Wechsel in den 3D-Modus) ab unserer kommenden Grafikkartenserie, beginnend mit der günstigen $3000-Einsteigerkarte "TITAN GTX CARBONBLACK 7.0 PRO" für alle Nvidia-Freunde an" :freaky:

Warum sollte Nvidia G-Sync im Treiber deaktivieren, statt beides zu unterstützen ? Das dürfte kein nennenswerter Aufwand sein, wahrscheinlich lassen sich sogar Teile des Codes für A-Sync recyceln.

G-Sync ist doch kein Feature mit drölfzig Einzelfunktionen wie Mantle oder einer riesigen Kompatibilitätsdatenbank wie SLI oder 3D-Vision. Das ist ein bisschen fertiger Code, Copy-Paste und fertig ist der nächste Treiber mit G-Sync-Support.
 
JMP $FCE2 schrieb:
Warum sollte Nvidia G-Sync im Treiber deaktivieren, statt beides zu unterstützen ? Das dürfte kein nennenswerter Aufwand sein, wahrscheinlich lassen sich sogar Teile des Codes für A-Sync recyceln.

G-Sync ist doch kein Feature mit drölfzig Einzelfunktionen wie Mantle oder einer riesigen Kompatibilitätsdatenbank wie SLI oder 3D-Vision. Das ist ein bisschen fertiger Code, Copy-Paste und fertig ist der nächste Treiber mit G-Sync-Support.

sign... und Nvidia wird sicher nicht wenige teure Gsync Monitore um Teufel komm raus gegen die Konkurrenz stellen sofern beide Lösungen dieselbe Performance zeigen. Ganz bescheuert sind die Grünen auch nicht. Da hat Nvidia doch wirtschaftlich mehr von wenn ein breites Monitoraufgebot unterstützt wird.
Ein Großteil der Logik steckt im Treiber (es gilt ja auch die Bildinhalte passend zur Ausgabe zu berechnen - nicht dass der Frame flüssig ausgegeben wird, der Inhalt aber ruckelt), die Ansteuerung eines Freesync / Gsync Displays selbst ist mehr oder weniger trivial wenn einmal umgesetzt.
 
Krautmaster schrieb:
Ein Großteil der Logik steckt im Treiber (es gilt ja auch die Bildinhalte passend zur Ausgabe zu berechnen - nicht dass der Frame flüssig ausgegeben wird, der Inhalt aber ruckelt), die Ansteuerung eines Freesync / Gsync Displays selbst ist mehr oder weniger trivial wenn einmal umgesetzt.

Da ist keine besondere Vorarbeit notwendig. Es gibt immer mindestens zwei Bildschirmspeicher (double buffering), in einem wird unsichtbar das neue Bild aufgebaut, während der andere das letzte fertig berechnete Bild enthält, das zum Monitor geschickt wird.

An einen normalen Monitor wird das fertige Bild mit einem festen Takt immer wieder übertragen, nach der letzten Zeile kommt also sofort wieder die erste. Ist die Grafikkarte mit der Berechnung des neuen Bildes fertig, muss sie entweder so einen Zyklus abwarten (Vsync on), oder der Ausgabe das alte Bild mittendrin entreißen (Vsync off), wodurch man eben zerrissene Bilder (oben alt, unten neu) sieht. Erst dann kann sie den alten Bildschirmspeicher löschen und das nächste Bild aufbauen.

Der einzige Unterschied bei Freesync/G-Sync liegt in der Bildausgabe, die bis zur fps-Untergrenze nur ein einziges Mal erfolgt. Das Bild wird mit höchstmöglicher Geschwindigkeit (7 ms bei 144 Hz) zum Monitor geschickt, und danach pausiert. Während dieser Pause kann eine Bildwechselfreigabe des Grafikchips sofort verarbeitet werden. Für das Spiel sieht das genauso aus wie Vsync off, und diesen Modus muss man auch im Spiel einstellen.
 
WilliTheSmith schrieb:
Kann man bei FreeSync eigentlich mehrere Monitore über einen DP-Anschluss verwenden?
FreeSync nutzt zur Kommunikation mit dem Monitor Adaptive-Sync, welches kompatibel mit DisplayPort MST ist. Club3D hat bereits MST-Hubs im Angebot, die DisplayPort 1.2a unterstützten, z.B. den CSV-5200 bei dem sie ausdrücklich die Adaptive-Sync-Fähigkeit bewerben.

Krautmaster schrieb:
ich dachte da jetzt eher an etwas wie ein Youtube Video mit 25FPS in einem Browser abgespielt. Das läuft heute ja bei 60hz auch ohne Tearing - sicher weil im Player (HTML5 oÄ) so definiert ist, dass es mit vsync ausgegeben wird. Mit Gsync / Freesync könnte der Monitor ja vollkommen transparent von vielleicht Standard 60hz im Desktop auf ein Vielfaches von 25 umschalten, nicht auf 25hz als solche. Die höchstmögliche auszugebende Hertzzahl wäre also 50hz. Gut, dieses dynamische Umschalten müsste dann sicher Windows auch supporten ja.
Das wird heutzutage über ein sogenanntes pulldown bewerkstelligt, ein 24/25 fps-Video würde auf einem 60 Hz-Monitor etwa mit einem 2:3-pulldown dargestellt, welches allerdings zu Lasten der Wiedergabequalität gehen kann.
Soweit ich vernommen habe, wird FreeSync auch nur bei Vollbild-Wiedergabe aktiv. Anderenfalls gäbe es Probleme, z.B. wenn zwei Videos mit unterschiedlichen fps gleichzeitig abgespielt werden.
 
Zurück
Oben