News Im Interview: AMD und Nvidia über FreeSync und G-Sync

rudl schrieb:
=input lag? mich würde das sowas von nerven wenn dann quasi mitten im Spiel wenn die framerate mal runter rutscht auf triplebuffering umschaltet. :freak:

Da schaltet nichts auf triple buffering. Der gerade sichtbare Bildspeicher wird nur zweimal statt einmal ausgegeben, wenn das Spiel für die Füllung des zweiten Bildspeichers länger braucht, als der Monitor das Bild halten kann. Es bleibt nach wie vor double buffering.

Lags kann es nur dann geben, wenn der Treiber/das G-sync-Modul bei der Schätzung der Berechnungsdauer gründlich daneben liegt.
 
@borizb
Es gibt doch einen einheitlichen VESA Standard den jedes VESA Mitglied ohne Lizenzkosten nutzen kann.
Und dann gibt es einen proprietären Ansatz, dessen Hersteller sich bisher weigert diesen zu nutzen. (Zum in im Desktopbereich)

Wovor sich der Hersteller mit dem proprietären Ansatz scheinbar fürchtet auch den offenen Standard zu nutzen, das müsst ihr ihn selbst fragen.
Denn wenn die proprietäre Lösung soviel besser ist muss man ja den offenen Standard nicht fürchten.
Aber womöglich ist es dann doch wohl so dss beide sich nicht soviel nehmen von der Qualität.
 
Ich versteh irgendwie nicht was an dem System so schwer ist, dass es auf 30/40 Hz derzeit beschränkt ist.
Frame wird berechnet und sofort an den Monitor weitergeleitet. Ob ich jetzt 8 , 24 , 30 oder 144 FPS habe sollte doch vollkommen egal sein.
Bei 8 fps würde es zwar unschön aussehen, aber wenn man das optional einstellen kann und somit keinen weiteren Inputlag hat, was ist das Problem?

Wenn ich ein Video schaue habe ich feste 24 oder 30fps, das kann direkt an den Monitor.
Bei Spielen schwankt es oft stark, aber hier ist es doch genauso, was ist das Problem wenn man kurz nur <20FPS da sind, ist halt so
 
Pelto schrieb:
"...ein Frame zwei oder drei Mal..."

Also unbrauchbar für schnelle Shooter @ inputlag. Dann kann man auch den triple buffer aktivieren, ist abgesehen von der Framerate nicht viel anderst, was die negativen Effekte in schnellen Ballerspielen angeht.

Da dich andere bezüglich des input lags bei Bilddopplung/-tripplung (-> keiner) korrigiert haben, hier noch eine Nebenbemerkung:

Wo keine Doppelpufferung mit VSync, da kein Lag :) Und echte Dreifachpufferung (ist bei DirectX nicht ganz umsetzbar, nur bei OpenGL) führt übrigens zu VSync ohne (bzw. minimalem) Lag: http://www.anandtech.com/show/2794. Echte Dreifachpufferung = Vorteile von VSync ohne die gröbsten Nachteile und mit nur gering höherem Speicherverbrauch. Die Verwirrung liegt darin, dass häufig die Windows-sche "render ahead queue" mit echter Dreifachpufferung verwechselt wird. Die führt bei Erhöhung tatsächlich zu input lag.
 
Zuletzt bearbeitet:
HightechNick schrieb:
Oder man kauft halt dann die Karte vom jeweiligen Hersteller. Von der Leistung geben sich AMD und nVidia doch innerhalb einer Generation ohnehin nicht viel - von daher sehe ich jetzt kein Problem mich auf nVidia und G-Sync festzulegen. Im schlimmsten Fall kostet mich das später vielleicht 100 Euro Aufpreis, weil ich nicht die Preisbrecher-AMD-Karte kaufen kann. Und was sind 100 Euro wenn wir hier von 500+ Euro Monitoren und 350-800 Euro teuren Grafikkarten sprechen?

Dafür kann ich mit meinem ROG Swift schon seit Monaten sehr entspannt und frei von Frameratezwängen spielen. Bis es einen gemeinsamen Standard gibt, ist mein Monitor vermutlich ohnehin schon längst reif für eine Ablösung. Die Technik schreitet immer weiter voran - wir sind gerade im Bereich Spielemonitore nicht mehr in einer Situation wie unsere Großeltern, die den Fernseher nur alle 10-15 Jahre ersetzt haben, wenn man vor lauter Unschärfe schon lange keine Texte mehr lesen konnte.

In ein paar Jahren will man 4k-Monitore, oder 21:9-Modelle, neue Panel-Techniken, usw. Und bis dahin greife ich halt noch 1-2 Mal zu einer nVidia Grafikkarte.
Ergänzung ()

Die Bilder werden bei G-Sync erst unter 30fps wiederholt - unter 30fps will man in keinem Spiel fallen. Dieses Limit ist somit in der Praxis kein Problem.
Stimmt
Gerade wenn man sowieso nur einen Hersteller auswählen kann ist die Entscheidungsfrage hinfällig.
 
borizb schrieb:
Die Frage ist, ob wirklich jemand, der 700€ für nen Monitor ausgibt,
ein so lahmes System betreibt, das nicht mal mindestens 40 fps bringt.
Ob sich für den dann so ein Monitor lohnt, ist meine persönliche Frage.

In aktuellen Spielen in 1440p ist die 40fps Grenze durchaus relevant. Ein aktuelles Spiel wie GTA5, AC:Unity oder Witcher 3 so einzustellen, dass es auch in Extremsituationen nie unter 40fps fällt, Bedarf schon ein paar Abstriche bei der Grafik.

Ich sehe die 40fps-Grenze jetzt nicht als absolutes No-Go und hätte in jedem Fall lieber FreeSync als gar keine Lösung, die 30fps-Grenze von G-Sync-Geräten ist trotzdem angenehmer und lässt mehr Spielraum bei der Grafik-Konfiguration - nicht jedes Spiel braucht unbedingt 50-70fps - manchmal hätte man halt doch gerne mehr Bildqualität und würde dafür den Bereich 35-55fps in Kauf nehmen.

Bei Framerate-Angaben muss man ja immer den ganzen Bereich berücksichtigen - das sind keine festen Werte die das ganze Spiel hindurch gleich bleiben. Schwankungen von über 20fps sind bei 3D-Engines und gerade Open-World-Spielen nicht ungewöhnlich - von daher kommt man leichter als man denkt unter die 40fps, auch wenn man z.B. 50-60fps als Durchschnitt ansteuert.
 
txcLOL schrieb:
Das stimmt so nicht in jedem Fall, siehe CS:GO. Inputlag kann viele Ursachen haben.
http://www.blurbusters.com/gsync/preview2/

In dem Fall liegt es daran, dass G-Sync bei 144 Hz "kleben bleibt", sprich auf Vsync wechselt bei höheren Frameraten. Das lässt sich aber bei Spielen mit eingebautem Framecap leicht verhindern, wie man an den Werten bei fps_max 120 sehen kann. Die sind genauso gut wie die bei Vsync off.

Bei den neuesten NV-Treibern kann man m.W. wie bei Freesync wählen, ob bei zu hohen fps auf Vsync on oder off umgeschaltet wird.
 
@HightechNick

jo, so sehe ich das auch. Aktuell spiele ich in 1440p auf dem ASUS Rog Swift, zu dessen Einführungszeit es weder den aktuellen VESA Standard gab noch entsprechend andere Techniken innerhalb der jeweiligen Monitore, sprich die Scaler, die eine solche Bildausgabe ermöglicht hätten.

Ich habe Freesync noch nicht in Aktion gesehen, sollte sich aber ähnlich wie G-Sync verhalten. Nur die V-sync Geschichte unterhalb der 40fps (Stand jetzt) ist nicht meins, da ich keine Shooter spiele und entsprechend meine Grafikqualität auf ~35-50fps auslege. Das könnte man zwar höher machen, wird aber mit noch größeren Einschränkungen der Qualität verbunden sein.
Da laut AMD die Technik jedoch ab 8fps schon greifen soll, verstehe ich die Hersteller von Monitoren nicht, hier teilweise erst ab 40 anzufangen? Gings nicht oder wollte man nicht?

Naja, egal wie man es dreht und wendet. Derzeit muss man sich für eine Seite entscheiden und entsprechend auch die Grafikkarten kaufen, sofern man in diese Frameanpassungsgeschichte einsteigen möchte. Wird sich hoffentlich harmonisieren, wenn ggf. 2018 der Wechsel auf 21:9 ansteht ;)
 
Laphonso schrieb:
Wenn ich spontan die Top 3 meiner Hardware Anschaffungen der letzten 20 Jahre bezogen auf Enthusiasten-, Erlebnis-, und WoW!- Effekt nennen müsste, wären das die 3dfx Voodoo (50 MHz clock 4 MB VRAM lol), das Panasonic 3DO - und der ASUS RoG Swift mit G-Sync.

Das Spielerlebnis hat sich für mich verändert, der Swift hat aber auch schlappe 799 Euro gekostet.... :freak:

Ein einheitlicher, offener Standard wäre selbstredend besser für alle. Aber wir sehen im Markt ja, was Microsoft, Apple oder Google von offenen Standards halten.

Seh ich genauso. Mein Swift ist auch das Highlight der letzten Jahre. Wer seinen PC hauptsächlich zum zocken hat, für den ist gsync sicher kein Nischenprodukt.
Ich möchte nicht mehr ohne.
 
Es ist ja nicht nur G-Sync. Damit verbunden ist ja auch z.B. ULMB.
Ich habe hier einen der Acer mit IPS, 144Hz und G-Sync und darunter wird es auch nie wieder einen "Zockermonitor" für mich geben. Einmal erlebt, will man es nicht mehr hergeben.

Der Konkurrent von ASUS mit dem selben Panel von AUO schafft Freesync nur zwischen 35Hz und - was ich auch ärgerlich finde - maximal 90Hz.
Da frage ich mich auch nach dem Warum.
 
@Daedal:

"Nvidias Vorgehen, unterhalb von 30 Hertz ein Frame zwei oder drei Mal darzustellen, um Tearing und Stottern zu minimieren, sei eine Möglichkeit. Dass AMD diesen Weg gehen wird, bestätigte Hallock nicht."

Damit ist der Beweis erbracht, dass ich in unserer letzten Diskussion Recht damit hatte dass FreeSync das nicht kann, wohingegen du meintest, dass FreeSync das schon heute leistet.
 
JMP $FCE2 schrieb:
In dem Fall liegt es daran, dass G-Sync bei 144 Hz "kleben bleibt", sprich auf Vsync wechselt bei höheren Frameraten. Das lässt sich aber bei Spielen mit eingebautem Framecap leicht verhindern, wie man an den Werten bei fps_max 120 sehen kann. Die sind genauso gut wie die bei Vsync off.

Bei den neuesten NV-Treibern kann man m.W. wie bei Freesync wählen, ob bei zu hohen fps auf Vsync on oder off umgeschaltet wird.

Dass man das fixen kann, weiß ich, mache ich ja selbst auch. Das mit dem NV Treiber wäre mir neu, habe ich zumindest noch nicht gefunden.
 
txcLOL schrieb:
Dass man das fixen kann, weiß ich, mache ich ja selbst auch. Das mit dem NV Treiber wäre mir neu, habe ich zumindest noch nicht gefunden.

Hm, hab ich jetz spontan auch nich gefunden, dafür aber "Multi-Display/gemischte GPU-Beschleunigung" mal auf Einzelanzeige-Leistungsmodus gestellt :D. Praktisch im neuen Treiber ist allerdings die Fähigkeit, nun auch im Fenstermodus bzw. nicht nativem Vollbild G-Sync zu verwenden; das zwang mich bisher in Cities Skylines zum DX9 Pfad; jetzt endlich wieder DX11! Man sieht also, mit der Treiber-Weiterentwicklung kann noch viel erreicht werden :)
 
Wie ist nun zu verstehen? Adaptive Sync und Freesync sind quasi synonym und Nvidia schließt tatsächlich nicht mehr aus, das zu unterstützen? Das ist ja wie Weihnachten und Ostern an einem Tag :D
 
Fried_Knight schrieb:
Der Konkurrent von ASUS mit dem selben Panel von AUO schafft Freesync nur zwischen 35Hz und - was ich auch ärgerlich finde - maximal 90Hz.
Da frage ich mich auch nach dem Warum.
Warum? Weil Asus es vergeigt hat und die Firmware fehlerhaft ist und auch schon ein Rückruf bzw vor Ort Tausch gibt.
https://www.computerbase.de/news/mo...n-durch-fehler-keine-144-hz-darstellen.49434/

@Faust
Es gibt kein Synonym o.ä.
Der VESA Standard heißt Adaptive Sync.

Der Treiberpart/die Funktion von AMD, der Adaptive Sync nutzt, heißt FreeSync.

Nvidia vermarktet ihre proprietäre Technik als G-Sync, nutzt aber vermutlich demnächst zu mindestens bei Notebooks auch Adaptive Sync per eDP und nennt es auch G-Sync.
 
Der Rückruf findet allerdings nicht wegen der begrenzten VRR-Range von 35 - 90 Hz statt, sondern weil der Monitor außerdem die beworbenen 144 Hz ohne VRR nicht schafft.
 
Pelto schrieb:
"...ein Frame zwei oder drei Mal..."

Also unbrauchbar für schnelle Shooter @ inputlag. Dann kann man auch den triple buffer aktivieren, ist abgesehen von der Framerate nicht viel anderst, was die negativen Effekte in schnellen Ballerspielen angeht.
Es ist was völlig anderes. Die Vervielfachung der Frames ist ein Refresh des Bildes. Dieser kann jederzeit abgebrochen werden, wenn ein neuer Frame von der Grafikkarte kommt. Der Inputlag sollte hier also wenig bis gar nicht erhöht sein.
 
Zurück
Oben