News G-Sync: Nvidia unterstützt nun auch Monitore mit Adaptive-Sync

Kann man dann langsam doch mal über einen neuen Monitor nachdenken. Adaptive Sync will ich drin haben, aber das Vendor-Lock war ein No-Go für mich.

Irritiert bin ich etwas bzgl. der Kompatibilitätsprobleme.
 
Dark-Silent schrieb:
Das ist nicht korrekt. Mein nach Vesastandard Adaptive Sync fähiger UHD Monitor hat weder DP 1.2a noch HDMI 2.1. Muss er auch nicht da er nur 60Hz max. Refreshrate hat. Angesteuert wird er von meiner AMD Fury welche ebenfalls nicht über einen DP 1.2a oder einen HDMI 2.1 verfügt. AMD bezeichnet seine implementierung vom Vesa Adaptiv Sync als Freesync.

Das ist so nicht korrekt, da VESA Adaptive Sync eine Erweiterung des Display Port Standards ist, während AMDs FreeSync, die Technik ist mit der solche Displays angesteuert werden können und/oder ein Zertifikat, das von AMD für entsprechende Monitore vergeben wird.

Das es sich bisher eingebürgert hat, von FreeSync Monitoren zu sprechen ist mir durchaus bewusst, dies macht die Sache aber nicht richtiger, denn im Gegensatz zu G-Sync Monitoren, in denen wirklich NVidias Technik im Display steckt, ist in einem Display der VESA Adaptive Sync oder HDMI VRR unterstützt keine AMD Technik und der Begriff FreeSync ist ein geschützter Marketingbegriff von AMD.

Korrekterweise kann man nur von einem FreeSync Monitor sprechen, wenn er von AMD auch eine entsprechende Zertifizierung erhalten hat. Dies ist letztlich auch "nur" als Prädikat zu sehen.
https://www.computerbase.de/news/monitore/freesync-2-hdr-specs.64087/

Der Begriff wird letztlich bei Computerbase, im Gegensatz zu früher, auch entsprechend verwendet.
Im April war der erste BenQ-Monitor mit FreeSync-2-Zertifizierung bekannt geworden. Jetzt erfolgt die Markteinführung. Der 32-Zoll-Monitor mit WQHD-Auflösung, 144 Hz und DisplayHDR 400 wird von ersten Händlern in Deutschland ab 520 Euro gelistet. Die Verfügbarkeit soll noch im Juli gegeben sein.
https://www.computerbase.de/news/monitore/benq-ex3203r-monitor-freesync-2-marktstart.64206/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS und Iscaran
Jetzt hab ich auch endlich wieder Interesse daran nen neuen Monitor zu kaufen, vorher war es mir einfach zu dumm sich für VRR an nen Hersteller zu binden.
 
Hatte einen mülligen Dell S2716DG mit G Sync, bei dem mir die Farben trotz verschiedener Profile und Einstellungen überhaupt nicht gefielen, diesen hatte ich mit geringen Verlust verkauft, und mir den ASUS VG278Q geholt.
Die Farben des ASUS sind knackig gegenüber dem Dell, und nun das Beste, er ist mit dabei und wird unterstützt.
Für mich persönlich, alles perfekt und richtig gemacht.
 
Das wird das noch erleben.

Nvidia war schon immer eine renitente Mistbude. Es hat wirklich lange gedauert bis der Kollege in der Lederjacke eingesehen hat das Gsync = Gflop ist.

Dummes gehate beiseite. Ich bin super Happy weil ich hier nen iiyama mit Freesync Range von 35-120hz stehen habe und nun doch nicht auf Navi warten muss um den wieder vernünftig zu betreiben :)

Mal schauen wo sich die 2060 Karten mit den 6gb Krüppelram einpendeln
 
Aus Nächstenliebe macht NVidia das sicher nicht. Hier geht es einzig um Gewinnmaximierung. Es hat sich in diesem Fall glücklicher Weise der offene Standard nun durchgesetzt. Es ist in diesem Fall glücklicher Weise mal positiv für den Kunden.
 
Klasse Sache, dann bestell ich mal den hier (Agon AG241qx). Zum Zocken und surfen wohl perfekt, die Pixeldichte mit 123ppi angenehm hoch und die Größe für meinen Sitzabstand genau richtig. Und für die Bildbearbeitung kommt dann schön langsam ein 32" 4K ins Gespräch. Der Prad-Test liest sich auch recht positiv. :daumen:
 
tek9 schrieb:
Dummes gehate beiseite. Ich bin super Happy weil ich hier nen iiyama mit Freesync Range von 35-120hz stehen habe und nun doch nicht auf Navi warten muss um den wieder vernünftig zu betreiben :)
Mal schauen wo sich die 2060 Karten mit den 6gb Krüppelram einpendeln

Eine 2060 6Gb ist tatsächlich schon vor release als Speicherkrüppel anzusehen und in Anbetracht der Entwicklung der letzten 2 Jahre eher eine Geldverschwendung denn sinnvolle Gamerkarte wenn man mehr als Indy oder Retrogames Anspruch hat. Da sie wohl ohne wirklich brauchbare Menge RT Cores erscheint würde ich mir stattdessen lieber eine 1070(ti) für wohl annähernd selben Preis und Leistung kaufen. Alleine die 2Gb mehr Ram wären mir Grund genug
 
Zuletzt bearbeitet von einem Moderator:
Auch wenn ich es [wie schon gesagt] für die beste Entscheidung von Seiten NVIDIAs seit langem halte, mich interessiert dennoch brennend ob G-Sync nun durch Hardware realisiert dort durch Vendor-ID erzwungen wurde.
 
Hardware ist sicher der RAM-Zwischenspeicher für das Frame Doubling. Und ich habe auch noch von keinem Freesync-Monitor mit "mitlaufendem" Overdrive gehört.

Tests, die das Thema näher beleuchten, z.B. mit Zeitlupenaufnahmen des Overdrive-Verhaltens bei verschiedenen Frameraten, sind mir leider nicht bekannt.
 
Ich habe eine Gigabyte Gtx1060 und einen MSI Mag24C mit Freesync. Kann ich jetzt schon feststellen ob das miteinander harmoniert?
 
Wie, wenn es jetzt noch nicht möglich ist?
Sobald es der Treiber ermöglicht, probiers aus
 
Habe bis jetzt nur die ersten 10 Seiten an Kommentaren gelesen, jedoch immer noch ein etliche Fragen bzw. Unklarheiten.

Wäre fein wenn CB da mal einen extra Artikel dazu raushaut, würde mich jedenfalls freuen.
 
RYZ3N schrieb:
Auch wenn ich es [wie schon gesagt] für die beste Entscheidung von Seiten NVIDIAs seit langem halte, mich interessiert dennoch brennend ob G-Sync nun durch Hardware realisiert dort durch Vendor-ID erzwungen wurde.

Verstehe ich nicht die Frage. Es ist doch hoffentlich allgemein bekannt, dass G-Sync nur mit G-Sync Modul, also Hardware, funktioniert, die im Display eingebaut ist. Den Beweis kann man bei neueren Displays sogar hören :D .

Das G-Sync Modul stammt seit jeher von Altera (Intel Tochter) und wird bei TSMC in 28nm hergestellt. Man konnte das Modul früher anfangs ja auch separat erwerben und wer keine Probleme mit evtl. Garantieverlust hatte, konnte dies selbst im DIY Verfahren in jeden beliebigen Monitor einbauen. Bilder des ersten Moduls findet man z.B. hier.

Ich denke G-Sync Ultimate wird auf dem neuen G-Sync HDR Modul basieren, das in bisher erhältlichen Monitoren Lüfter benötigt.
Man kann nur hoffen, dass nVidia (Altera / Monitorhersteller) da noch mal stark nachbessern.
Eine passive Lösung ist ja wohl ein Muss. Kein Mensch will in einem €2K+ Display Lüfter drin haben... noch dazu kleine, schnell drehende Krachmacher, die dann am besten pünktlich kurz nach Garantieende die Grätsche machen.
 
Funktioniert das auch bei triple screen??
Dann könnte ich meine 22er endlich mal in Rente schicken.
 
schkai schrieb:
Die Monitore PG278Q und MG278Q (Der PG278QR unterscheidet sich nur in der Maximalen Hz Zahl von 165) sind da ein Paradebeispiel. Ich hatte/habe beide Monitore und musste feststellen das von der Austattung der Freesync Monitor besser ist. Der Freesync Monitor hat mehr Einstellungen und dazu noch Lautsprecher. Zum Zeitpunkt des Kaufs hat der Freesync Monitor 550 Euro gekostet und das Gsync Pedant 750 Euro. 200 Euro mehr für den eigentlich gleichen Monitor. Man sollte natürlich immer identische Monitore vergleichen - aber wenn man dies tut oder getan hat - ist man mit Freesync deutlich günstiger und teils sogar besser weggekommen. Das ist kein gehate gegen Nvidia sondern einfach nur Fakt.
Ich glaube du hast vergessen das der PG278Q noch 3DVision kann, was bei mir der Kauf Grund war. Weiter vorne hat jemand einen test verlinkt bei dem die G-Sync Variante einen niedrigeren Input lag hat. Was ich mich Frage ist ob man bei dem free Sync Modell auch ULMB nutzen kann. Zusammen mit der kleineren Sync range sind das schon Unterschiede die es da gibt.

Ob die Unterschiede jedoch jemandem den Aufpreis wert sind ist etwas ganz anderes.

Um eine sinnvolle Aussage zwischen den Sync Techniken und Monitoren treffen zu können. Benötigt man einen unabhängigen test der verschiedenen Scaler und die Information welcher Scaler im entsprechenden Monitor verbaut ist.
 
  • Gefällt mir
Reaktionen: Iscaran
Postman schrieb:
Eine 2080er Titanium und dann nur ein 27 Zoller?
Zudem für was blos bei diesen winzigen Monitoren 4K?

Perlen für die Säue zu werfen nenne ich das ...

Der hat kein 4k, 2560x1440p.
Und mit der Ti kann ich BF V so auf Max Settings jederzeit mit über 100 FPS spielen...
 
Wobei Max Settings ohne RTX und Renderscale unterhalb von 200 keine Max Settings sind, sondern eine leere Floskel.
 
HisN schrieb:
Wobei Max Settings ohne RTX und Renderscale unterhalb von 200 keine Max Settings sind, sondern eine leere Floskel.

Naja, der Normalsterbliche weiß was ich mit Max Settings meine^^
 
Naja, das ist der Grund dafür dass alle aneinander vorbeireden, weil jeder meint der andere weiß ganz genau was man selbst für Max Settings hält. Das ist ein Irrglaube, weil jeder seine ganz eigenen Vorstellungen davon hat.
 
  • Gefällt mir
Reaktionen: LukS
Zurück
Oben