News G-Sync: Nvidia unterstützt nun auch Monitore mit Adaptive-Sync

@Dai6oro

das wäre doch mal was im hardware segment.....

die arbeits tiere kommen (preiswert) von amd und die luxus sachen für das wochenende von intel und nvidia. leben könnten wohl alle damit, abgesehen von den aktionären :evillol:

mfg
 
SKu schrieb:
Nein, habe ich nie gesagt. Musst du richtig lesen. Ich sagte "mehr als 100fps" was bedeutet > 100 und nicht >= 100.

Ja gut 101 ist auch mehr als 100 und 101 muss nicht gleich 144 sein.
Also sich so auf notwendige 144 fps einzuschießen verstehe ich nicht.

Wie @Caramelito schon sagte, sind 100 fps und das dann auch noch in 4k sicher ein geniales Erlebnis.

Und für was gibts Regler in den Spielen? Oder braucht man in the Shadow of the Tomb Raider in 4k noch 4x SMAA?
 
[wege]mini schrieb:
die wenigen verkauften 2080 und 2080ti machen "den kohl nicht fett" (nicht den altkanzler) und aktuell sind beide keine wirklichen konkurenten. evtl. begreifen es ja auch mal die konsumenten.

und wenn irgend einer kommt, die amd graka´s wären hartz4 karten, gibt es verbale klassen keile :D

mfg

Ich meine ehr den Bereich ab rx560 bis rx590 / v56
NVIDIA (meine persönliche Meinung) ist erst ab der 1080/2070 interessant. Dadrunter würde ich immer amd nehmen, weil es einen freesync Monitor eben auch entsprechend günstig gibt.
Dieser Vorteil ist nun weg. Nun kann man auch mit einer 1060 einen günstigen freesync Monitor betreiben.
 
Herdware schrieb:
Selbst wenn es bei bestehenden Monitoren mit Adaptive Sync wirklich so viele gibt, die nicht optimal mit Nvidia-Karten funktionieren, werden die Monitorhersteller bei allen kommenden Modellen garantiert darauf achten. Schließlich sind Nvidias GPUs im PC-Gaming-Bereich mit großen Abstand am verbreitesten.
Die Monitorhersteller müssen darauf achten?
Ich würde eher sagen es liegt vorrangig am nvidia Treiber, denn dieser übermittelt die Daten wie etwas ausgegeben werden muss.

Der Monitor ist im Grunde dumm. Der bekommt nur die Daten von der GPU wie er auszugeben hat. Würde es an der Firmware des Monitors liegen, würden wir wohl schon lange diverse Berichte dazu lesen.
 
Ich habe nen BenQ XL2730z und einen XL2740, hoffe das beide ein gleiches Ergebniss liefern.
Auf einen Test bin ich schon gespannt.
 
DocWindows schrieb:
Da dieser Monitor kein G-Sync Modul hat, kann auch nichts limitieren.

Der Bildschirm arbeitet mit nVidia Karten und etwas Glück genauso gut oder schlecht wie mit AMD Karten zusammen. Also in Bezug auf Synchonisierung.
Wie dämlich von mir, natürlich! :freak:
Ich kann grad nur nicht glauben, dass nVidia Kunden damit (mit etwas Glück) 21:9 und 144hz zur Verfügung stünde. Oder ich verstehe die Gesamtthematik nicht.
 
Die für mich spannende Frage:


Wird das auch bei den Nvidia Linux Treiber freigeschalten ?
 
Harsiesis schrieb:
ich habe lieber berechnete Zwischenbilder und konstant 144Hz anstatt eine schwankende Framerate die, je nach game, halt mal weit unter 100FPS einbrechen kann.

Auch eine Möglichkeit, Halbsync zu nutzen. Mir zb sind 72fps aber zu wenig (habe dich doch richtig verstanden!?)

Ich Locke auf 120 bzw 100fps und reduziere die Settings soweit das ich diese 100/120 fps Zahl mit kleinem Puffer halten kann. So gibt es selten mal dropps und wenn dann nur ein paar fps, die G-Sync kompensiert.
 
Esenel schrieb:
Ja gut 101 ist auch mehr als 100 und 101 muss nicht gleich 144 sein.
Also sich so auf notwendige 144 fps einzuschießen verstehe ich nicht.

Wie @Caramelito schon sagte, sind 100 fps und das dann auch noch in 4k sicher ein geniales Erlebnis.

Und für was gibts Regler in den Spielen? Oder braucht man in the Shadow of the Tomb Raider in 4k noch 4x SMAA?

Gut, ich habe mich nicht eindeutig ausgedrückt und meinte eigentlich damit, dass ich so nah wie möglich an der Bildwiederholungsfrequenz meines Monitors sein möchte.

Ob 100fps ein zufriedenstellendes Ergebnis sind oder nicht hängt für mich erst einmal vom Spiel ab.
Ein Single-Player wie das von dir angesprochene Tomb Raider empfinde ich schon bei 80-90fps als sehr angenehm, bei einem schnellen Shooter hingegen wäre das definitiv schon ein Unterschied zu 144fps.

Ich habe 4K noch nie an einem Monitor live gesehen. Ob 4K@Medium mich überzeugen würde oder aber ich WQHD@High mit mehr FPS als besser einstufen würde, müsste ich persönlich testen. Ich weiß aber, dass ich mir keinen 27" 4K Monitor mit 144Hz kaufen würde. 1440p ist für mich der absolute Sweetspot bei 27", gerade was Textgröße ohne Skalierung betrifft.
 
  • Gefällt mir
Reaktionen: Esenel
paperw_ngs schrieb:
Ich kann grad nur nicht glauben, dass nVidia Kunden damit (mit etwas Glück) 21:9 und 144hz zur Verfügung stünde. Oder ich verstehe die Gesamtthematik nicht.

Ich habe es so verstanden:
G-Sync wird über ein Hardware Modul umgesetzt
Freesync über die Software.
G-Sync geht auch ohne Hardware Modul auf Laptops, da wird quasi das selbe gemacht was amd über die Software löst.
NVIDIA erbarmt sich nun, freesync bzw Software Sync mit zu unterstützen. Da dies eine reine Software Lösung ist, geht das halt jetzt auch.

Korrigiert mich wenn ich falsch liege
 
paperw_ngs schrieb:
Ich kann grad nur nicht glauben, dass nVidia Kunden damit (mit etwas Glück) 21:9 und 144hz zur Verfügung stünde.

Naja, so dolle ist der nun auch wieder nicht. Bei FreeSync ab 55 FPS musst du bei dem Ding schon ne echt gute Grafikkarte haben. LFC hin oder her.
 
SKu schrieb:
Ob 4K@Medium mich überzeugen würde oder aber ich WQHD@High mit mehr FPS als besser einstufen würde, müsste ich persönlich testen. Ich weiß aber, dass ich mir keinen 27" 4K Monitor mit 144Hz kaufen würde. 1440p ist für mich der absolute Sweetspot bei 27", gerade was Textgröße ohne Skalierung betrifft.

Sku da haben wir die selben Ansichten.
Würdest du keine Shooter zokken, wäre die Entscheidung zu mehr Auflösung viel leichter, so zumindest bei mir.
Bei mir steht bezüglich Bildqualität die fps Zahl bzw. Das Geschmeidigkeitsempfinden ganz oben.
 
  • Gefällt mir
Reaktionen: Esenel
Volkimann schrieb:
Der Monitor ist im Grunde dumm. Der bekommt nur die Daten von der GPU wie er auszugeben hat. Würde es an der Firmware des Monitors liegen, würden wir wohl schon lange diverse Berichte dazu lesen.

Würde es nur am Nvidia-Treiber liegen, warum funktioniert es dann mit einigen Adaptive-Sync-Monitoren und mit anderen nicht?

Wenn es einfach nur eine harte Spezifikation wäre, die man entweder einhält oder nicht, dann würden entweder alle Monitore funktionieren oder keiner. Offensichtlich ist das, wie so oft, kein Fall von Schwarz/Weiß. Beide Seiten müssen aufeinander abgestimmt sein.
Schließlich macht sich AMD ja sicher auch nicht nur zum Spaß die Mühe, Monitore für FreeSync zu zertifizieren.
 
GERminumus schrieb:
Ich habe es so verstanden:
G-Sync wird über ein Hardware Modul umgesetzt
Freesync über die Software.
G-Sync geht auch ohne Hardware Modul auf Laptops, da wird quasi das selbe gemacht was amd über die Software löst.
NVIDIA erbarmt sich nun, freesync bzw Software Sync mit zu unterstützen. Da dies eine reine Software Lösung ist, geht das halt jetzt auch.

Korrigiert mich wenn ich falsch liege
Nvidia erbarmt sich nicht sondern wird durch den neuen HDMI Standard 2.1 dazu gezwungen, da dieser VRR in der Spezifikation hat und damit alle Geräte mit einer zertifizierten HDMI 2.1 Schnittstelle diesen auch unterstützen müssen. VRR entspricht dabei etwa dem was mit Freesync und Freesync 2 durch AMD umgesetzt wird.

Dies bedeutet für Nvidia möglicherweise Umsatzverluste da man bisher für G-Sync im Monitor zahlen musste um Spiele mit adaptiver Synchronisierung spielen zu können. Ein Großteil der Preisdifferent zum gleichen Monitor ohne G-Sync Unterstützung floss zu einem großen Teil direkt zu Nvidia.

Im übrigen passiert die Unterstützung auf der GraKa Seite. G-Sync Monitore werden weiterhin die extra Hardware haben. Nur unterstützen jetzt die Nvidia Karten auch die in Freesync verwendete Methode.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus
maikwars schrieb:
Es gibt aber deutlich mehr als nur 12 Monitore die das unterstützen bzw. haben.

Natürlich, die wollen die Hose nur langsam runter lassen und nicht gleich ganz nackt da stehen.
Mit zumindest der Unterhose noch an, fühlt es sich nicht ganz so beschämend.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und Cenek
Was hier wieder :heul: wird :daumen:

Welche Monitore unterstützt werden, ist ja nun nicht sooo schwer zu erraten.

G-Sync-Monitor erfordern grundstzlich mindestens 30-144Hz.
Ausnahmen sind UWQHD und 4K-Monitor bei denen die Kabel schlicht nicht mehr als 60Hz schaffen.

nvidia ist doch recht gnädig, dass sogar FreeSync-Monitore mit nur 40-144Hz unterstützt
und den Labelfake mit nur lächerlichen 48-75Hz eben nicht.
 
MrZweistein schrieb:
Nvidia erbarmt sich nicht sondern wird durch den neuen HDMI Standard 2.1 dazu gezwungen

Ich verspüre etwas Schadenfreude wenn mal NVIDIA gezwungen wird.
 
JMP $FCE2 schrieb:
Hast Du das nur "auf Verdacht" deaktiviert, oder gab es irgendwelche Probleme ?

Keine Ahnung, obs am Treiber, an P3D oder an meinem DELL Monitor lag, aber durch meinen 30FPS Framelimit lagen die FPS in der Realität im Simulator immer iwo zwischen 28 und 32 im Sim (der Engine geschuldet), was zur Folge hatte, dass G-Sync andauernd an und ausgeschaltet worden ist. Und das war in meinem Fall durch ein ganz leichtes Flackern sichtbar, das raubte mir den letzten Nerv. Seither hab ich es deaktiviert und nicht mehr wieder getestet, da die Kombination 30FPS und 120Hz ausreichend smooth ist für Prepar3d, auch ohne G-Sync...

Für alle anderen Games möchte ich es aber nicht mehr missen, alles was zwischen 50 und 100FPS erreicht, ist mit G-Sync schon butterweich (gefühlt).
 
Jetzt kann ich mir ja vllt. doch noch einen Samsung Q900 Qled holen :)
 
Ich musste den Artikel zwei mal lesen weil ich es nicht glauben wollte.
Bin mal gespannt wie sich mein Monitor schlägt, der nicht auf der Liste steht.
 
Zurück
Oben