Grestorn schrieb:
Da ist es dann viel sinnvoller angelegt, als bei Firmen, die nur abschauen und versuchen, die Innovation mit angeblicher "Offenheit" (die gar keine ach so tolle Tat für den Kunden ist, da es ja keinen Vorteil für den Nachmacher mehr wäre, die Technik "exklusiv" anzubieten) zu zerstören, statt mal etwas eigenes, innovatives zu entwickeln. Und auch dann trotzdem am Ende immer nur die zweitbesten sind.
VRR (HDMI)/Adaptive-Sync (DisplayPort) ist ein offener Standard.
Weder AMD noch NVIDIA haben da etwas abgeguckt, sondern sind nur unterschiedliche Wege gegangen. Es gibt übrigens auch Qualcomms Q-Sync und Apples ProMotion.
Das "Offenheit" keine tolle Tat für Kunden ist, halte ich für komplett falsch. Ich meine, wir reden hier von einem offenen Standard, verfügbar über HDMI und DisplayPort.
NVIDIA versucht(e) die Monitorhersteller dazu zu zwingen es so zu implementieren, dass es nur mit NVIDIA Grafikkarten funktioniert.
AMD hingegen hat es so implementiert, dass es über den offen verfügbaren HDMI/DisplayPort Standard klappt, der allen zur Verfügung steht.
Wenn du dich lieber beschränken lässt und dafür auch noch extra Geld bezahlen möchtes für angebliche Innovation: Tu das.
Ich habe eine andere Meinung dazu. Der Markt übrigens auch, ist ja kein Zufall, dass NVIDIA über ein Treiberupdate plötzlich auch "FreeSync" (also eigentlich nur VRR/AdaptiveSync) unterstützt, das früher angeblich nicht ging.
Grestorn schrieb:
Dass jetzt das GSync Modul endlich aus dem Schatten tritt, finde ich gut. Mein alter Acer Predator x27 ist einer der letzten Monitore mit GSync Ultimate Modul, und er stellt immer noch die meisten modernen Monitore in vielen Bereichen in den Schatten. Die HDR Darstellung ist Gold, und immer noch besser als mein Samsung trotz aller OLED.
Ich weiß nicht, was AdaptiveSync/VRR mit der HDR Darstellung zu tun hat. Der Acer Monitor ist sehr gut, für das was er ist - das GSync Ultimate Modul aber über die HDR Darstellung zu rechtfertigen, verstehe ich nicht. Magst du das bitte erklären?