Grestorn
Lt. Commander
- Registriert
- Apr. 2005
- Beiträge
- 1.296
Falsch. Der Framebuffer ist im VRAM.Bruhtang schrieb:Im VRAM landen keine fertig berechneten Bilder.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Falsch. Der Framebuffer ist im VRAM.Bruhtang schrieb:Im VRAM landen keine fertig berechneten Bilder.
Bei welcher GPU der letzten 10 Jahre?Grestorn schrieb:Falsch. Der Framebuffer ist im VRAM.
Und die FALD Steuerung.Blackfirehawk schrieb:es war eigentlich nur interressant wegen dem Variablen Overdrive von LCD Monitoren..
Das ist ja warum die Konsequenz daraus zu sein scheint, dass eine Opensource Implementierung von HDMI 2.1 aktuell nicht möglich ist.blackiwid schrieb:Aber ich sehe kein Weg das zu umgehen wenn man sich nicht an das Flowchart hält wird der Treiber schlicht nicht funktionieren.
Ja. Niemand hat in dem Zusammenhang DRM (HDCP) erwähnt. Denn das wäre noch das beste Argument. DRM geht einfach nicht in Opensource. Das niemand die Schuld darauf schiebt, scheint zu zeigen, dass es wirklich mehr um die Spec allgemein zu gehen scheint.blackiwid schrieb:Code oder irgendwas nutzen kann um damit Flime zu kopieren,
Ist auch meine Erfahrung. Aber ich wäre ein bisschen vorsichtiger damit. Nach allem was ich gelesen habe war das Bild mit LCDs und G-Sync Modulen bisher perfekt. Gar kein Flackern. Und mit OLED scheint es dann eingeführt worden zu sein. Und da G-Sync so Opaque ist ist es nur Nvidias Wille wie hoch das Niveau des G-Sync Zertifikats bleibt. Und Nvidia hat vorher schon bei LG TVs das ganze angefangen aufzuweichen. Wo die TVs mit Logo und ohne "compatible" beworben werden durften, obwohl sie kein Modul hatten und entsprechend nicht ganz so gut dabei waren wie die klassischen G-Sync Monitore. Gut möglich dass Nvidia das jetzt ein wenig aufweicht und die Qualität sinkt um in tieferen Preisbereichen mit AMD konkurrieren zu können.Shinigami1 schrieb:Ich würde daher NVIDIA Nutzern immer zu G-Sync raten. Das ist in meinen Augen Free-Sync deutlich überlegen.
Ich empfehle meinen langen Post zu lesen. Mein G-Sync Ultimate Monitor (AW3821DW) kann HDMI VRR auf beiden HDMI Eingängen. Den via HDMI an eine 3000+ Nvidia GPU angeschlossen und er wird als G-Sync erkannt wie über DP auch mit allen Features. Auch mit VRR bis 1Hz runter. Nur die maximale Refreshrate bleibt limitiert, weil das Modul nur HDMI mit TMDS kann und die Bandbreite zu niedrig ist um den Monitor dafürber voll auszufahren. Aber die VRR Features gehen voll. Und das schon lange.Bigfoot29 schrieb:Dass ihnen das alte Protokoll um die Ohren fliegt, merkt man am ehesten daran, dass es noch keine aktuelle HDMI-Implementierung gibt. Und das von einer Firma, die so stolz auf ihren Hightech-Kram ist.
Wie schon in meinem ersten Post beschrieben: Adaptive Sync scheint (der Standard ist leider nicht öffentlich, deshalb können wir es nicht exakt nachlesen) exakt nur zu definieren, wie die GPU sagt "ich habe noch kein Frame für dich" und dann irgendwann später "jetzt habe ich ein Frame für dich". Und dann noch wie der Monitor der GPU sagt, dass er das versteht und in welchen Grenzen (minHz - maxHz). Das war es.Bigfoot29 schrieb:Hatte nVidia hier nicht schlicht reguläres Adaptive Sync nachimplementiert und damit es nicht ganz so nach einem Eingeständnis klingt es trotzdem "GSync" genannt?
Ich hatte bisher 2 Freesync Monitore und mir ist bisher nach all den Jahren nie irgendein flackern aufgefallen. Vielleicht muss man die richtigen Monitore treffen, ich kenne das nicht. Aber HDR nutze ich eigentlich nicht, weil es zumindest bei meinen aktuellen Modell keinen nennenswerten Effekt hat.Shinigami1 schrieb:Ich kann aus eigener Erfahrung sagen das G-Sync im gegensatz zu Free-Sync viel weniger Bildflackern hat während Ladebildschirmen und auch während der Nutzung von HDR. Ich habe beispielsweise bei Elden Ring den AW3423DW (G-Sync) mit dem AW3423DWF (Free-Sync) verglichen. Sofort fiel mir bei HDR auf das der DWF deutlich erkennbar am flackern war (war mit Free-Sync aus nicht der Fall), vor allem bei dunklen Szenen wohingegen der DW ein perfekt ruhiges Bild hatte. Auch hat sich der DWF nicht so flüssig angefühlt wie die G-Sync Variante.
Ich würde daher NVIDIA Nutzern immer zu G-Sync raten. Das ist in meinen Augen Free-Sync deutlich überlegen.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Habe eine NV GPU.Contor schrieb:@aLanaMiau Vermutlich keine Nvida GPU verbaut? Denn alles oberhalb "compatible" funktioniert scheinbar nur in Verbindung mit eben einer solchen richtig....
Bei mir wars genau umgedreht - scheint einfach immer vom Monitor abhängig zu sein...Shinigami1 schrieb:Ich kann aus eigener Erfahrung sagen das G-Sync im gegensatz zu Free-Sync viel weniger Bildflackern hat während Ladebildschirmen
Welcher G-Sync Monitor war es denn? Leider werden da oft die verschiedenen Arten gemischt. Von Monitoren ohne Modul würde ich das nämlich eher erwarten als von denen mit Modul. Aber selbst wenn, wäre es interessant die Zusammenhänge zu finden, wo denn selbst die G-Sync Module nicht 100% korrekt laufen.aLanaMiau schrieb:Bei mir wars genau umgedreht - scheint einfach immer vom Monitor abhängig zu sein...
iron_monkey schrieb:Doch, Nvidia ist auf die Idee gekommen, denn bis dahin nicht in Desktop Monitoren genutzten Standard VRR mit einem eigenen Scaler in den Monitore zu bringen.
AMD hatte bis dahin keinerlei solche Ansätze und hat dann nur schnell reagiert und konnte dank VRR auch etwas bringen.
Ohne Nvidias Umsetzung gebe es in Desktop Monitoren kein AdaptivSync.