News AMD FreeSync: Neue Anforderungen mit höheren Bildwiederholraten

Haldi schrieb:
Ausser bei Laptops wo man gerne möglichst Sparsame Bildschirme hätte. Lieber mit 30Hz laufen lassen als mit 60Hz 30 FPS darstellen.
Naja, die effizienztechnischen Unterschiede dürften sich stark in Grenzen halten, wobei ich eh Monitore und keine Notebooks in meinem Post angesprochen habe.
Ergänzung ()

Haldi schrieb:
Zumal das Pro nur sagt das der Monitor HDR Kann.... wieso dann kein Freesync HDR Premium?
Premium pro verwendet wohl sein eigenes (zudem "fehlerhaftes") Tonemapping UND die spiele selbst müssen dieses sogar unterstützen.
Auf freesync für hdr daher besser verzichten und stattdessen hdmi vrr nutzen, was von sich aus mit hdr kompatibel ist ganz ohne werbeträchtige Vokabeln der Superlative.
 
Zuletzt bearbeitet:
Ich frage mich wie kann so ein Bildschirm 35fps darstellen, wenn die Spanne von 40-60Hz ist. Bei 30-60Hz würde es gehen.

24fps laufen auf 48Hz, 25fps mit 50Hz, 30fps auf 60Hz. Zumindest auf mein Beelink mit Vega 6 APU.
 
Haldi schrieb:
ie viel muss man monatlich bezahlen damit mein Monitor Premium Pro kann?
Ich dachte ja eigentlich AMD's Marketing hätte so langsam die Kurve gekratzt...
aber mit Premium Pro komm ich immer noch nicht klar.
Zumal das Pro nur sagt das der Monitor HDR Kann.... wieso dann kein Freesync HDR Premium?
Die sollten lieber Mal freesync Premium pro .. bzw die verkorkste HDR Implementierung fixen.. denn Freesync Premium pro kommt mit eigenen Metadaten und HDR Ansprechverhalten/Pipeline die extrem Buggy ist

viele Monitore haben tonmapping Probleme und erreicht nicht die entsprechende Peak Helligkeit.. wärend sie auf Nvidia und Intel (die eine klassische HDR10 Pipeline benutzen) alles tutti ist.

Kann ja nicht sein das man entweder mit CRU rumspielen oder Freesync im OSD komplett deaktivieren muss um ein gutes HDR Erlebnis zu haben.

Und wofür überhaupt.. für die 3 Spiele die Freesync Premium pro tauglich sind und die Helligkeitswerte vom Monitor auslesen können so das man nicht per Hand im Menü kalibrieren muss..
Ergänzung ()

Suspektan schrieb:
Premium pro verwendet wohl sein eigenes (zudem "fehlerhaftes") Tonemapping UND die spiele selbst müssen dieses sogar unterstützen.
Spiele können über eine Schnittstelle direkt die tonemapping Daten von einem Freesync Premium pro Monitor auslesen und sich damit automatisch kalibrieren (jedes nativ hdr fähige Spiel hat ein Kalibrierungsmenü für die Helligkeitswerte)

Allerdings gibt es wenn's hoch kommt gerade Mal 5 Spiele die das unterstützen.. und 2 davon sind Assassin's Creed Odyssey und valhalla..
Und beide haben mit Freesync Premium pro die Falschen Nitwerte bei meinem DWF OLED+6800xt übernommen (765nits wo es 1000 sein sollten)


Wobei es heutzutage für Spiele kein Hexenwerk sein sollte die Static HDR Metadaten der normalen HDR10 Pipeline auszulesen..
CRU kann das ..
Windows11 kann das
Und Nvidias RTX KI-HDR für Spiele und Videos kann es auch problemlos.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable und Suspektan
Ich konnte mit free sync noch keine gute Erfahrung sammeln, habe mehrere Bildschirme mit free sync Premium gehabt, aber immer flackert es in ein paar wenigen spielen/ Anwendungen. Gleiches gilt für g-sync kompatibel, kann man auch vergessen. Das einzigste, was mich bis jetzt überzeugen konnte ist g-sync ultimate, aber das ist preislich einfach zu teuer, für den kleinen Mehrwert. Mal sehen, was es in der Zukunft so gibt, aktuell hat man Hauptbildschirm g-sync ultimate, der nächste aber wahrscheinlich nicht mehr, da keine neue Geräte mehr erscheinen
 
  • Gefällt mir
Reaktionen: H6-Mobs
Nutze schon länger kein Free/Gsync mehr. Hatte es mal testweise deaktiviert da mein älterer Monitor dies bzgl. Probleme machte weil die Maximalfrequenz mit Adaptive Sync leicht abweichte und so dafür sorgte, dass Grafikkarten (ob nu AMD oder NV) den Speichertakt nicht mehr richtig senkten. Das zu beheben war mir dann zu frickelig und ich habe Adaptive Sync seither einfach bei allen Monitoren deaktiviert.
Features wie AMD Chill sind mir mittlerweile deutlich wichtiger. Grafikkarte bleibt schön kühl und frisst weniger Strom.
 
Ray519 schrieb:
Dir ist bewusst, das seit ein paar Jahren alles an G-Sync die HDMI und DP Standards nutzt?
Ja natürlich. Aber eben auch nur, weil sich der proprietäre Quatsch nicht durchgesetzt hat. Sonst würde uns NV weiterhin knallhart mit "technisch erforderlichen" Aufpreisen zu "Premium G-Sync" nerven und alle mit weniger als 80% Marktanteil versuchen zu verdrängen. Genau so, wie ja Zwischenbildberechnungen die überlegene Technologie einer RTX40xx voraussetzt und auf keiner anderen GPU laufen kann. Niemals! Der G-Sync-Quatsch ist für mich einfach ein schönes Beispiel dafür, dass die Kundenverarsche auch mal nicht mehr funktionieren kann, das ist alles, was ich damit ausdrücken wollte.
Ray519 schrieb:
Und das FreeSync über HDMI exklusiv von AMD ist und nicht offen? Deine Kritik ist ein bisschen aus der Zeit gefallen.
Verstehe die Aussage nicht. Mit jeder AMD und NV-Karte kann man heutzutage einen Monitor mit VRR flüssig betreiben. Dass es zum offenen Standard geworden ist verdanken wir eben nicht NV. Das aktuelle Freesync-Branding mit steigenden Mindestanforderungen wurde ja nur notwendig, weil irgendwelche Hersteller mit Schrottpanels mit voller Kompatibilität geworben haben, was den unbedarften Verbraucher verwirrt hat, wie auch @Apocalypse oben schreibt.

Ob das sinnvoll ist, kann ich nicht beurteilen, da ich nach Spezifikation und nicht nach Label kaufe. Aber Mindeststandards zu definieren (z.B. für HDR oder Auflösungen) ist ja durchaus üblich in der Branche.
 
  • Gefällt mir
Reaktionen: derSafran, Ja_Ge, yummycandy und 5 andere
Ben_computer_Ba schrieb:
Ich konnte mit free sync noch keine gute Erfahrung sammeln, habe mehrere Bildschirme mit free sync Premium gehabt, aber immer flackert es in ein paar wenigen spielen/ Anwendungen. Gleiches gilt für g-sync kompatibel, kann man auch vergessen. Das einzigste, was mich bis jetzt überzeugen konnte ist g-sync ultimate, aber das ist preislich einfach zu teuer, für den kleinen Mehrwert. Mal sehen, was es in der Zukunft so gibt, aktuell hat man Hauptbildschirm g-sync ultimate, der nächste aber wahrscheinlich nicht mehr, da keine neue Geräte mehr erscheinen

Hattest du Monitore mit VA Panel? Falls ja, die können durchaus flimmern mit VRR, das ist typsich.
Mit IPS sollte es keine Probleme geben.



Marmormacker schrieb:
Nutze schon länger kein Free/Gsync mehr. Hatte es mal testweise deaktiviert da mein älterer Monitor dies bzgl. Probleme machte weil die Maximalfrequenz mit Adaptive Sync leicht abweichte und so dafür sorgte, dass Grafikkarten (ob nu AMD oder NV) den Speichertakt nicht mehr richtig senkten. Das zu beheben war mir dann zu frickelig und ich habe Adaptive Sync seither einfach bei allen Monitoren deaktiviert.
Features wie AMD Chill sind mir mittlerweile deutlich wichtiger. Grafikkarte bleibt schön kühl und frisst weniger Strom.

Krass, VRR ist für mich absolut essenziell. Ich würde keinen Monitor geschenkt nehmen, der kein VRR kann.
Ohne VRR haste halt mit aktivem Vsync durchgehend microruckeln und hohen Inputlag und ohne Vsync durchgehend tearing. Das war ja damals schon immer die Entscheidung zwischen Pest und Cholera.

Musste meinen 170 Hz Monitor anfangs mangels kompatibler Grafikkarte ohne VRR betrieben. Als ich es dann mit der neuen GPU endlich nutzen konnte, war ich im siebten himmel. Nie. Wieder. Ohne. !
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jintho, Ja_Ge, memory_stick und 2 andere
Blackfirehawk schrieb:
Spiele können über eine Schnittstelle direkt die tonemapping Daten von einem Freesync Premium pro Monitor auslesen und sich damit automatisch kalibrieren (jedes nativ hdr fähige Spiel hat ein Kalibrierungsmenü für die Helligkeitswerte)
Redest du hier von minimaler und maximaler Helligkeit punktuell und in Fläche? Die Standard-Daten die jeder HDR-Monitor bereitstellen muss?

Was sollte AMD an HDR ändern? Bei HDR ist das Tonemapping vom Monitor einfach kritisch. Dynamisch geht nicht gut wenn man es in Echtzeit haben will und gerade mit variabler Framerate wird es noch schwerer, ähnlich wie Overdrive.
Blackfirehawk schrieb:
Static HDR Metadaten
Diese gehen von der Quelle zum Bildschirm. Und sind einfach nur durchschnittliche Bildinhalt-Helligkeit und maximale Inhalte-Helligkeit.

Das was Spiele machen ist on Top. Wenn du den Inhalt eh dynamisch generierst, braucht man nicht unbedingt eine Helligkeit generieren, die der Monitor eh gar nicht darstellen kann. Kann das Tonemapping vom Monitor weniger falsch machen. Aber eigentlich ist das der Job des Monitors zu handhaben.
DerRico schrieb:
Dass es zum offenen Standard geworden ist verdanken wir eben nicht NV.
Nein. Vesa/DP und HDMI. Auch nichts das AMD gemacht hat "wurde" zum Standard. Adaptive Sync war die Grundlage für "FreeSync über DP". Der Standard war schon da und AMD hat ihn nur unter einem eigenen Marketingnamen verkauft. FreeSync HDMI war eine Eigenentwicklung, damit billigere Monitore auch mit der Marke FreeSync werben konnten, obwohl es für HDMI keinen Standard gab, genauso wie es keinen Standard gab als Nvidia mit G-Sync anfing. Und FreeSync HDMI ist immer noch kein Standard und wird langsam abgelöst vom HDMI Standard. FreeSync HDMI geht nicht bei Nvidia und wird auch nicht bei Intel klappen. HDMI VRR schon, weil Herstellerübergreifender Standard.

Hat zwar bei Nvidia gedauert, aber alle Karten ab Pascal / 1000 haben Adaptive Sync gelernt. Und Nvidia hatte im Gegensatz zu AMD HDMI VRR integriert als sie auch HDMI FRL eingebaut hatten.
Letztendlich haben beide Hersteller jeweils mit ihren Hauslösungen angefangen, als es noch keinen Standard gab. Und dann gemütlich auf den Standard migriert als die dann da waren und funktioniert haben. Aber beide Hersteller versuchen das als eigene Marke zu verwerten, die noch so wirkt als wäre es proprietär.

Mein AW3821 kann HDMI VRR nach Standard. Zu der Zeit hat HDMI noch auf ihre eigene HDMI Suppe gesetzt.

Wie gesagt, dass Schlimme an dem Ganzen, ist das es heute im Treiber immer noch als "G-Sync" vermarktet wird und man "G-Sync" anschaltet auch mit einem nicht-G-Sync Monitor. Das G-Sync Compatible gleichzeitig eine Zertifizierung ist als auch einfach nur eine dämliche objektive Beschreibung, dass Nvidia Karten, die Adaptive Sync können, das auch mit Monitoren sprechen können.

Auf jedem Monitor sollten die Standards drauf stehen und unten drunter dann die Zertifikate. Und genauso auch in der Oberfläche wo du es anschaltest. Wäre viel übersichtlicher wenn das einfach von allen Herstellern als Adaptive Sync oder HDMI VRR nach XYZ-Niveau bezeichnet werden würde. Und der Name für den proprietären Teil wie FreeSync HDMI sollten getrennt bleiben, dass da niemand drauf reinfällt.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Deinorius
Nützt alles nix, man muss weiterhin jedes Model peinlich genau recherchieren ob es kein Flimmerer ist, oder ob eventuell ein starker Helligkeitsunterschied auftritt sobald frame doubling anspringt.

Von HDR/10bit wide color gamut will ich gar nich anfangen, da kann man den Verstand verlieren.
 
  • Gefällt mir
Reaktionen: kevyo, Quidproquo77, Apocalypse und eine weitere Person
JackTheRippchen schrieb:
Die minimale Refreshrate ist auch wichtig.
LFC ist schon länger für FreeSync Premium (Pro) erforderlich. Somit dürften alle Monitore, die dieses Logo tragen, auch damit ausgestattet sein.
 
  • Gefällt mir
Reaktionen: JackTheRippchen und Apocalypse
Mimir schrieb:
Ohne VRR haste halt mit aktivem Vsync durchgehend microruckeln und hohen Inputlag und ohne Vsync durchgehend tearing. Das war ja damals schon immer die Entscheidung zwischen Pest und Cholera.

Das hat mich schon seit der 3Dfx Voodoo genervt, dass die von 2D-Spielen auf dem C64 und Amiga gewohnte Flüssigkeit (praktisch dauerhaft 50 fps auf 50 Hz mit Vsync) eben doch nie erreicht wurde.

Das geringste Übel war für mich immer Vsync aus mit möglichst hoher Bildwiederholfrequenz, damit das Tearing weniger stört. Auch ein Grund, warum ich den Rückschritt von der 85/120 Hz-Röhre auf einen 60 Hz-Flachbildschirm ausgelassen habe.
 
  • Gefällt mir
Reaktionen: Bccc1 und Apocalypse
Haldi schrieb:
Ach was alles einbildung. Wir wissen doch alle dass das Auge nicht mehr als 23FPS feststellen kann^^
Verblüffend dass sich dieser Mythos immer noch am Leben hält.
Editus:..
Ich lass den Text trotzdem mal stehen :D

Also: Ab ca 24Hz nimmt das Auge eine Bewegung als flüssig war. Das ist eine Mindest- aber keine Höchstgrenze.

Dies ist wiederum etwas anderes als die Wahrnehmung von Unterschieden in einer Bewegung, z. B. zwischen 60 und 90 Hz.
Wer ein Display mit 90/120Hz im Smartphone hat und dann einen Text scrollt merkt den Unterschied ebenfalls sofort.

Über 120Hz ist die Unterscheidungsfähigkeit aber weitestgehend ausgeschöpft.
Ab da an kommen die wahrgenommenen Unterschiede durch andere Aspekte zustande:

-Bewegungen in der Peripherie werden besser wahrgenommen als im Fokusbereich des Auges. Eventuell entsteht ein anderes "Gefühl" ohne bewusst den Unterschied im Fokusareal zu sehen.

-Geringere Schaltzeiten, weniger Nachleuchten (Ghosting), schärferes Bewegtbild.

-Die Bildschirmgröße beeinflusst die Wahrnehmung:
Wenn ein 1cm² Objekts, von zb links nach rechts, auf einem Display 2cm zurücklegt, würde es auf einem doppelt so großen Display 4cm zurücklegen, wodurch "Sprünge" des Objekts zwischen den Bildern doppelt so groß sind und sichtbarer werden (könnten), falls die Hz zu gering sind und es sich weder zu langsam noch zuschnell bewegt. Dies hängt deshalb auch mit der individuellen Sehschärfe, Displayauflösung und Objektgroße zusammen.( eigenes Beispiel: Kameraschwenk über ein Gebirge in "Der Hobbit" bei 24 vs 48p. Es entsteht ein gnadenloses Geruckel.)

-Flackern der Beleuchtung: ein sehr Kleiner teil der Menschheit kann Flackern bis 300/400Hz wahrnehmen, im oberen Bereich aber unbewusst und eher durch Kopfschmerzen erkennend als durch flüssige Bewegungen

Es soll sich aber niemand einreden, dass irgendein Mensch eine schnellere Reaktionszeit spüren will, weil nach dem Wechseln von einem 144Hz- auf ein 360Hz Display ein Frame nur noch 3ms anstatt 7ms benötigt. Da hat ein geringerer Inputlag weit mehr Einfluss auf die Wahrnehmung (z. B. 30/40ms Reduktion von Tastendruck bis zur Aktion)

Das stellt man noch neben die weltweit geringsten Reaktionszeiten, die bei ca 150-200ms liegen (z. B. Formel1 Piloten).

PS: Unser Auge ist keine Digitalkamera und sieht die Welt nicht in Hz, darum sind direkte Hz nicht 1:1 aufs Auge/Gehirn übertragbar
Ergänzung ()

JMP $FCE2 schrieb:
Das geringste Übel war für mich immer Vsync aus mit möglichst hoher Bildwiederholfrequenz, damit das Tearing weniger stört. Auch ein Grund, warum ich den Rückschritt von der 85/120 Hz-Röhre auf einen 60 Hz-Flachbildschirm ausgelassen habe.
Zumindest auf dem PC gab es dafür lange Zeit adaptive Vsync als Zwischenlösung, bevor VRR existierte.
Das lief auch mit 30, 90(?) und 120Hz
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kevyo, Deinorius, Apocalypse und 3 andere
Blackfirehawk schrieb:
Die sollten lieber Mal freesync Premium pro .. bzw die verkorkste HDR Implementierung fixen.. denn Freesync Premium pro kommt mit eigenen Metadaten und HDR Ansprechverhalten/Pipeline die extrem Buggy ist
Oh Gott.
HDR in Games ist schon so verkorkst genug.
Seitdem ich einen Monitor besessen habe welcher HDR besitzt hab ich in jedem Game das ich zocke immer mal wieder HDR aktiviert um zu sehen wie gut es läuft.
Leider habe ich es in 90% der fälle wieder deaktiviert weil es ohne besser aussah.
Das letzte was einigermassen lief, an das ich mich erinnern kann, war Cyberpunk nach etlichen patches und Baldurs Gate 3.

Ich bin ja eigentlich kein Fan von rigorosen Standards. Aber bei so Situationen wünschte ich mir das eigentlich schon.
Jeder macht da ein wenig etwas anderes das dann noch anders umgesetzt wird.


CyrionX schrieb:
Wie sich dieser Unsinn immer noch hält.
Phew... Die ^^ gingen über deinen Kopf oder?
 
  • Gefällt mir
Reaktionen: Ja_Ge, CyrionX und Apocalypse
  • Gefällt mir
Reaktionen: Apocalypse und jimmy13
Fighter1993 schrieb:
Hab vor 2 Wochen den neuen

AW2725DF OLED 27 Zoll von Dell geholt.

Der hat glaub FreeSync Premium Pro. Den gibt’s eben nur mit 360Hz, hätte nicht gedacht das man den Unterschied zu 144Hz merkt.
Wie Smooth aufeinmal der Mauszeiger unter Windows ist 😅
Wird auch der Wechsel zu OLED mitspielen - die Pixel Response Time ist deutlich (!) besser als bei einem LCD. Allein dadurch fühlt sich ein OLED-Monitor deutlich flüssiger bei selber Refreshrate an.
 
CyrionX schrieb:
-Flackern= ein sehr Kleiner teil der Menschheit kann flackern bis 500Hz wahrnehmen, im oberen Bereich aber unbewusst und eher durch Kopfschmerzen erkennend als durch flüssige Bewegungen

Wobei ich mich wundere, wie diese Menschen das CRT-Zeitalter überstanden haben. 85 Hz waren Standard, und für mich flimmerfrei. Für höhere Bildwiederholfrequenzen musste man Auflösung opfern, deshalb habe ich 1152x864@120 Hz nur für Quake Live verwendet.

Neonröhren ohne elektronisches Vorschaltgerät flimmern auch mit 100 Hz, und die waren praktisch überall, besonders in Schulen, Geschäften und Betrieben.

CRT-Fernseher flimmerten mit 50 Hz, nur die teureren hatten digitale Bildspeicherung und 100 Hz.

CyrionX schrieb:
Zumindest auf dem PC gab es dafür lange Zeit adaptive Vsync als Zwischenlösung, bevor VRR existierte.

War für mich keine Option, weil schlechter, wenn die 60 fps nicht erreicht wurden. Die zerrissenen Frames sind kürzer sichtbar bei höheren Bildwiederholfrequenzen.
 
Pepsi.Cola schrieb:
OLED hat technologisch bedingt schon bessere Reaktionszeiten
OLED erinnert mich auch eher an Röhren-Monitore vom sehen, in Sachen Geschwindigkeit.
Das macht eben viel aus, das liebe Marketing konzentriert sich aber lieber auf andere Schlagworte.
 
Ray519 schrieb:
Redest du hier von minimaler und maximaler Helligkeit punktuell und in Fläche? Die Standard-Daten die jeder HDR-Monitor bereitstellen muss?

Was sollte AMD an HDR ändern? Bei HDR ist das Tonemapping vom Monitor einfach kritisch.
Richtig. Freesync Premium Pro bringt sein eigenes tonemapping mit.. gespeichert im Freesync Block..
Da ist aber nicht nur Min, AVG und MAX luminance werte sondern auch noch andere wie Gamma Transferfunktionen ect mit betroffen.

Und diese unterscheiden sich bei freesync anscheinend von den normalen HDR10 Werten aus dem Static HDR Metadata Block. Denn viele Monitore haben massive Probleme mit AMD karten (erreichen nicht die Peak Helligkeit.. tonmapping und eotf Tracking)
Wärend mit der klassischen HDR Pipeline (Nvidia + Intel) alles problemlos funktioniert.
Ergänzung ()

Haldi schrieb:
Oh Gott.
HDR in Games ist schon so verkorkst genug.
Seitdem ich einen Monitor besessen habe welcher HDR besitzt hab ich in jedem Game das ich zocke immer mal wieder HDR aktiviert um zu sehen wie gut es läuft.
Leider habe ich es in 90% der fälle wieder deaktiviert weil es ohne besser aussah.
Das es auf die ingame Implementierung ankommt ist das eine..
Allerdings gibt es eine Menge Spiele die großartig mit HDR aussehen.. und ich schätze eine gute HDR implimenierung als optisch wertvoller als irgend ein raytracing gedönst.


Wenn dein Monitor entsprechend gut ist..

Und da geht unter 512+ miniled Zonen.. oder am besten direkt OLED eigentlich gar nix.

Mit diesen 8 Beleuchtungszonen pseudo HDR400/600 Monitoren brauchst du gar nicht über HDR fähigkeit anfangen zu reden.. da kannst es direkt aus lassen.. ist so sinnvoll wie ne freesync Range von 48-60
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ja_Ge
Und wie soll der Endverbraucher den "neuen" Standard vom Alten unterscheiden? Gibt es ein neues Logo, eine neue Bezeichnung? Ab wann greift der neue Standard?
 
Zurück
Oben