Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News G-Sync Ultimate: Nvidia lockert offenbar Anforderungen an Monitore
- Ersteller MichaG
- Erstellt am
- Zur News: G-Sync Ultimate: Nvidia lockert offenbar Anforderungen an Monitore
Cool Master schrieb:HDR - nach 3D das nächste Gimmick welches nicht lange da sein wird.
Bei den schlechten PC Bildschirmen stimmt das, auf einem guten TV ist es ein deutlich größeres "wow" als 4K
TigerNationDE
Commander
- Registriert
- März 2010
- Beiträge
- 2.590
Das gefühl hab ich auch. War letztens beim bekannten und hab auf der PS5 auf nem relativ teuren Samsung OLED gezockt. Als ich nach hause kam und an meinen PC screen die selben Games zockte dachte ich so .... hmmmm ..... scheisse xDDai6oro schrieb:So schön die Entwicklung in anderen Bereichen ist. Bei Monitoren geht es gefühlt nicht voran. Ich bin zu verwöhnt von meinem OLED Fernseher so scheint es.
Buchstabe_A
Lt. Junior Grade
- Registriert
- Okt. 2007
- Beiträge
- 430
Dann hast du aber auf einem Samsung QLED gezockt, die sehen zwar vom Bild her gut aus, aber kommen nicht an die OLEDs der Konkurenz ran.TigerNationDE schrieb:Das gefühl hab ich auch. War letztens beim bekannten und hab auf der PS5 auf nem relativ teuren Samsung OLED gezockt. Als ich nach hause kam und an meinen PC screen die selben Games zockte dachte ich so .... hmmmm ..... scheisse xD
Also was Helligkeit angeht, schaffen die QLEDs mehr( je nach Modell ), aber Schwarzwert ist deutlich besser auf den OLEDs, würde persönlich immer einen OLED einem QLED von Samsung vorziehen.
TheDarkness
Commander
- Registriert
- Sep. 2013
- Beiträge
- 2.584
Hängt vom Einsatzgebiet ab. OLEDs in ner hellen Umgebung bringen nicht viel, da der gute Schwarzwert durch Reflexionen kaputt gemacht wird und dann die niedrige Helligkeit eher stört.
Wobei ich Samsung generell nicht (mehr) kaufen würde. Auch wenn ich das Bild an sich selbst in nem dunklem Raum nicht viel schlechter als OLED finde (dank FALD), gibt halt zu viele Software und Supportprobleme.
HDR auf nem Monitor kann auch "ok" sein, hab ja den X27, nur der FALD Algorithmus von PC Monitoren hängt dem von Fernsehern recht deutlich hinterher. Evtl. auch wegen den recht strengen G-Sync Vorgaben was Reaktionszeit & Co angeht.
Wobei ich Samsung generell nicht (mehr) kaufen würde. Auch wenn ich das Bild an sich selbst in nem dunklem Raum nicht viel schlechter als OLED finde (dank FALD), gibt halt zu viele Software und Supportprobleme.
HDR auf nem Monitor kann auch "ok" sein, hab ja den X27, nur der FALD Algorithmus von PC Monitoren hängt dem von Fernsehern recht deutlich hinterher. Evtl. auch wegen den recht strengen G-Sync Vorgaben was Reaktionszeit & Co angeht.
painomatic
Lt. Commander
- Registriert
- Okt. 2010
- Beiträge
- 1.093
Man kauft ja auch nicht einen Monitor, nur weil er mit Gsync Ultimate oder was auch immer betitelt wird - ich schaue ich mit Test und Specs genau an bzw entscheide nach meinem Bedarf.
Ich arbeite in einer Postproduktion für Film und Fernsehen. Der Unterschied zwischen SDR und HDR ist schon gewaltig - gerade was alles noch an Zeichnung in dunklen Szenen bzw Bildstellen zusehen ist im Vergleich zu SDR. Aber der Wow-Effekt tatsächlich nur bei HDR1000 - HDR600 wirkt tatsächlich nicht so spektakulär.
Leider war es mir bisher vergönnt, dass ganze einmal mit Games zutesten.
Ich arbeite in einer Postproduktion für Film und Fernsehen. Der Unterschied zwischen SDR und HDR ist schon gewaltig - gerade was alles noch an Zeichnung in dunklen Szenen bzw Bildstellen zusehen ist im Vergleich zu SDR. Aber der Wow-Effekt tatsächlich nur bei HDR1000 - HDR600 wirkt tatsächlich nicht so spektakulär.
Leider war es mir bisher vergönnt, dass ganze einmal mit Games zutesten.
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.280
Finde ich echt schlecht. Ich finde das mein Monitor tatsächlich zu Recht die HDR1000 Zertifizierung bekommen hat. Der Kontrast zwischen hell und dunkel ist super und dank der 512 Dimming Zonen ist es auch wirklich brauchbar.
Ich hatte einen LG Monitor hier mit HDR10, einen Asus 49" mit HDR400 und einen Samsung 49" mit HDR600. Einen Unterschied zwischen den Monitoren bzgl. HDR habe ich nicht feststellen können. Erst der jetzt mit den vielen Zonen und HDR 1000 zeigt was geht.
Das ist natürlich kein Vergleich zu einem OLED, der Monitor hat aber andere Vorteile (aber auch Nachteile, z.B. der perverse Preis, welcher alles relativiert).
Ich hatte einen LG Monitor hier mit HDR10, einen Asus 49" mit HDR400 und einen Samsung 49" mit HDR600. Einen Unterschied zwischen den Monitoren bzgl. HDR habe ich nicht feststellen können. Erst der jetzt mit den vielen Zonen und HDR 1000 zeigt was geht.
Das ist natürlich kein Vergleich zu einem OLED, der Monitor hat aber andere Vorteile (aber auch Nachteile, z.B. der perverse Preis, welcher alles relativiert).
Floxxwhite
Commander
- Registriert
- März 2014
- Beiträge
- 2.417
feris schrieb:Verwässerung eines einmal festgelegten Standards ist meist nicht so toll.
USB hust 😜
Adolf Kowalski
Banned
- Registriert
- Dez. 2020
- Beiträge
- 522
Falc410
können beides FreeSync und GSync selbst Monitore. Sonst würde man wohl kaum den Aufdruck an der Verpackung anbringen unten rechts.
Anhänge
Gamefaq
Vice Admiral
- Registriert
- Jan. 2005
- Beiträge
- 7.088
Warum Nvidia die Anforderungen demnach herabgesetzt hat und warum dies nicht öffentlich kommuniziert wurde, bleibt vorerst unbeantwortet. ComputerBase hat bei Nvidia nachgefragt, kurzfristig aber noch keine Antwort erhalten.
Warum ist klar wenn man die Technischen Möglichkeiten der aktuellen Monitor Technik kennt. 1000nits sind aktuell fast das Maximum das die Industrie technisch bauen kann. Es gibt nur einen Monitor mit 2000. Die meisten Studios haben den 1000er als Referenz. Wohlgemerkt Studios die darauf ihre Filme Mastern! Ein 1000nits Monitor der darüber hinaus noch eine geringe Latenz, G-Sync und hohe Auflösung sowie Zoll Größe haben soll sprengt teilweise das was die Industrie bauen kann bzw. ist das technische (und übersteigt deutlich das finanzielle) Limit das jemand für einen Spiele Monitor bezahlen will weil es aktuell das Maximum darstellt was man bauen kann. Und ein Technisches Maximum ist nie günstig oder ein Massenprodukt.
Die BT2020 Norm in der auch HDR definiert ist, ist bewusst höher definiert worden (mit 10.000 Nits!) als man aktuell bauen kann weil die alte BT709 Norm (mit max 100 Nits! ) die die VHS Kassette , DVD und Blu-ray nutzen noch aus den analogen Röhrenmonitor/ TV Zeiten stammt. Damit man nicht zu schnell wieder technisch überholt ist wurde die neue Norm bewusst überdimensioniert für die Zukunft.
Oder anders ausgedrückt hatte das Nvidia Marketing Zahlen gewählt die aktuell das technische Maximum darstellen aber nicht das finanziell vertretbare. Deswegen wird nun zurück gerudert.
Zuletzt bearbeitet:
F
foo_1337
Gast
Ndivia definiert gsync. Das verbaute Modul kommt von nvidia. Natürlich dürfen sie Mindestanforderungen stellen.Oma Erna schrieb:Top Down. Nvidia hat keine Anforderungen an Monitore zu stellen.
Grakas liefern aus und Monitore gehen damit um.
Topflappen
Lt. Commander
- Registriert
- März 2011
- Beiträge
- 1.709
Was bringen die dollsten Monitore wenn die Hersteller lieber den lizenzfreieren Standart mitnehmen wollen? Oder was bringt der schönste Aufkleber wenn ihn keiner oder zu wenige verdienen können?
Möglicherweise sogar beides.
Möglicherweise sogar beides.
RobinSword
Lt. Commander
- Registriert
- Aug. 2004
- Beiträge
- 1.161
Huch, ich dachte G-Sync Ultimate wäre tot?! Ist das denn dann noch echtes G-Sync in Hardware oder hat das Nvidia inzwischen auch heimlich geändert und G-Sync ist jetzt das was früher "G-Sync compatible" hieß, also die FreeSync-ähnliche Implementierung in Software?
Wenn ich mich richtig erinnere, war ein beworbener Vorteil von G-Sync Ultimate ja, dass Adaptive Sync ab dem 1. Hz/FPS greift. Das wäre für mich in der Tat ein Kaufgrund, denn nach meiner Erfahrung bringt einem Adaptive Sync gerade in niedrigen FPS-Bereichen Vorteile. 35 FPS mit G-Sync fühlen sich für mich wie 60 FPS an. Nur unterstützen es die meisten Monitore eben erst ab 48 FPS oder so, darunter bekommt man lediglich Frequenzverdopplung.
edit: Ich mein, viele von den G-Sync Ultimate Monitoren sind doch angekündigt worden, dann aber nie erschienen. Oder wo ist bitte der Asus PG32UQX, der letztes Jahr auf der CES angekündigt wurde?? Dieses Jahr kündigt Asus auf der CES dann wieder einen gleichnamigen, allerdings ohne X an. Das ist doch ein Witz...
Wenn ich mich richtig erinnere, war ein beworbener Vorteil von G-Sync Ultimate ja, dass Adaptive Sync ab dem 1. Hz/FPS greift. Das wäre für mich in der Tat ein Kaufgrund, denn nach meiner Erfahrung bringt einem Adaptive Sync gerade in niedrigen FPS-Bereichen Vorteile. 35 FPS mit G-Sync fühlen sich für mich wie 60 FPS an. Nur unterstützen es die meisten Monitore eben erst ab 48 FPS oder so, darunter bekommt man lediglich Frequenzverdopplung.
edit: Ich mein, viele von den G-Sync Ultimate Monitoren sind doch angekündigt worden, dann aber nie erschienen. Oder wo ist bitte der Asus PG32UQX, der letztes Jahr auf der CES angekündigt wurde?? Dieses Jahr kündigt Asus auf der CES dann wieder einen gleichnamigen, allerdings ohne X an. Das ist doch ein Witz...
Zuletzt bearbeitet:
B
BaserDevil
Gast
Solche Teile wie dein LG OLED 48CX bräuchte doch eigentlich DisplayPort? Nochwas. Stört beim spielen der hohe Kontrast nicht eher wenn man "geblendet" wird. Ich denke da wird man eher blöde in der Birne oder?SV3N schrieb:Auf traditionellen Monitoren bleibt HDR für mich Spielzeug.
Mein Samsung C32HG70 ist HDR600 spezifiziert und schafft in der Spitze 631 cd/m², was in Spielen absolut untergeht.
Wechsel ich hingegen an den LG OLED 48CX macht es im Kopf direkt „Ah, das ist also HDR.“
Das sind mehr als nur Welten. Ich hatte auch schon HDR1000 zertifizierte Monitore hier, alle zum Gähnen hinsichtlich HDR.
SVΞN
Redakteur a.D.
- Registriert
- Juni 2007
- Beiträge
- 22.987
Nein, es geht ja eher um die punktuelle Helligkeit und die starken Kontraste.BaserDevil schrieb:Stört beim spielen der hohe Kontrast nicht eher wenn man "geblendet" wird. Ich denke da wird man eher blöde in der Birne oder?
Nein, der läuft hier ganz ausgezeichnet über HDMI 2.1.BaserDevil schrieb:Solche Teile wie dein LG OLED 48CX bräuchte doch eigentlich DisplayPort?
Ice-Lord
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.395
Ich habe FressSync2 Premium mit einer Vega64
am laufen und bin damit HART zufrieden
Ja HDR fehlt
Aber alleine Free/Adaptive Sync bietet schon so dermaßen ein besseres
Erlebnis das ich den NV Aufpreis nie so recht verstanden habe.
Man Hätte den "Standard" ja so lassen können.
Wenn man wirklich das Beste will, hätte man das auf einen Blick gesehen
( und auch am Preis ) Das man hier oberste Lade kauft.
Und nach unten wird halt gestaffelt.
So wirkt das einfach inkonsistent.
Noch so ein pseudo-Standard der nicht wirklich was aussagt ?
Scheint als hätte man hier seine eigene Marke geschwächt.
am laufen und bin damit HART zufrieden
Ja HDR fehlt
Aber alleine Free/Adaptive Sync bietet schon so dermaßen ein besseres
Erlebnis das ich den NV Aufpreis nie so recht verstanden habe.
Man Hätte den "Standard" ja so lassen können.
Wenn man wirklich das Beste will, hätte man das auf einen Blick gesehen
( und auch am Preis ) Das man hier oberste Lade kauft.
Und nach unten wird halt gestaffelt.
So wirkt das einfach inkonsistent.
Noch so ein pseudo-Standard der nicht wirklich was aussagt ?
Scheint als hätte man hier seine eigene Marke geschwächt.
gartenriese
Lt. Commander
- Registriert
- Feb. 2011
- Beiträge
- 1.098
Guck dir mal diese Vogel-Doku auf Netflix an, das sieht richtig stark aus.aappleaday schrieb:Gibt es Beispiele wo man HDR besonders gut sieht? Habe meinen OLED erst seit ein paar Tagen und würde das gerne mal sehen.
bei Netflix have ich zwar paar DV Serien gesehen, da ist mir bisher aber nichts besonderes ins Auge gesprungen.
Ergänzung ()
Schreibt jemand, der noch kein richtiges HDR gesehen hat.Cool Master schrieb:HDR - nach 3D das nächste Gimmick welches nicht lange da sein wird.
Deswegen gibt es für OLED eigene HDR-Richtlinien. Und keinen einzigen OLED mit Gsync Ultimate-Siegel soweit ich sehe.basix schrieb:Ich finde die Herabsetzung des Standards grundsätzlich schlecht. Allerdings machen 1000 Nits bei OLED keinen Sinn. HDR1000 oder HDR400 TrueBlack werden sich gefühlt wohl nicht viel nehmen.
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.280
Was ich von Nvidia verlange ist quasi, dass man endlich Gsync Monitore auch mal für FreeSync freigibt. Absolut lächerlich, dass die teuren Geräte, welche technisch jedem Freesync Monitor überlegen sind, keine Kompatibilität mit Freesync besitzen.
Natürlich versucht man die Personen an Nvidia Karten zu binden, aber mit Gsync comp. geht man diesen Weg ja auch...absolut unverständlich sowas.
Natürlich versucht man die Personen an Nvidia Karten zu binden, aber mit Gsync comp. geht man diesen Weg ja auch...absolut unverständlich sowas.
Ähnliche Themen
- Antworten
- 5
- Aufrufe
- 5.187
- Antworten
- 22
- Aufrufe
- 3.099
- Antworten
- 81
- Aufrufe
- 17.179
- Antworten
- 17
- Aufrufe
- 2.511
- Antworten
- 14
- Aufrufe
- 4.072