News Asus ROG Swift OLED PG27UCDM: 4K-Auflösung mit 240 Hz auf 27 Zoll kostet 1.500 Euro

Ja hab ich mit Controller auch gemacht
mit Tastatur und Maus geht es leider nicht
 
Hat jemand Erfahrung mit aktuellen Asus Displays, ob man da Lüftergeräusche oder Spulenfiepen hört?
 
Stagefire schrieb:
Weil der 32" 4K ein 2024er Model ist und auch mal teurer war
Ja aber es macht keinen Sinn jetzt den 27 Zoll Monitor für 400€mehr rauszubringen als den 32 Zoll Monitor, kauft doch keiner der klug ist. Was flickering angeht was Gsynch und Freesynch angeht, ist VA leider echt schlimm bei mir.
 
Rockbreak schrieb:
Ja aber es macht keinen Sinn jetzt den 27 Zoll Monitor für 400€mehr rauszubringen als den 32 Zoll Monitor, kauft doch keiner der klug ist.

Wenn nun jemand aber eben genau diese 27" mit 4K im Bereich OLED haben will sieht das anders aus
da muss man dann halt die ersten Monate abwarten bis dann der Verkaufspreis gefallen ist

Wie gesagt nie zu release zugreifen da sind die Dinger noch zu teuer sondern halt ein paar Monate warten
damit der Preis fallen kann daher brauch man sich auch nie über den Release Preis aufregen weil der eh nich
so lange bestand hat

Das selbe is doch auch im TV Bereich da fällt ja zb der LG 42" von den 1.700 Euro auf den 800 Euro Bereich
und der wird dann im nächsten Jahr im neuen Model auch erstmal wieder bei 1.700 Euro starten
und wenn man den dan mit dem Vorjahres Model aus der High End G Serie vergleich den 55" der dann bei
so 1.200 - 1.500 liegt ( und für 2.500 Euro gestartet ist ) is da dann der Vorjahres 55" OLED TV auch günstiger als der neue 42" OLED TV aber eben nur für eine gewisse Zeit bis dann der neue 42" auch im preis fällt nach ein paar Monaten nach Release




Warten lohnt sich halt ( 2024er 55" LG G4 High End OLED TV von 2.800 auf 1.500 Euro in 6 Monaten )


Screenshot 2025-02-17 231717.png





und der 2025er LG 55" G5 wird dann wieder für 2.500 oder 2.800 starten und fällt dann auch wieder im Preis
is immer das selbe Jahr für Jahr und so passiert es dann eben das der kleinere von diesem jahr zu der Zeit
dann teurer is als der größere vom letzten Jahr bis dann der Zeitpunkt da is wo dann der kleinere neue
auch an der Reihe is und mit dem preis runter geht nach ein paar Monaten nach Release


Es geht ja nich nur um Größen sondern um Gens und Verbesserungen bei der Haltbarkeit , Helligkeit
und Stromverbrauch da is jede Gen mal hier und mal dort etwas besser und es is dann eben die neue Gen
die dann auch zum Winter hin auf den Preis fällt wie die alte Gen vorher das is ein Kreislauf

Die neuen 32" 4K OLED und QD-OLED Monitore von 2025 werden auch wieder teuer starten und
zum winter hin wieder günstiger werden ... is immer das gleiche Jahr für Jahr.
 
Zuletzt bearbeitet:
27 Zoll mit ganzen 400 nits in der Spitze für 1500€ :lol: phahahaha der ist gut.
 
Fujiyama schrieb:
@Guitarluke
600 Euro ist immernoch viel zu viel für die breite Masse bzw den Massenmarkt. Kaum einer ist bereit 600 Euro für den Monitor auszugeben.
Was total dumm ist. Der Monitor oder auch TV macht extrem viel von der Qualität aus.
Wer sowieso auf maximal Budget zockt...ja okay. Dann muss man Abstriche machen.
Aber spätestens wenn man eine Ps5 Pro sich leistet oder im PC entsprechende Hardware hat, ist es maximal dumm einen billigen Bildschirm zu nutzen.
Beispiel was ich erlebt habe, mein Bruder.
Hat sich eine Ps5 Pro gekauft um seine Ps5 zu ersetzen und ja das Bild ist besser und/oder flüssiger als auf meiner normalen Ps5.
Trotzdem musste ich schmunzeln, weil statt einer Pro hatte ich mir meinen Oled geholt für ca genau den gleichen Preis, während er sich die Pro geholt hat und auf seinen 4k IPS TV zockt ohne Dimming, HDR etc
Und die Games sehen bei mir trotz schwächerer Konsole um Welten besser aus:D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: anarchie99, Pro_Bro und Guitarluke
FeArL3Zz schrieb:
27 Zoll mit ganzen 400 nits in der Spitze für 1500€ :lol: phahahaha der ist gut.

Ist halt falsch. Er kann 1000 nits peak und 250 vollflächig. Das reicht für sehr gutes HDR.

Das Problem mit der HDR zertifizierung ist, dass hier vollflächig hohe Helligkeiten erwartet werden und vollflächig 250 nits eben hier nur für die HDR400 zertifizierung reichen.

Dabei ist das für tatsächlichen HDR content ziemlich irrelevant. Die durchschnittliche Helligkeit liegt für HDR Inhalte bei ca 100 nits und unterscheidet sich korrekt konfiguriert kaum von SDR. Das Bild soll nicht heller werden, der SDR Fabraum hat auch mit HDR noch genauso bestand. HDR erweitert SDR nur dort, wo die Helligkeit von SDR nicht ausreicht, um die Inhalte realistisch abzubilden. Also bei den Peaks, wie z.B. Lichtquellen die idr nur einen sehr kleinen Teil des Bildes einnehmen und mit 1000 nits leuchten oder eben z.B. himmel und wolken, die aber dann max mit 200-300 nits leuchten sollten.

Die Vesa Zertifizierung schießt mMn meilenweit übers Ziel Hinaus. Aber gut, wenn sie letztendlich dafür sorgt, dass bessere Displays gebaut werden, fein. Aber man sollte sich als Verbraucher davon nicht verunsichern lassen.

Man sollte zudem wissen, ob man „nur“ HDR will oder ob man ein möglichst helles Bild will. Das sind zwei völlig verschiedene Dinge, die gerne in einen Topf geworfen werden, aber nichts miteinander zu tun haben. HDR ist wie gesagt nicht da, um das Bild heller zu machen, sondern nur kleine Teile davon. Wer allgemein mehr helligkeit will, weil er in einem sehr hellen Raum sitzt, muss ganz unabhängig von HDR eben ein Display kaufen, das auch im SDR betrieb vollflächig die gewünschte Helligkeit liefert. Also z.B. einen MiniLED.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: anarchie99 und Guitarluke
Mimir schrieb:
um die Inhalte realistisch abzubilden. z.B. himmel und wolken, die aber dann max mit 200-300 nits leuchten sollten.

Realistisch haben die Wolken drausen bei uns aber halt mehr Nits als 200 - 300

Also bei Heutigen HDR von Realistisch zu sprechen nunja nichmal im Ansatz

Screenshot 2025-01-16 215022.png


Das HDR Tone Mapping weist den Wolken halt ihre 200 - 300 Nits zu damit noch genug übrige bleibt
für die anderen Highlights wie eben die Sonne

Kann ein HDR Gerät aber mehr als 1000 Nits werden die Wolken heller und die Sone im Verhältniss auch


1.jpg



Screenshot 2025-02-18 003832.png







3.jpg


2.jpg



Screenshot 2025-02-18 004456.png



Screenshot 2025-02-18 010142.png



Mimir schrieb:
Die Vesa Zertifizierung schießt mMn meilenweit übers Ziel Hinaus.

Die haben das Ziel nichmal erreicht bzw die heutigen HDR Geräte noch nich
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HyperBeast_GER
Imo sind der 1000 Nits Mode bei den Monitoren aber Müll. Hab das selbst getestet und die kleinen winzigen Highlights sind heller aber der Rest vom Bild ist halt sehr dunkel. Da funktioniert der 400er Mode schon deutlich besser, auch wenn die Highlights dunkler sind
Im Vergleich zu einem TV Oled der selbst vllt nur 800nit kann ist trotzdem beides Mist.
Da hat man wenigstens Highlights die Hell sind aber trotzdem kein restliches sehr dunkles Bild
SDR habe ich auch bei irgendwas um 100-150Nits immer eingestellt, schon immer. Ich mag es gar nicht so hell abgesehen davon das es ja auch "richtig" ist, weil SDR gar nicht für so hohe Helligkeiten gemastert ist
Aber der 1000er Mode ist einfach trotzdem viel zu dunkel im Vergleich
 
Zuletzt bearbeitet:
HDR wird nicht durch ein helles Gesamtbild schön, sondern durch die möglichst lebensechte Kerze, den Scheinwerfer, das Feuer, das beleuchtete Fenster etc. im dunklen Gesamtbild. Gibt diverse Monitore, die keine HDR Zertifizierung haben und trotzdem mit HDR Inhalten im HDR Modus überzeugen.
 
Shakyor schrieb:
Imo sind der 1000 Nits Mode bei den Monitoren aber Müll. Hab das selbst getestet und die kleinen winzigen Highlights sind heller aber der Rest vom Bild ist halt sehr dunkel. Da funktioniert der 400er Mode schon deutlich besser, auch wenn die Highlights dunkler sind

Da QD-OLED Monitore stark abdunkel bei alles was größer als 2 % Window is die 1000 Nits liegen ja dort nur
bei 2 % Window an also bei etwas hellem das 2 % des Bildschirms groß is is etwas größer dann greift
das Agressive ABL Dimming ein


2024er QD-OLED Monitor : ( die sind da seit der 2022er Gen 1 aber eh alle gleich )



1000 Nit Mode : --------------------------------------- True Black 400 Mode :


Screenshot 2025-02-18 004804.png
---
Screenshot 2025-02-18 004910.png



https://www.rtings.com/monitor/reviews/msi/mpg-341cqpx-qd-oled



2024er QD-OLED TV :


Screenshot 2025-02-18 005736.png


Screenshot 2025-02-18 005013.png



https://www.rtings.com/tv/reviews/samsung/s95d-oled
 
Zuletzt bearbeitet:
Die OLED-Preise dürfen gerne mal fallen :D
 
@usernamehere

Find 750 - 850 Euro für ein 42" 4K OLED schon ok da kann man nix gegen sagen


Screenshot 2025-02-18 023123.png





Die Preise für GPUs dürften dagegen gerne mal fallen und die hat man nich so lange wie ein Anzeigegerät
Mein 48" 4K OLED von 2020 hat nun schon 2 1/2 GPUs mit gemacht ( GTX 1080 , RTX 3080 , RTX 4090 )
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Guitarluke
Stagefire schrieb:
Realistisch haben die Wolken drausen bei uns aber halt mehr Nits als 200 - 300

Die haben das Ziel nichmal erreicht bzw die heutigen HDR Geräte noch nich

Nein, das ist nicht Sinn der Sache, es geht nicht darum, die Realität 1:1 abzubilden, sondern darum, einen vergleichbaren Eindruck zu erschaffen.

Denn der Unterschied ist, dass draußen bei heller Umgebung die Augen adaptieren und sich die Iris zusammenzieht. Selbst wenn der Himmel dann 4000 nits hell ist, blendet uns das nicht, dafür sehen wir aber draußen bei sonnenschein auch kaum noch dunkle details.

Das Auge ist also stark limitiert, was es an Helligkeitsunterschieden wahrnehmen kann, ohne geblendet zu werden und ohne zu adaptieren.

Solange man diese Range also ausnutzen kann hat man das Optimum bereits erreicht. Wenn das Auge geblendet wird und adaptieren muss wird es nur unangehme und sehr stressig fürs Auge, aber in sachen wahrgenommenem Kontrast gewinnst du dann nichts mehr hinzu.

Es macht halt überhaupt keinen Sinn einen Himmel mit mehreren 1000 nits darzustellen, während ich im Haus bzw. abends vorm Display sitze. Jede vorbeiziehende wolke würde mich extrem blenden. Das entspricht nicht dem Eindruck in der Realität, da du in dunkler umgebung vor einem Display nicht dafür sorgen kannst, dass das Auge so adaptiert ist, wie draußen in heller umgebung.
 
  • Gefällt mir
Reaktionen: anarchie99 und Guitarluke
E1M1:Hangar schrieb:
Also falls du jetzt ne Schriftdarstellung ala TN, IPS oder VA erwartest - die wirst du bei OLED nicht finden. Damals nicht und jetzt auch nicht.
LG hat auch nen OLED am Markt mit - wie bei ihren TVs - normaler Anordnung. Abgesehen davon, dass der LG deutlich ansprechender ist. Technisch ist ASUS zwar bis auf das Samsung-Panel top, doch müsste sich ASUS dringend von ihrem Kinderspielzeug-Produktdesigner trennen bzw. wenn´s unbedingt ein "Gaming-Look" sein muss, dann den Mitarbeiter von RAZER abwerben. So einen ABC-Plastikbomber kann ich mir als Erwachsener leider nicht erlauben 🤐
 
  • Gefällt mir
Reaktionen: anarchie99 und DaHans
Pikablu schrieb:
Hat jemand Erfahrung mit aktuellen Asus Displays, ob man da Lüftergeräusche oder Spulenfiepen hört?

Bei diesem Modell jedenfalls nicht, der ist echt leise.
 
  • Gefällt mir
Reaktionen: Pikablu
1500 Euro. Interessant!

Bin ich eigentlich bescheuert, dass ich mit dem günstigen Philips Evnia 27M2N5500 (kostete nur 170 Euro) alles in allem zufrieden bin für den normalen Gebrauch und zum Zocken?!
Mein Exemplar hat keinen Pixelfehler und macht keinen Mucks, man kann viel einstellen und die 180Hz reichen mir auch. Die Ausleuchtung ist per Testbild passabel und im Alltagsgebrauch absolut in Ordnung und ansonsten hat er eben alle Vor- und Nachteile eines IPS und zudem relativ wenig IPS-Glow.

Ist zwar "nur" WQHD und eigentlich wollte ich einen 800 Euro OLED, den ich schon ins Auge gefasst hatte... doch dann dachte ich mir:

NÖ.

2002 hatte ich bereits um die 1000 Euro für einen 21" CRT bezahlt, der damals als sehr gut galt.
Was für ein Irrsinn... :grr:

Ach ja, zu meiner Eingangsfrage: JA, ich bin bescheuert! :lol:
 
Ostfriese schrieb:
1500 Euro. Interessant! Bin ich eigentlich bescheuert, dass ich mit dem günstigen Philips Evnia 27M2N5500 (kostete nur 170 Euro) alles in allem zufrieden bin für den normalen Gebrauch und zum Zocken?!

Gibt ja auch Leute die mitm Trabbi oder ner RTX 2060 noch zufrieden sind ... is doch cool



Mimir schrieb:
Nein, das ist nicht Sinn der Sache, es geht nicht darum, die Realität 1:1 abzubilden, sondern darum, einen vergleichbaren Eindruck zu erschaffen.

Hattest du aber gesagt das es darum geht Inhalte Realistisch abzubilden und will man etwas realistisch abbilden geht das ja nur 1:1


Screenshot 2025-02-18 184022.png



Und 200 - 300 Nits für Wolken sind jedenfalls eben nicht realistisch.

HDR is noch weit weg von Realistisch



Und wie gesagt hat man ein Gerät das 1000 Nits max kann dann sind die Wolken dann in deinem genannten Bereich natürlich je nach Scene

Hat man aber ein Gerät was mehr Nits hat zb 2000 dann wandern alle hellen Objekte in den Helligkeisttufen
nach oben bis auf eben den SDR Bereich .. ( bei meinen Bildern der Schwarz Weisse Bereich )


Achte wie sich der Himmel und die Wolken Farblich ändern wenn man das Nit Cap verändert
die Wolken sind selbst beim 1000 Nit Cap höher als deine gesagten 200 - 300 Nits

Original Bild :

3.jpg



Heatmap Bild .... Nit Cap auf grob 4.000

2.jpg


Screenshot 2025-02-18 185548.png


Screenshot 2025-02-18 185551.png




Heatmap Bild .... Nit Cap auf 1.000

1.jpg


Screenshot 2025-02-18 185538.png


Screenshot 2025-02-18 185604.png




Heatmap Bild .... Nit Cap auf 1.000 aber Helligkeitshistogramm auf 10.000 Nits gelassen :

22.jpg



Es kommt immer darauf an wie gut das HDR Implimentiert wurde und was eben grade auf dem Bildschirm
zu sehen ist und wieviel Nits dein Gerät darstellen kann also wie hoch du das Nit Cap gestellt hast

Bei einem 400 nit Gerät haben die Wolken dann vielleicht deine gesagten 200 - 300 Nits aber bei einem
2000 Nit Gerät haben die Wolken mehr nits da das Tone Mapping ja die verfügbaren Nits auf die Objekte
auf dem Bild verteilt und is der Nit Arbeitsbereich höher werden auch die Hellen Objekte wie eben die Wolken heller bzw bekommen eben mehr Nits zugewiesen vom Tone Mapping so das dann Wolken eben auch mal 600 Nits haben können oder 1000 Nits je nach dem wieviel Nits dein Anzeigerät maximal anzeigen kann und wenn die Wolken dann beim 2.000 Nit Gerät 1.000 nits haben sind noch weitere 1.000 nit Puffer für die Sonne die dann 2.000 Nit bekommt von Tone Mapping da die ja dann das Highlight is und die Max Nits abbekommt und sich dann mit 2.000 Nit absetzen kann von den 1.000 Nit Wolken


Bei einem Monitor / TV der 10.000 Nits könnte würde das so aussehen :


Screenshot 2025-02-18 193157.png


hdr-05a-scaled.jpg


hdr-06a-scaled.jpg

hdr-14a-scaled.jpg



Screenshot 2025-02-18 193055.png


https://arstechnica.com/gaming/2018...es-broken-down-by-incredible-heatmap-imagery/
 
Zuletzt bearbeitet:
Das ist einfach nur ne grottige HDR implementierung. Das gesamte Bild sollte nicht heller werden, wenn man die Spitzenhelligkeit ändert. Das ist nicht Sinn der Sache, weil du so dynamic range verlist statt hinzugewinnst. Du machst das ganze Bild nur heller. Dafür braucht man kein HDR.

Spiele mit vernünftiger HDR Implementierung haben für sowas einen Paperwhite Regler, welcher je nach Umgebungshelligkeit auf 100-200 nits eingestellt werden sollte.
 
  • Gefällt mir
Reaktionen: anarchie99
Mimir schrieb:
Das ist einfach nur ne grottige HDR implementierung.

Ironi :

Jepp ... das kennt man ja auch von Evil Boris dat is ja auch einer aus der Scene der 0 Plan hat oder ?

Ironie aus :

Screenshot 2025-02-18 202555.png


Screenshot 2025-02-18 202619.png




Screenshot 2025-02-18 202643.png





Ich denke so brauchen wir nicht weiter diskutieren ..

Ironi an : du bist da ja besser als Evil Boris und hast den Plan .. Ironie aus :

... lassen wirs sein mir gehen da nun auch die Nerven aus da noch weiter zu diskutieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mimir
Zurück
Oben