Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGaming-Monitore: Asus bietet WQHD mit 480 Hz und den neuen G-Sync-Chip
OLED + 480hz kostet halt noch, bei Asus bezahlt man auch für den Namen und das war schon immer so und wird sich auch nicht ändern.
Schau dir Asus mal im Allgemeinen an, ob OLED oder nicht. Die Monitore waren schon immer teuer.
Die beiden Asus hatte ich mal aber lnge her, glaub knapp 1000€ das Stück, einmal 4k und einmal WQHD.
Die Specs lesen sich echt. Fragt sich nur ob sich das Upgrade vom Vorgänger mit "nur" 240 Hz lohnt oder doch lieber gleich zum 4K Modell PG32UCDP greifen sollte.
Letzteren würde ich nehmen. Mehr Immersion (nicht nur beim Gamen), mehr PPI. Zwar weniger Herz, der Größeneffekt ist aber gewichtiger.
27" ist heutzutage das alte 24". Kann man aber muss man 2024 nicht mehr haben.
Ich hätte auch gerne meinen DELL S2417DG durch ein OLED Modell ersetzt.
Ich mag meine 2K auf 24 Zoll, auch 144hz reichen mir völlig. Aber was mich am aktuellen Kastl stört ist das unglaubliche Color Bending vor allem im Grau/Schwarz Bereich.
Naja, OLED + 480hz gibt es eben noch nicht und entsprechend der Preis. Denke das hat weniger mit dem GSync Modul zu tun, welches bei dem Model ja auch gar nicht dabei ist.
ja, sehe ich auch so. Mein Kommentar war bewusst auf Ironie.
Nvidia hat halt einen Marketing Stunt hingelegt, da sie auf Nachfrage von CB geantwortet haben
"UVP sinkt signifikant"...
Das ist auf diesem Level ziemlich Kokolores, niemand kann wissen oder ausrechnen ob dieser Monitor hier mit dem alten Modul z.B. 1199,- anstatt 1099,- UVP gekostet hätte.
Und die Marktbezogen sehr kleine Zielgruppe, die über 1000,- Ocken für einen Monitor ausgeben, würde den Monitor wegen den Eigenschaften kaufen, ganz gleich ob er 100 mehr oder weniger kostet.
Das ist halt Blödsinn wenn Nvidia sagt "Mediatek Modul weil günstiger und mehr Marktverbreitung von G-Sync"...
Um mehr Marktanteil in Höhe von mindestens 20 bis 30% mehr zu bekommen, müsste Nvidia dieses angeblich so günstige Modul im Preisbereich von 200 bis 400 Euro Monitoren massiv reinbringen. Dann
würde dieses "günstiger" Gebrabbel von Nvidia Sinn machen und tatsächlich G-Sync im Markt breiter aufstellen.
Ergänzung ()
lorpel schrieb:
😵 OLED mit burnin Risiko.
😵 Nur 27 Zoll
😵 auf ganzer Fläche nur 275 cd/m²
Bei OLED bin ich zwar gänzlich anderer Meinung, siehe Signatur LG OLED TV.
Aber in Bezug auf die nur 27 Zoll gehe ich total mit.
Wer OLED will und bereit ist um die 1000 Euro auszugeben, sollte unbedingt die 42 und 48 Zoll LG Gaming OLED TVs anschauen. Die bieten auch G-Sync und sind als Monitore super groß, kann man z.B. ans Schreibtisch Ende stellen oder an die Wand befestigen und sieht immer noch Details wegen der Größe des Bildschirms.
Ist sicherlich richtig für die meisten, aber das ist nicht die Zielgruppe von einem 480hz OLED Monitor. Die Zielgruppe könnte ja klarer nicht sein mit CS2 und Valorant E-Sport-Spielern. Da ist es ja schon gewagt auf 27" zu gehen und WQHD. Viele bevorzugen da immer noch 24" + FullHD.
Und wirklich niemand wird auf einem größeren Monitor als 27" diese beiden Titel spielen. Dazu muss man bei 480hz auch nicht mit 4k anfangen, da man dann auch gleich sich die 480hz sparen könnte.
Ich bleibe dabei, der Monitor hat sein Publikum und die geben für das letzte bisschen eben auch 1000€ anstelle von 500€ für einen Monitor aus. Das sich die meisten diesen Monitor nicht kaufen sollten, ist denke ich auch klar. Ich würde ihn gerne ausprobieren gegen meinen 360hz IPS Monitor.
Erst ab 140ppi verschwinden bei OLEDs (QD, WOLED) die Säume um Schrift gerade so. QD-OLED irritiert dann noch immer, besonders Brillenträger.
Wenn du von 160ppi+ Bildschirmen kommst – schaue dir mal das Apple Studio Display an, Macbooks, oder Huawei IPS – und die angenehme Schriftdarstellung gewohnt bist, willst du nicht mehr zurück.
Und nein, sie ist dann nicht klein, sondern die „Skalierung“ ist auf 125%+. Um Mißverständnisse auszuräumen, dargestelltes wird nicht pixeliger dadurch (width: 10cm; ist 10cm breit unabhängig von ppi, 1em sind weiterhin X mm) sondern wird auf mehr Pixeln bei gleicher Breite ausgedrückt.
Ich würde sehr gerne ein OLED-Model nehmen. Aber wegen der Burn-In Problematik warte ich noch ab. Alternativ stünde ein BenQ IPS mit fast identischer Farbbrillanz und 1ms bei GtG und MPRT zur Verfügung für akt, 1.300,-€, nur leider in 4k. Wie ich jedoch über Tante Google erfuhr, reicht eine 6950'er dafür wohl nicht mehr, zumindest nicht für aktuelle Game-Titel. Und zusätzlich die erst zwei Jahre alte AMD-Grafikkarte mit einer potenteren, wie z.B. eine 4090'er zu ersetzen... hm. Aber 27'Zoll wäre mir trotzdem zu klein. Bei den OLED-Fernsehgeräten liegt bei allen Modellen die max. Bildwiederholfrequenz bei 120 Hz. Also fürs Gaming auch keine echte Alternative, wobei die Bild- und Farbqualität schon sehr beeindruckend ist.
Und nochmal, weil viele das immer noch nicht vertsanden haben, das man Hz/Fps Feeling von Oleds nicht mit LCDs vergleichen kann. Während 240hz LCDs immer noch "Schmieren" laufen Oleds selbst mit ihren 120hz noch smoother mit besserer Motionclarity.
Allgemein konnte bisher KEINER aus Familie und Freunden einen Unterschied ausmachen zwischen 120 und 240hz Oled, und nur beim extrem Test mit einer Lichtquelle im dunkeln und völlig unrealistisch schneller Mauskreisbewegung konnte man die Lichtquelle praktisch doppelt so oft "springen" sehen bei 240hz, was aber völlig irrelevant ist ( genauso wie der UFO Test ) weils schlicht durch die Oledschaltzeiten keiner merkt oder es sich gar spielerisch auswirkt.
Im Gegensatz dazu muss ein 240hz LCD Spieler auf nem 120hz Oled erstmal neu "Spielen" lernen, weil die Oleds so extrem flüssig schalten, das allgemein der Eindruck entseht da lägen viel mehr hz an.
Und nebenbei, selbst mit 4080s und 7800x3d sind nur sehr alte oder völlig anspruchslose Games überhaupt mit erst mit 240 hz zu betreiben, noch höhere FPS eigentlich kaum noch, wo der größere FPS Bereich enstprechend viel deutlicher negativ auffällt wenn man die FPS nicht halten kann, vom sich absolut nicht rechnendem Energieaufwand (+ Kühlung/Lautstärken) für so hohe FPS ausgaben der GPU gar nicht erst anzufangen.
Ich selbst begrenze trotz Top Hardware je nach Game auf 100 bis 120 FPS, auch wenn ich 240 fahren könnte, einfach weil mehr keinen Sinn macht und sich bei Oled Spielerisch kaum bis gar nicht mehr auswirkt. Selbst meine Kids die ebenfalls regelmäßig Zocken merkens nicht (ist also nichteinmal sagbar es läge an meiner evl Wahrnehmungsträgheit).
Bei LCDs siehts dagegen anders aus, aber das muss man eben selbst erstmal erfahren haben. Selbst wenn ich mal wieder an nem ollen 360hz LCD sitze, kommt der mir einfach nur träge und schmierig vor.
Und nebenbei, selbst für die "E-Sports" Fraktion (und das sage ich als CS Spieler), machen die Marketting Hz-Zahlen keinen Sinn auf Oleds, und auf FHD zu gehen um die FPS zu bekommen erst recht nicht.
Du meinst den BenQ Mobiuz EX321UX? Der Acer Nitro XV5 XV275KP3 ist das bessere Gerät, wenn du dich statt auf 80cm auf 68cm einlassen magst – und statt OSD die Windows Software nutzen kannst.
Was OLED können, ist Kontrast. Für HDR ist mini LED derzeit König.
Überstrahlung um Punkte, das hat OLED zwar nicht, aber perfekt müssen Maßnahmen dagegen nicht sein: Dein Sehsystem, deine Augen haben diverse Blendeffekte, wie veiling Glare (Blendeffekt der Linse aus out-of-focus und Umgebungslicht), Hornhautkrümmung, Feuchtigkeit auf Hornhaut…. Der Bildschirm muss nur nicht schlechter sein, dann merkst du das subjektiv nicht.
Generell würde ich aber mit Aufrüsten warten bis Helligkeit (SDR Potential >400 nits) bei OLED Bildschirmen akzeptabel ist. Und ich noch zusätzlich, bis die Farbproblematik (Farbtreue über alle Helligkeiten, Stich bei weißem Hintergrund bei QD-OLED, Lichttemperatur bei WOLED) behoben ist.
p.b.s. schrieb:
in 4k. Wie ich jedoch über Tante Google erfuhr, reicht eine 6950'er dafür wohl nicht mehr, zumindest nicht für aktuelle Game-Titel.
Ich seh da, was den eigentlich Sinn von G-sync, also VRR angeht, gar keinen Unterschied mehr, zu manchem Modell mit g-sync compatibel.
Es soll tearing verhindern. Hauptsächlich.
Das macht auch g-sync compatibel.
Wüsste jedenfalls nicht, dass mein X27AQDMG einen extra "g-sync-chip" drin hätte.
Tearing wird jedenfalls perfekt verhindert.
Wozu soll denn ein extra "scaler-modul/chip" gut sein? Es geht ja bereits ohne perfekt.
edit: Das Extra-Modul is doch nun schon lange überflüssig und der Markt hat es auch nicht angenommen. Ganz am Anfang hatte das sicherlich noch seine Berechtigung. Mittlerweile nicht mehr.
Zum Glück komm ich von 24" FULL HD/1080p
Dann hab ich diese Lususprobleme nicht.
WQHD is für mich völlig geil auf 27".
edit: Der Schritt vom alten 24"/1080p TN Panel zum 240 Hz Glossy WOLED is n Träumchen. Und ich hatte mich bewusst gegen die 480 Hz entschieden und nicht mehr gewartet, denn ich schaffe im Normalfall die 480 FPS (also echte, ohne Fakreframes) nicht.
Was ich schon mal hinkriege sind so 170-220 FPS (echte), denn ich will ja auch im Shooter noch einigermaßen nette Grafik haben. Da passen die 240 Hz perfekt!
Noch n edit:
Hab bei schnellen Spielen bei 230 (echte) FPS mein FPS Lock drin. Viel höher will ich eh nicht, alleine schon wegen Stromverbrauch/Auslastung.
Bei langsamen Singleplayergames, mit schöner Grafik hab ich sogar bei 80 FPS (echte) mein FPS Lock drin, da mir das dort reicht, vom Gefühl, was flüssiges Spielen angeht.
Was soll ich da mit 480 Hz? Die liegen dann ja eh nicht an, durch VRR.
Sry ... muss ja mittlerweile dazuschreiben, dass ich echte FPS meine und nicht Fakeframes, wo noch Bilder zwischen die eigentlichen Bilder zwischenberechnet werden, bevor das ausgegeben wird.
edit: Glaub ich mach mir ne Sig, wo drin steht: Ich spreche immer von echten FPS und nicht von FG. (Dann brauch ich nicht mit Extraerklärungen nerven )
Edit: Bringt aber nix, wenn Leute die Sig ausgeschaltet haben. ^^
PS: Mach ich trotzdem zukünftig so. Es nervt mich selber schon, dass ich immer dazuschreiben muss, dass ich echte FPS und nicht Fakeframes meine. Is ja wichtig, damit man das überhaupt vergleichen kann. Jemand der immer Fakeframes nutzt, meint dann mit 80 FPS, er hätte tolle FPS. Nö. Hat er nicht.
Ich finds echt lame wie es nach zwei Jahren immernoch keine Displayport 2/2.1 Bildschirme gibt nur weil Nvidia nicht so weit ist. Dabei wurde das angepriesen. Hier sehen wir wieder Nvidia G Sync Monitore, ofc gibts kein DP 2/2.1.... würde Nvidia ja nicht mit werben können. Wird aus Prinzip schon deswegen nichtmal genauer angeschaut, Firmen die Technologie aus solchen Gründen fernhalten will ich dann mal nicht supporten.
Bei Media-Markt stehen bei allen OLED-Fernsehgeräten ausnahmslos 120Hz(ich war erst letzte Woche dort). Bei Geizhals auch. Deswegen meine Annahme, daß die nicht über 120Hz hinauskommen?
Man muss die Option moch aktivieren irgendwie im gaming bzw pc Modus soweit ich weiß um die 144hz zu bekommen.
Habe mir nun auch einen C4 42 bestellt der gleich ankommen sollte. Für 999 Euro amazon Sonderangebot mit 100copoun oben drauf konnte ich dann doch nicht nein sagen und den kleineren evtl überteuerten Asus PG32UCDM kaufen mit den ganzen QD oled sorgen die teilweise im raum stehen....
Sobald der Gaming Mode aktiviert ist, ist im Gamingmenü eine Option für den 144hz Modus aktivierbar.
Das gute und gegenüber JEDEM "Monitor" ist, das man bei LG ab der c2 Reihe schon den Gaming Mode + die Filmmodes nutzen kann. Die GamingProfile sind eigentlich allesamt Müll, weil diese Farben und Helligkeiten/Kontraste vermurksen. Ergo kann man einfach den Filmmakermodus inkl dem Gamingmode nutzen.
Als Tipp rate dazu erstmal die GPU Treiber vollständig zu deinstallieren inkl aller Bildschirmsettings (ddu) und dann den aktuellen Treiber neu (bevor man den TV neu einrichtet, um evl Treiber/Windowsseitig gesetzte Farb/Gammawerte zurück zu setzen).
Dann den Filmmakermodus für sich einzustellen ( Farbtiefe + evl je nach Farbstich des Pannels die Farbwerte - am besten an einem Bild verschiedener Hauttöne (gibt sehr gute ISO Bilder im Netz), Helligkeit, unter Weißwert die Farbwärme zB. mit einem Bild von Schnee für "seine" Vorstellung von Scheeweiß einzustellen, dann hat man schonmal eine Save Profil).
Dann den Gamingmode aktivieren, die 144 hz, Free oder V sync aktivieren ( der GPU Treiber solle dies entsprechend erkennen, hier Voll und Fensterbild setzen). HDR unter Windows Kalibrieren, bei Woleds gerne auch den Farbregler richtung Mitte oder mehr schieben.
Die Funktionen aus dem Hauptgamingmenü wie zB Bildposition bei Formaten wie 21:9 oder 32:9, Gamma für dunkle Bereiche, Weiß und Schwarz stabilizer funktionieren weiterhin und greifen auch bei den Profilen außerhalb der Gamingprofilen.
So hat man den Filmmaker als Basis und kann sich gerne durch die anderen Profile zum Vergleichen durchtesten.
Bin gespannt wie weit die das noch treiben können. 4k bald mit mehr als 240hz + OLED!?!
Interessant ist für mich auch wie gut gsync tatsächlich auch ohne Chip funktionieren wird.