News Gigabyte MO32U & MO27Q2: Neue QD-OLED-Monitore in 16:9 mit USB-C und KVM

@qu1gon
Ich würde nur noch anmerken, dass HDR eines der wenigen Features in der Display-Technologie ist, welches das Bild wirklich verbessern können. Nötig? Vielleicht nicht, aber ziemlich sicher wichtig. ;)
Und da ist OLED am besten in der Hinsicht. Gute Mini-LED Versionen ... Na ja, habe ich mir nicht allzu genau angesehen. Billig sind die allemal nicht. Und bei TVs scheint ein Sony TV mit weniger Dimming Zonen besser zu sein als andere.

ThommyDD schrieb:
und der Arbeits-Laptop eh an der Dockingstation hängt, da er ein 240W-Netzteil mit zwei USB-C-Kabeln benötigt.
Was für ein Laptop ist das bitte?
 
Die 27"-Modelle finde ich auch verhältnismäßig teuer. Wobei da ja jetzt erste Richtung 500€ fallen. Die günstigeren 32"-Modelle finde ich gar nicht so viel teurer als vergleichbare LCDs, erst recht wenn man Mini LED oder sowas möchte für halbwegs brauchbares HDR. Den Dell zB gibts ja schon für ~800€, mit diversen Cashback-Spielereien eher für ~700€.

Man bekommt halt auch einiges dafür. Allein die Panelqualität- und Uniformität ist mit einem LCD im Grunde nicht zu erreichen (ja, da gibts auch Probleme wie Gray Uniformity bei WOLEDs, aber im Vergleich zu IPS Bleeding und Co sind die zu vernachlässigen).

Ich würde sowas wie KVM aber auch lieber auslagern und mich beim Monitor aufs Wesentliche konzentrieren.

qu1gon schrieb:
Dinge wie "richtiges HDR".. unbedingt zum Gamen nötig ist es nicht und schnell genug sind IPS Panels ja auch und super duper schnell wie beim OLED ist halt auch die Frage ob nötig, auch hier denke ich nein.
Ist wie mit den Hz - 60 auf 144HZ und je höher, desto weniger merkt man es. Also nice to have
aber ist es das alles wert, auch hier finde ich nein - auch wenn ein OLED Panel natürlich geil aussieht.
Also Bildqualität.

Aufgrund des Preises, ist aber "mir" und vermute mal vielen anderen ein OLED einfach "noch" zu teuer bzw.
da wird ein IPS Monitor für viel weniger Geld eben vorgezogen.
Leute, die für möglichst wenig Geld nur irgendwie spielen wollen, sitzen zumeist noch vor 1080p-Monitoren. Wenn man höhere Ansprüche und Budget hat, kann OLED mittlerweile durchaus eine Option sein.

Der Unterschied vom OLED zum IPS ist ab ~80 fps enorm was Bewegtbildschärfe angeht. Das ist was völlig anderes als zB. 120 vs 180 Hertz bei einem IPS.

Und gutes HDR macht ein ganz anderes Erlebnis aus einem Spiel. Bei praktisch null Leistungskosten.
 
qu1gon schrieb:
Dinge wie "richtiges HDR".. unbedingt zum Gamen nötig ist es nicht und schnell genug sind IPS Panels ja auch und super duper schnell wie beim OLED ist halt auch die Frage ob nötig, auch hier denke ich nein.
OLED bei HDR einen großen Vorteil bei der Latenz, LCD haben i.d.R. eine höhere Latenz, wenn HDR aktiviert wird. ->
https://www.igorslab.de/input-lag-p...ildwiederholrate-teil-3-monitor-grundlagen/3/

Am Beispiel AOC Q27G3XMN:
SDR Input-Lag
vs. HDR Input-Lag
 
Zuletzt bearbeitet:
No Cars Go schrieb:
Kaum hatte ich mir den Aorus FO32U(2)(P) ausgeguckt, bringt Gigabyte also einen MO32U, der von den Specs her fast identisch ist; die Aorus haben eine Mikrofonbuchse - die ich nicht brauche - dafür hat der MO32U ein integriertes Netzteil - zu dem ich nicht nein sagen würde. RGB brauch ich auch nicht und der Standfuß des MO gefällt mir auch besser.
Na toll.
Die Nachteile stecken im Detail. Ich habe mir gestern auch den FO32U2P bestellt und bereue es nicht. Der hat nämlich 65W PD und Daisy Chaining. Zudem natürlich 240 Hz statt 165 Hz. Den FO32U2P gibt es auch gerade für einen ordentlich reduzierten Preis, während der neue hier natürlich erstmal mit der UVP startet.
 
Slowz schrieb:
Die Nachteile stecken im Detail. Ich habe mir gestern auch den FO32U2P bestellt und bereue es nicht. Der hat nämlich 65W PD und Daisy Chaining. Zudem natürlich 240 Hz statt 165 Hz. Den FO32U2P gibt es auch gerade für einen ordentlich reduzierten Preis, während der neue hier natürlich erstmal mit der UVP startet.
Der FO32U2P hat zudem DP 2.1...
 
Dsplayport 2.1 so teuer oder warum lassen das soviele weiterhin aus?
 
  • Gefällt mir
Reaktionen: jube
floasen-r1 schrieb:
Der FO32U2P hat zudem DP 2.1...
Das stimmt aber ich sehe das nicht so recht als Vorteil bzw. ich finde das wird überbewertet. Nach meiner Recherche ist der Unterschied zwischen einem Bild mit voller Bandbreite bzw. UHBR20 kaum von einem Bild mit DSC zu unterscheiden. Lasse mich aber gerne von einem Besseren belehren.
 
  • Gefällt mir
Reaktionen: Deinorius
9b4luz.jpg


Ist echt so. Damit kann nicht mal ein Steam Deck die Ladung erhalten. Wenn die USB-C mit PD einbauen - sehr gut. Aber dann doch bitte mit mindestens 65 Watt. Sonst kann man es sich gleich sparen. Das taugt bestenfalls für Samsung Dex.
 
  • Gefällt mir
Reaktionen: jube und Deinorius
Deinorius schrieb:
Das sind jetzt zwei unterschiedliche (in der Anwendung) Dinge. Man sollte hier auch nicht vergessen, dass eine höhere Bereitstellung von USB PD auch ein größer dimensioniertes Monitor-NT erfordert.
In Zeiten von GaN-Halbleitern in modernen Schaltnetzteilen lasse ich das Argument nicht gelten. 140 Watt USB PD 3.1 plus vielleicht 50 Watt (Durchschnittsleistung) für den Rest des Monitors (OLED ist ja recht sparsam) sind am Ende in Summe unter 200 Watt Average und somit sollte das problemlos handlebar sein, wenn man nicht beim Netzteil spart.
Deinorius schrieb:
Und da größere OLED Monitore in der Spitze über 100 W verbrauchen können, muss das NT mit USB-PD von 90 W deutlich über 200 W beherrschen.
Nur im Maximalwert sind es über 100 Watt bei OLED-Panels. Der Maximalwert liegt aber immer nur kurz an, weshalb man das Netzteil bzgl. Kühlung eher nach dem Durchschnittswert designt. Die beiden Monitore sind mit 31,5 oder 27 Zoll im Vergleich zu einem 65 Zoll OLED-TV ja eher winzig (weniger als ein Viertel der Bildfläche und somit auch weniger als ein Viertel der Durchschnittsleistung bei gleicher Helligkeit pro cm²).
 
18 W? DisplayPort 1.4? Sorry, aber im Jahr 2025 ist das einfach nur peinlich.
 
Lurtz schrieb:
Ich würde sowas wie KVM aber auch lieber auslagern und mich beim Monitor aufs Wesentliche konzentrieren.
Bei komplexeren Aufgaben macht das sicher Sinn, wenn man bedenkt, was es für Thunderbolt-Dockingstations gibt, oder wie komplex gewisse KVM-Switches sein können.
Für einfachere Aufgaben wie "Ich will von zwei Geräten ein Bild an meinem Monitor haben und nicht M/T umstecken müssen" ist das eine sehr feine Sache.
Es reicht ja schon, ein Modell mit und ohne KVM-Switch anzubieten. Selbst zwischen Varianten mit Switch sind jene mit nur 18 W PD nennenswert günstiger. Aber da ich wenig Sinn in dieser Art von Switch sehe, wäre es besser dort, dieses einfach wegzulassen.

cbtaste420 schrieb:
OLED bei HDR einen großen Vorteil bei der Latenz, LCD haben i.d.R. eine höhere Latenz, wenn HDR aktiviert wird.
Das habe ich nicht mitbekommen. Gilt das allgemein, oder ist das eine AOC Sache. Ich weiß primär von Bildqualitätsnachteilen im Gamemode bei LCDs.

ThommyDD schrieb:
Ein Dell mit i7-12850HX und Nvidia RTX A2000.
Hilft mir nicht. Precision, Alienware? Hat er nicht standardmäßig einen Hohlstecker?

Weyoun schrieb:
In Zeiten von GaN-Halbleitern in modernen Schaltnetzteilen lasse ich das Argument nicht gelten.
Worte, welche die Kosten von Geräten in die Höhe treiben. Da könnte man auch argumentieren, dass alle Laptops so sparsam sein müssten, weil es ja auch Apple ist.
GaN wird derzeit vorwiegend verwendet, um Platz zu sparen, nicht um Kosten zu minimieren oder die Leistung zu erhöhen. Die neuesten Ugreen Ladegeräte sind sehr kompakt, scheinen aber die Maximalleistung nicht durchgehend halten zu können.
Bloß weil eine Technologie vorhanden ist, heißt das noch lange nicht, dass diese breit und/oder effektiv eingesetzt wird/werden kann.

Weyoun schrieb:
50 Watt (Durchschnittsleistung) für den Rest des Monitors (OLED ist ja recht sparsam)
OLED sparsam? Ja, wenn man den Dark Mode gut einsetzt.
Hast du dir mal letztens die Akkulaufzeit von Laptops mit und OLED Display angesehen. Besonders Gordon von PCWorld hat da mal einen netten Test mit deaktiviertem internen Display gemacht. Auf einmal ging die Laufzeit durch die Decke!
Ein Netzteil dimensioniert man NICHT mittels Durchschnittswert! Playstation Konsolen als Beispiel verwenden ja auch NTs, die weit über den Durchschnittswert gehen. Im PC kaufen sich die Leute auch Modelle, die weit über den Realverbrauch gehen. Letzteres hat auch andere Gründe und wird zu oft übertrieben, aber im Prinzip stimmt es.
Hardwareluxx hat das MSI Modell getestet und beim Verbrauch einen realistischen Wert von knapp 80 W (Light Mode) bei 150 nits bekommen. Ein weiterer Test in HDR wäre noch höher. Bei Hardware Unboxed und 200 nits und 100 % Weiß sind es 111 W. Das ist weniger praxisrelevant, kann dafür umso mehr den HDR Verbrauch darstellen. Und 90 W PD bedeuten, dass unabhängig vom Monitor-Verbrauch diese 90 W auch jederzeit zur Verfügung stehen müssen. Letzten Ende kommt man auf mind. 200 W, realistisch deutlich darüber, wenn du nicht willst, dass das NT häufiger mit 100 % Last läuft. Und auch wenn dieser Wert nicht mit jedem Szenario auftritt und meistens auch nur in Spitzen, das ist irrelevant, weil der Hersteller sicher keine Rückrufaktion provozieren wird, weil dieser Teil des Produktes unterdimensioniert wurde.
 
Ich hab bei 18W über USB-C aufgehört zu lesen. Was soll der Quatsch? Das reicht ja noch nicht mal um ein iPad zu laden während man damit arbeitet. Von Notebooks ganz zu schweigen.
 
Deinorius schrieb:
Das habe ich nicht mitbekommen. Gilt das allgemein, oder ist das eine AOC Sache. Ich weiß primär von Bildqualitätsnachteilen im Gamemode bei LCDs.
Soweit ich das beurteilen kann, betrifft das alle LCD. Die im Artikel beschriebenen 8-10ms werden von MUB bestätigt. wie in dem Video zu sehen.
 
Der 32er wäre super spannend, wenn er spürbar günstiger wird als der FO32U.
So um die 800 € wäre n Preis, bei dem es für mich interessant wird.
 
Deinorius schrieb:
Worte, welche die Kosten von Geräten in die Höhe treiben. Da könnte man auch argumentieren, dass alle Laptops so sparsam sein müssten, weil es ja auch Apple ist.
Wenn die BoM einen Dollar höher ausfällt (der Hersteller verlangt dann vom Endkunden 5 $), man aber einen sparsameren Monitor hat, der über die Lebensdauer mehr als 5 $ an Stromkosten einspart, warum nicht?
Deinorius schrieb:
GaN wird derzeit vorwiegend verwendet, um Platz zu sparen, nicht um Kosten zu minimieren oder die Leistung zu erhöhen.
Im Consumerbereich ja, aber GaN hat so viel mehr an Potenzial!
Hier mal ein Link bzgl. Wirkungsgraderhöhung beim Laden des Elektroautos mit Wechselstrom:
https://www.springerprofessional.de...nt=2024-10-25_SP-Automobil_Motoren_Newsletter
Deinorius schrieb:
Bloß weil eine Technologie vorhanden ist, heißt das noch lange nicht, dass diese breit und/oder effektiv eingesetzt wird/werden kann.
Wallboxen liefern mit AC bis 22kW Leistung. ;)
Deinorius schrieb:
OLED sparsam? Ja, wenn man den Dark Mode gut einsetzt.
Dark Mode? Mein Panasonic OLED TV ist immer recht sparsam im Auto-Modus. Er befindet sich aber auch nie in sonniger Umgebung und dimmt das Licht über den internen Sensor von sich aus.
Deinorius schrieb:
Ein Netzteil dimensioniert man NICHT mittels Durchschnittswert!
Wenn man 200 Watt als Average Wert veranschlagt, legt man die Kühlung danach aus. Wenn dann das Netzteil kurzzeitig 250 Watt zieht, startet ein Timer, der nach xx Sekunden die 200 Watt wiederherstellt. Somit geht auch nichts kaputt aufgrund von Überhitzung.
 
Boimler schrieb:
aber OLED finde ich bisher viel zu überteuert.
Es gibt bestimmt das ein oder andere passende Black Friday Angebot (alle Jahre wieder) auch bei OLED Monitoren (ob von der neuesten Generation, muss man allerdings abwarten).

Mir ging es bis dato leider ähnlich, da es irgendwie immer am Formfaktor/Spezifikationen oder Preis gehapert hat, den ich einfach nicht gerechtfertigt gesehen habe und ich war leider relativ kurzfristig darauf angewiesen nach dem der sehr alte 27" Dell WUXGA Monitor dann kaum (nur mit Glück/durch Zufall 'mal) noch vernünftig lief nach mehr als 12 Jahren Nutzzeit und mehrfachen Reisen um den Globus.

Am Ende fiel meine Wahl nur auf einen 4K/UHD 32" BenQ IPS mit nur 60Hz (FreeSync) aber für unter 300 Euro damals (lediglich hochfrequentere Monitore sollten mehr als das Doppelte kosten, was ich komplett daneben fand und OLEDs das Dreifache oder mehr), zumal bei mir in 4K/UHD sowieso nicht mehr als 60fps in 4K/UHD in aktuellen Spielen möglich sind (ich auch bestimmt keine exorbitant teure und m.E. unsinnige High-End Grafikkarte kaufen werde) und bisher kann ich über diesen - ursprünglich als Übergangs- und Produktivitäts-/Allroundlösung - gekauften Monitor nicht wirklich klagen.

Braucht es neben einem für Produktivität und als Allrounder immer noch beswser geeigneten IPS Monitor noch einen dedizierten teuren OLED Gaming-Monitor (?), das muss man sich dann wohl selber fragen bzw. das für sich beantworten.

Ich muss jedenfalls nicht sofort auf jeden Mainstream-Trend aufspringen und mir genügft der günstige, ältere Monitor und vielleicht bin ich als Retrogamer auch weniger anfällig was niedrigere fps angeht, wer weiss.

Den M32U von Gigabyte finde ich evt. nicht so verkehrt, aber ich glaube nicht, dass der preislich (für mich) in naher Zukunft passen wird.
 
Zurück
Oben