News G3223Q Gaming Monitor: 4K UHD mit 144 Hz und HDMI 2.1 gibt es auch bei Dell

Hmmm…. Wie sehr wohl die Bildqualität gegenüber dem U3223QE abfällt? Den wollte ich mir eigentlich als Nachfolger für meinen aktuellen Eizo zulegen. Bildbearbeitung via Lightroom ist bei mir ein Thema und es wäre interessant, ob sich der G3223Q auch für gehobene Ansprüche eignet.
Toll wäre ja ein mal ein Gerät mit 144Hz vernünftigen Schwarzwert, USB-C und kurze Reaktionszeiten. Also die Kombi aus beiden Geräten. ;-)
 
Zuletzt bearbeitet:
Stanzlinger schrieb:
32!" ist zu klein, 38" ist ideal

Bei UHD als Monitor sehe ich 32 Zoll als maximum und quasi ideal. Alles andere wird wieder zu sehr Minecraft.
 
  • Gefällt mir
Reaktionen: fox40phil
Man könnte fast meinen, dass die perfekte Bildschirmgröße subjektiv und rein persönliche Präferenz ist.
 
  • Gefällt mir
Reaktionen: MRclean, Mafrinje, Vitec und eine weitere Person
Tommy Hewitt schrieb:
Nennt sich FRC.

Ich frag mich, wie genau du deine Vergleiche ziehst. Wo sieht es besser aus? 🤔
Mit meinem alten, benannten Monitor...
Ergänzung ()

Zoldan schrieb:
Tommy Hewitt hat aber schon recht. 10 Bit "auch wenn es getrickst ist..." (-> was soll das eigentlich heißen? Wird da gedithert? ;) ), aber dazu dann noch ein TN Panel ist so ziemlich die schlechteste Qualität die man sich zulegen kann. Alleine TN Panel sollten aus der Produktion genommen werden und haben vielleicht nur noch ihre Daseins-Berechtigung, wegen der kurzen Responsetim
Seh ich ganz anders, grade die Responsetime gibt ein gutes Bewegtbild, die Farbgebung hab ich mir wie gewünscht eingestellt und der Schwarzstufenmode von dem Monitor ist auf höchste Stufe gestellt und echt gut.

Natrlich sitz ich nicht im Dunkeln und seh die schwarzen Pixel funkeln, nein ich sitz im Hellen und da gibt es richtig schwarze Stellen!

:D
 
Norebo schrieb:
Mit meinem alten, benannten Monitor...
Das hat aber genau nichts mit den 10bit mittels FRC zu tun.
Ergänzung ()

Tobias123 schrieb:
Toll wäre ja ein mal ein Gerät mit 144Hz vernünftigen Schwarzwert, USB-C und kurze Reaktionszeiten. Also die Kombi aus beiden Geräten. ;-)
Nur schafft's leider kein Hersteller, sowas zu liefern :(
 
Zuletzt bearbeitet:
Man schaue sich den "Dell UltraSharp U3223QE" an und denke dann noch mal über den Preis nach^^.
Ein Mix aus den beiden Monitoren wäre fein. Leider hat der US kein Sync etc. Dafür aber viele Anschlüsse wie auch Daisy Chain und USB C.

Der 32" Pro Art von Asus ist krass. Aber mit 5500€ unmenschlich teuer und nur mit UHD für den Preis.
 
Zuletzt bearbeitet:
Tommy Hewitt schrieb:
Das hat aber genau nichts mit den 10bit mittels FRC zu tun.
Der hat alles damit zu tun, denn ich kann den deutlichen Unterschied zwischen Alt, kein 10bit und Neu mit 10bit Unterstützung sehn.
Wie das erreicht wird ist mir egal, mir ist nur die offensichtliche Verbesserung wichtig!
 
Ich bräuchte wiederum keine USB Anschlüsse am Monitor, auch kein USB -C und kein LED Gedöns, Lautsprecher, wenns dabei ist kann ich aber auch nicht ändern, gibt aber schlimmeres.
Bleibe da trotzdem derzeit noch eher in der 400€ Liga mit den standard 32" 1440p und 165hz, wobei der Samsung Odyssee mit 240 Hz für seinen Preis schon ein passabler Kompromis ist.
Vielleicht wirds ja heuer im BF-Sale was mit dem Samsung.
 
Norebo schrieb:
Der hat alles damit zu tun, denn ich kann den deutlichen Unterschied zwischen Alt, kein 10bit und Neu mit 10bit Unterstützung sehn.
Du siehst aber keine 10bit, weil dein Content das nichtmal hergibt. Windows kann per se nur 8bit und in Photoshop musst das extra aktivieren. Spiele sind bis auf die mit HDR ebenfalls 8bit. Deine 10bit per FRC bringen also Null 😅
 
Vitec schrieb:
Ich bräuchte wiederum keine USB Anschlüsse am Monitor, auch kein USB -C und kein LED Gedöns, Lautsprecher, wenns dabei ist kann ich aber auch nicht ändern, gibt aber schlimmeres.
USB-C ist halt gut um ein Notebook anzuschließen.

Langweiliger Monitor. Wie eigentlich alles was rauskommt.
 
Ich hab mir den PG32UQ von ASUS geholt und der hat auch HDMI 2.1, 4K und 144Hz 😁
 
Tommy Hewitt schrieb:
Du siehst aber keine 10bit, weil dein Content das nichtmal hergibt. Windows kann per se nur 8bit und in Photoshop musst das extra aktivieren. Spiele sind bis auf die mit HDR ebenfalls 8bit. Deine 10bit per FRC bringen also Null 😅
Sowohl mein Win11, als auch mein Treiber zeigen mir 10bit Farbtiefe an, HDMI mit nur 8bit sieht deutlich anders aus, auf dem selben Monitor.
Kann naürlich sein, das HDMI einfach Scheisse ist, aber die Farbabstufungen sind auch feiner, das kann nur mit der Farbtiefe zusammenhängen.
Mir ist klar, das Software eine Rolle spielt. wenn die nur 4 Farben darstellt bekomm ich auch nur 4 Farben.
Wobei...kann man Starflight von GOG.com im CGA Mode spielen, oder ist es schon EGA?
Naja, und ich hab tatsächlich auch ein paar moderne Sachen, die könne schon 256... :D
 
Norebo schrieb:
Sowohl mein Win11, als auch mein Treiber zeigen mir 10bit Farbtiefe an, HDMI mit nur 8bit sieht deutlich anders aus, auf dem selben Monitor.
Kann naürlich sein, das HDMI einfach Scheisse ist, aber die Farbabstufungen sind auch feiner, das kann nur mit der Farbtiefe zusammenhängen.
Mir ist klar, das Software eine Rolle spielt. wenn die nur 4 Farben darstellt bekomm ich auch nur 4 Farben.
Wobei...kann man Starflight von GOG.com im CGA Mode spielen, oder ist es schon EGA?
Naja, und ich hab tatsächlich auch ein paar moderne Sachen, die könne schon 256... :D
Wie heißt denn dein Wunder Monitor für weniger als 200€? Dann schau ich mir mal die technischen Specs an und dann sehen wir ja was das Ding kann und was nicht.
 
Norebo schrieb:
Sowohl mein Win11, als auch mein Treiber zeigen mir 10bit Farbtiefe an, HDMI mit nur 8bit sieht deutlich anders aus, auf dem selben Monitor.
Kann naürlich sein, das HDMI einfach Scheisse ist, aber die Farbabstufungen sind auch feiner, das kann nur mit der Farbtiefe zusammenhängen.
Mir ist klar, das Software eine Rolle spielt. wenn die nur 4 Farben darstellt bekomm ich auch nur 4 Farben.
Wobei...kann man Starflight von GOG.com im CGA Mode spielen, oder ist es schon EGA?
Naja, und ich hab tatsächlich auch ein paar moderne Sachen, die könne schon 256... :D
Dann ist es HDR 10bit, 8bit wären SDR ,ich kann sogar bis 12bit Farbtiefe auf meiner Xbox,oder sogar 4k Signale können verarbeitet werden und werden bis 1440p 60hz herunter gesampelt ,hat allerdings auch alles nichts mit HDMI zu tun,oder mit dem Monitor,das liegt allein an der XBox die das kann .

Nicht unterstützt wird bei mir auch kein 4k mit 120hz oder vom Monitor ermöglichte 144Hz (dafür bräuchte ich einen DP Anschluss an der Xbox) ,oder 120fps Bilderwiederholrate ,das geht dann eben nur mit 60hz TV/Monitor Auflösung .

Wenn Spiele das unterstützen ,kann ich mit 12bit HDR Unterstützung ,120fps und 1080p FUll HD maximal spielen.

Vieles ist heutzutage möglich ,liegt aber auch meist allein nur an der Endhardware ,ob diese das unterstützt und ausgeben kann ,das so etwas ermöglicht werden kann.

Mein Windows Laptop würde sogar 5k Auflösungen unterstützen ,über einen Thunderbolt 4 Anschluss ,auch das wäre möglich ,dazu müsste ich mir allerdings Apples Studio Monitor zulegen.

Mein jetziger BenQ 32" Curved 144hz, wirde das nicht ermöglichen können.
 
Zuletzt bearbeitet:
Norebo schrieb:
Sowohl mein Win11, als auch mein Treiber zeigen mir 10bit Farbtiefe an
Nur weil sie es anzeigen, wird es nicht automatisch auch benutzt. Wie gesagt, in Software wie Photoshop kannst du es manuell einschalten und HDR-Inhalte nutzen den vollen Farbraum ebenfalls. Allerdings unterstützt der Monitor kein HDR, von dem her ist das sowieso hinfällig.
Norebo schrieb:
HDMI mit nur 8bit sieht deutlich anders aus, auf dem selben Monitor.
So deutlich anders kann es eben normal gar nicht aussehen. Stell mal mit Displayport einfach auf 8bit um, du wirst keinen Unterschied erkennen. Alles hier schon getestet, ich hab sogar ein natives 10bit-Panel.
keepsmiley5750 schrieb:
Dann ist es HDR 10bit
Wäre es, wenn der Monitor HDR könnte.
 
Also bei mir sehe ich es daran ,das wenn ich ein Spiel lade ,steht da HDR ist eingeschaltet ,kommt natürlich auch immer darauf an, ob und welches Spiel das unterstützt und Menü ist ebenfalls zu sehen ,das HDR unterstützt wird,für Spiele ,sowie auch für Videos .

Sein Samsung UHD unterstützt tatsächlich kein HDR ,kann aber wohl 10bit laut Herstellerangaben ,den selben habe ich auch noch hier ,als zweit Monitor .

Das ist einer der kann ledeglich 4k 60hz .

Mein BenQ WQHD 144hz Curved ,mit HDR Unterstützung ,hat weit mehr gekostet ,um die 500€ rum,da kann man schon damit rechnern,das es auch unterstützt wird.

https://www.amazon.de/gp/product/B07DVQ6Z8R/ref=ppx_yo_dt_b_asin_title_o00_s00?ie=UTF8&th=1

Ich denke mal bei einem 200€ Monitor, darf man da nicht viel erwarten ,obwohl der echt nicht schlecht ist als UHD ,halt nur nicht mehr so auf dem aktuellen Stand ,was auch die Anschlüsse anbelangt.
 
Zuletzt bearbeitet:
keepsmiley5750 schrieb:
Sein Samsung UHD unterstützt tatsächlich kein HDR ,kann aber wohl 10bit laut Herstellerangaben ,den selben habe ich auch noch hier ,als zweit Monitor .
Genau, er kann 10bit simulieren zumindest. Aber das bringt eben nichts, wenn der Content nur 8bit bereitstellt.

Da der Monitor kein HDR unterstützt, kann er es auch nicht unter Windows aktivieren. Von dem her werden auch keine Spiele hier die Option anbieten.
 
Tommy Hewitt schrieb:
Genau, er kann 10bit simulieren zumindest. Aber das bringt eben nichts, wenn der Content nur 8bit bereitstellt.

Da der Monitor kein HDR unterstützt, kann er es auch nicht unter Windows aktivieren. Von dem her werden auch keine Spiele hier die Option anbieten.
Nur mir geht es wohl genauso wie dir, ich habe auch gesucht nach einem Monitor,der am besten alles kann,am Ende habe ich mich dann für einen WQHD Curved 32" Zoll entschieden,der immerhin echtes HDR kann ,Spiele mit 120fps unterstützt und 4k Inhalte upsamplen kann ,auf WQHD Auflösung ,dafür muss ich leider mit etwas niedrige PPI leben und nur HDR400 .

Habe aber trotzdem ein rundes Gesamtangebot bekommen für mich zumindestens ,mit 2x HDMI 2.0,Displayport 1.4,USB C und USB A Anschlüssen.
 
@keepsmiley5750 Curved hab ich für mich direkt gestrichen, da auch Bildbearbeitung gemacht wird. Wobei mir bei 32" WQHD zu wenig wäre, da bin ich von den MacBook Displays einfach zu verwöhnt. Mit UHD sieht aber auf die Distanz alles schön knackig aus.

HDR unterstützt meiner zwar auch, "echtes" HDR bekommen wir aber beide nicht. Das geht nur mit OLED bzw. etwas eingeschränkter mit Mini LED aktuell. Hatte dafür den Lenovo ThinkVision Creator Extreme hier (UVP 3000€). Selten so einen Schrott-Monitor erlebt, gemessen am Preis natürlich. Doom Eternal in HDR sah ziemlich gut aus, aber beim Rest hat er vollkommen versagt.

Wie gut HDR mit Mini LED klappen kann, seh ich am 16" MacBook Pro. Kaum erkennbares Blooming, außer in Extremfällen.
 

@Tommy Hewitt


Etwas dunkel bei mir ,wenn ich Spiele mit eingeschaltetem HDR spiele finde ich,kann aber auch an der Full HD Auflösung liegen und dem nur HDR400,wo man weß,das ja Full HD eh immer etwas gelbstichiger ist ,aber dafür sind es echt knackige Farben und 120fps Bildwiederholrate, bei Watch Dogs 2,so Nacht Szenen im Spiel ich staune,da erkennt man alles ziemlch gut trotzdem,das war bei meinem Samsung UHD oft nicht so der Fall .

So kann ich mich nicht beschweren,da ja die XBox 4k Inhalte mit 60hz verarbeiten und upsamplen kann , auf QHD runter .

Das schwarz sieht schwarz aus und nicht milchig oder übermäßig überhellt ,als wenn man reines QHD verwenden würde.
 
Zuletzt bearbeitet:
Zurück
Oben