Dell Alienware AW3420DW Farbtiefe 8bit

Registriert
Apr. 2020
Beiträge
10
Guten Abend

habe mal ne Frage es gibt ja viele mit 10 Bit bzw FRC 8+2 sieht man Eigentlich ein Unterschied oder von der Bildqualität bzw ist ein 10 Bit vieleicht besser oder gibt es da keine Unterschiede.

Soll ja mit einer der Besten Ultrawide sein und kaum BLB haben zu anderen Hersteller. 120Hz reichen mir völlig aus. Mein System ist ein I7-9700k und einer RTX 2070Super.
 
Ich habe ihn seit heute und habe u.a. Tests mit Farbverläufen gemacht, bei denen er (anders als mein TN Gerät) keinerlei Abstufungen o.ä. anzeigt. Bin sehr zufrieden mit dem Standardsetting out of the Box, ausser dass ich die Helligkeit von 75% auf 60% heruntergenommen habe.
Farben sind echt geil, da kann mein TN nicht mithalten. Dieses IPS-Glow, wie ich es einmal nervend bei einem Eizo hatte, stelle ich auch nicht fest.
Overdrive-Stufe "Extrem" ist nicht zu gebrauchen, da sichtbares Ghosting, wogegen die mittlere Stufe "Superschnell" das schon nicht mehr aufweist.
Wolltest Du so was in der Art wissen?
 
Ja ist schon Hilfreif danke, hab ja bei You Tube Videos gesehn also die Qualität ist ja Gut und schnell ist er auch von der Reaktionszeit und das Bild wirkt auch sehr Scharf.

Was ich genau meinte ob ein 10 Bit vieleicht eine bessere Bildqualität liefert als ein 8 Bit so meine ich das.
 
War auch vor ein paar Wochen drauf und dran den zu kaufen.
Scheint qualitativ der beste Monitor für um die 1000 Euro zu sein (zumindest bei 21:9).

Mich hatten dann nur die 8 bit Farbtiefe und die Beschränkung auf 120 Hz dank des GSync Moduls gestört.

Wenn ich das damals richtig verstanden habe macht der Unterschied sich auch quasi nur bei blau und grün bemerkbar, weil es da viel mehr Abstufungen gibt.

Das kannst du dir dann so vorstellen:
https://static.bhphotovideo.com/explora/sites/default/files/3_16.png

Wenn du dir Bildern von Himmeln oder Landschaften ansiehst kann es sein, dass die Farbverläufe mit 8 bit nicht ganz so "smooth" sind.
Heisst, wenn dunkelblau langsam zu hellblaub und dann zu weiss wird, kann es sein, dass du mit 8 bit irgendwo quasi Kanten siehst, wo keine sind. :D :)

Für 1150 Euro habe ich deshalb vom Kauf abgesehen und mir einen anderen Monitor geholt.
 
  • Gefällt mir
Reaktionen: VelociRaptor 50
Genau das meine ich, ich hatte ein 27Zoll 144Hz mit 10Bit natürlich nur bis 120Hz und bin der Meinung das das Bild Schöner, besser war wie auch immer als als 8 bit mit 144Hz.

Deshalb kenne ich den Unterschied und ich habe über Monate immer beide Varinaten gehabt, ich meine das Desgin ist Hammer und das Bild wirklich schön aber mic hSchrecken halt diese 8 Bit ab,

Ich denke für so ein Preis über 1000€ muss ein 10 Bit bzw FRC 8+2 Standard sein. Nicht das das Bild Schlechter ist aber sowas kann man wahrscheinlich nur vor Ort Testen deswegen sonst hätte ich gleich zugeschlagen vom Kauf.
 
Euch sollte mal klar sein, dass die 10bit NUR dann zum tragen kommen, wenn sie auch dargestellt werden!

Und das ist NUR in 2 Fällen so:
1. Bei Spielen die HDR explizit unterstützen (Und dort halt auch nur in den Szenen, die solche Effekte beinhalten).
2. Bei Bildbearbeitungsprogrammen die 10bit pro Farbkanal unterstützen (dort gibt es dann meist sehr versteckt in den Menues diese zuschaltbare Option die vorher aber eigentl. immer deaktiviert ist.
Davon gibt es aber recht wenige Programme. (PS CC wäre aber so ein Kandidat)

Dazu müssen dann noch folgende Punkte gegeben sein:
Prof. Graka (FireGL/Tesla u.a.) ODER nV Graka ab der 10er-Serie + install. Studiotreiber von nV! , denn der Normale, ist dafür gar nicht ausgelegt.

Im normalen Windowsbetrieb sind also NIE 10bit sichtbar. Wer dort meint einen Unterschied zu einem zuvor genutzen 8Bitter zu sehen: Nun ja....Einbildung ist auch 'ne Bildung...
 
Natürlich nicht im Windowsbetrieb habe es ja Selber getestet bei Spielen. Z.b. Anthem es sah in 10 Bit einfach besser aus auf dem Gigabyte als in 8 Bit.

Ich meine es auch Speziell auf Spiele bezogen klar habe ich dann bei Online-Shotter 8 Bit 144Hz bevorzugt da achtet man natürlich nicht mehr so drauf bzw auf kleine Details.
 
Du wirst keinen Unterschied sehen, zumindest mit einer Nvidia Karte nicht, Consumer Nvidia Grafikkarten unterstützen 10bit Farbtiefe nur in DirectX Vollbildanwendungen, nicht aber unter Desktop, Adope und anderen anwendungen, dafür bedarf es eine teure Quattro Karte von Nvidia, bei AMD sieht das anders aus, hier können die Consumer Karten auch 10bit unter Desktop liefern.
 
Naja ob 8 oder 10Bit sieht man eh eher an den verläufen.
Die meisten Games dürften nur mit 8 Bit was anfangen können ausser wenn HDR ins spiel kommt.
 
Tkohr schrieb:
zumindest mit einer Nvidia Karte nicht, Consumer Nvidia Grafikkarten unterstützen 10bit Farbtiefe nur in DirectX Vollbildanwendungen, nicht aber unter Desktop, Adope und anderen anwendungen, dafür bedarf es eine teure Quattro Karte von Nvidia,
Nö. Falsch. Aber wie ich zuvor schon bereits schrieb, ist dafür dann eben der Studiotreiber zu installieren und es muss eben eine Karte ab der 10er-Generation sein.
 
Jo. Und damit fällt nat. auch diese darunter.
Übrigens werden auch seine tollen AMD-Karten im Desktopbetrieb keine 10bit Farbtiefe darstellen. Windows zb. ist nämlich gar nicht dazu ausgelegt. Kann man ja ganz simpel unter den Anzeigeeinstellungen des OS nachsehen.

Da ist nämlich bei trueColor Ende (32bit Farbtiefe).
10bit hieße dann aber eben 40bit Farbtiefe (deepColor), da die OS-Einstellungen den Alpha-Kanal nämlich immer mit einberechnen (8x4 Kanäle R,G,B,A =32bit / 10x4 Kanäle R,G,B,A dann eben 40bit nach OS- Rechnung).

Früher(TM) ging sogar nur 16bit+Alpha (highColor).
 
Gigabyte Aorus AD27QD

Ich hatte den und bei 10Bit 120Hz war ich der Meinung das das Bild z.b. bei Anthem oder Boarderlands 3 besser war als mit 8 Bit mit 144HZ und bei Star Wars Battlefront 2 z.b. gab es kein Unterschied da war es egal ob 8bit oder 10 Bit.

Ob es jetzt Einbildung war aber ich bin der Meinung das Bild war Irgenwie besser von dem Gesamtbild.
 
In Spielen die HDR unterstützen, trügt der Eindruck ja auch nicht. Davon war von meiner Seite her ja auch nicht die Rede.
 
Wie gesagt HDR am Monitor ist für die katz habe immer ohne das Bild sieht so dermsssen Komisch aus und viel zu Dunkel.

Anders ist es am TV mit 1000nits und Qauntum Dot oder 1500nits da sieht das HDR schon ganz anders aus. und HDR 400 ist eh für die Tonne ist meine Meinung wird noch lange dauern bis man die Werte wie am Tv hat das auch bezahlbar ist.
 
Bissl was zum nachdenken, 32bit sind bereits 4,29 Milliarden Farben, 24bit sind 16.7 Millionen Farben, bei betriebssystemen gab es aber die abstufung 24 bit erst gar nicht, da ging es von 8 bit auf 16 bit, und dann rauf auf 32bit Farbtiefe, bezieht sich auf Bilder und Grafische elemente. Bei Displays sieht das wieder etwas anders aus, ein 8bit Panel schafft 16.7 millionen Farben, ein 10 bit schafft etwas mehr als eine Milliarde.
 
Zurück
Oben