News Alienware AW3418DW und -HW: Dell setzt auf 21:9, G-Sync und gewölbte 34 Zoll

Status
Für weitere Antworten geschlossen.
Gucke mal lieber auf meinem Screenshot in der oberen linken Ecke ob du die schönen PWM Bahnen erkennst.

Edit: Oh irgendwie hat die Intensität/Sichtbarkeit dieser Bahnen nachgelassen, lag wohl am letzten Nvidiatreiber. Habe eben nämlich den neusten installiert. Das Mikroruckeln ist aber immer noch vorhanden. Von daher kann ich den Monitor eh nicht behalten.
 
Zuletzt bearbeitet von einem Moderator:
@srider
bedenke dass es besser ist die RGB Werte am Moni einzustellen anstatt diese im icc profil abzuspeichern, weil Spiele das icc oft deaktivieren,
Ins icc gehören nur die Gammaeinstellungen.
Ich arbeite übrigens mit Final Cut Pro für Videos und bei der Datacolor Software Elite gibt es ein spezielles Profil für Videos, nach dem eingemessen werden kann.
 
Nochmal zu den Bit und G-Sync. G-Sync kann 8-Bit, aber keine 10-Bit verarbeiten. Der PG348Q und der X34A haben 8Bit+FRC. Das geht also, weil ein 8-Bit Signal durchgeschickt wird und der Monitor dann daraus 10-Bit bastelt. Habe ich das richtig verstanden?
 
MeisterOek schrieb:
Der PG348Q und der X34A haben 8Bit+FRC. Das geht also, weil ein 8-Bit Signal durchgeschickt wird und der Monitor dann daraus 10-Bit bastelt. Habe ich das richtig verstanden?

Nein, können die auch nicht ;). Das haben damals welche gedacht, ist aber nicht so ;).

8 Bit (ohne FRC) ist bei G-Sync max. .
 
Ok, hab nur eben eine Geizhals-Suche gestartet und die sprangen mir entgegen, weil das Panel eben 8-Bit+FRC hat. Naja, dann hat das Panel wohl diese Farbtiefe, ausgegeben wird sie aber wohl nicht. Schon merkwürdig.
 
MeisterOek schrieb:
Naja, dann hat das Panel wohl diese Farbtiefe, ausgegeben wird sie aber wohl nicht. Schon merkwürdig.

Was ist daran merkwürdig ? Das G-Sync Modul limitiert die Ausgabe bei 8 Bit ohne FRC. Wurde aber auch schon x Mal gesagt.
 
musikos53 schrieb:
@srider
bedenke dass es besser ist die RGB Werte am Moni einzustellen anstatt diese im icc profil abzuspeichern, weil Spiele das icc oft deaktivieren,
Ins icc gehören nur die Gammaeinstellungen.
Ich arbeite übrigens mit Final Cut Pro für Videos und bei der Datacolor Software Elite gibt es ein spezielles Profil für Videos, nach dem eingemessen werden kann.
Habe ich genau so gemacht. Etwas anderes lässt basICColor Display 5 bei einer Software Kalibrierung auch gar nicht zu.

Nach dem das Bild eingestellt war, habe ich natürlich auch versucht die möglichen Bildfehler zu erzeugen bzw. in Spielen darauf geachtet.

Weder in BF4 (SP/MP), noch in Ghost Recon Wildlands habe ich bisher Microruckler feststellen können. Dabei war es egal ob ich einfach durch die Natur gelaufen bin oder im schweren Gefecht war. Alles durchgängig flüssig.

Was die PWM Probleme betrifft, sind sie mir im Spiel oder bei Filmen noch nicht störend aufgefallen. Überprüfe das aber noch mal in den nächsten Tagen.

Bezüglich Scanlines muss ich noch ein passendes Spielgeschehen suchen. Im blauen oder dunklen Himmel waren sie aus 70-80 cm Sitzabstand bisher nicht zu sehen.

Da der Monitor mir bisher sehr gut gefällt und ich beim BLB wohl Glück gehabt habe, werde ich zwar noch einige Tests machen um eventuelle Fehler aufdecken zu können, aber falls diese in meinen Anwendungen nicht auftreten, suche ich nicht weiter und behalte ich ganz einfach.

Zumal ich ja eh nicht ausschließen kann, dass manche Probleme bei anderen nicht doch durch sonstige Soft- und Hardware ausgelöst werden oder deren Panel nicht korrekt arbeitet.
 
Srider schrieb:
Weder in BF4 (SP/MP), noch in Ghost Recon Wildlands habe ich bisher Microruckler feststellen können. Dabei war es egal ob ich einfach durch die Natur gelaufen bin oder im schweren Gefecht war. Alles durchgängig flüssig.
[...]
Zumal ich ja eh nicht ausschließen kann, dass manche Probleme bei anderen nicht doch durch sonstige Soft- und Hardware ausgelöst werden oder deren Panel nicht korrekt arbeitet.

Ich bin nicht der einzige der diese Mikroruckler hat ;).

Legend sind diese außerdem schon vom X34(A) bekannt und er hat sie auch auf dem AW3418DW gesehen.
 
Zuletzt bearbeitet von einem Moderator:
@srider
Das klingt sehr gut!!
Eine Frage hab ich aber noch. Welches Messgerät hängst du vor den Bildschirm um das Gerät einzumessen?
Basiccolour (ist glaube ich eine Firma aus Penzberg) hatte ich mal getestet, finde ich sehr gut, aber es war eine Download Version von der Boerse.to und daher hab ich dann doch lieber die zu meinem Spyder passende Datacolor Software genommen.
 
Zuletzt bearbeitet:
asus1889 schrieb:
Was ist daran merkwürdig ?
Merkwürdig ist es ein 8Bit+FRC Panel in ein Monitor einzusetzen, der diese Farbtiefe durch seine Technik nicht ausgeben kann.
 
Die haben doch eh keine andere Wahl bei G-Sync und Ultra-Wide IPS ;).

Merkwürdig ist das Nvidia immer noch nicht ihr DP 1.2 G-Sync Modul geupdated hat oder besser gesagt die Hersteller nicht das G-Sync DP 1.4 Modul mit 10 Bit Support verbauen ;). Aber vermutlich rückt Nvidia dieses Modul nur für HDR Monitore raus.
 
und was passiert wenn Gsync deaktiviert wird?
 
Dann hat man trotzdem nur 8 Bit (ohne FRC), weil das G-Sync Modul der einzige Scaler im Monitor ist ;).
 
asus1889 schrieb:
Ich bin nicht der einzige der diese Mikroruckler hat ;).

Legend sind diese außerdem schon vom X34(A) bekannt und er hat sie auch auf dem AW3418DW gesehen.
Das wollte ich auch mit meiner Aussage nicht bestreiten. Nur habe ich sie bisher halt noch nicht feststellen können und in dem Bereich habe ich ein sehr kritisches Auge.
musikos53 schrieb:
@srider
Das klingt sehr gut!!
Eine Frage hab ich aber noch. Welches Messgerät hängst du vor den Bildschirm um das Gerät einzumessen?
Basiccolour (ist glaube ich eine Firma aus Penzberg) hatte ich mal getestet, finde ich sehr gut, aber es war eine Download Version von der Boerse.to und daher hab ich dann doch lieber die zu meinem Spyder passende Datacolor Software genommen.

Ich nutze ein profiliertes X-Rite i1 Display Pro. Die Firma basICColor kommt aus Penzberg und dient als Vorlage für viele weitere Kalibrierungssoftware, z.B. NEC SpectraView 2.
 
also quasi bei mir um die Ecke - das messgerät Discus ist aber schon extrem teuer, zu teuer für einen Amateur.
Ich denke ein x rite oder ein spyder tuts auch :-)
 
Musste man viele Einstellungen verändern zum Werkszustand oder hält sich das im Rahmen? Und war der farbliche Unterschied dann auf alle Fälle sichtbar?
 
MeisterOek schrieb:
Musste man viele Einstellungen verändern zum Werkszustand oder hält sich das im Rahmen? Und war der farbliche Unterschied dann auf alle Fälle sichtbar?

Im Monitor selbst musste ich nicht viel einstellen, damit bereits ein gutes Ergebnis bei der Farbwiedergabe zu sehen war.
Die Helligkeit ist bei 29, Kontrast bei 74 und die RGB Werte sind auch nur ganz leicht verändert. Dell hat da schon eine Werks "Kalibrierung" vorgenommen.

Der größte sichtbare Unterschied ist natürlich die Helligkeit, bei Standardmäßigen 75 brennt einem ja mit 240 cd/m² fast die Netzhaut weg. Ansonsten kommt ein sichtbar besserer Schwarzwert auch durch den hohen Gamma Wert von 2.4 als linearen Verlauf zustande. Alles zusammen verändert das Bild dann schon sichtbar und macht es deutlich angenehmer bei Filmen oder Spielen.

Hierbei fand ich auch die eingebaute"Black Stabilisation" Funktion teilsweise wirklich hilfreich.
 
Zuletzt bearbeitet:
Bei mir nicht. Bei mir war grün total aus dem Ruder gelaufen. Es war auch nicht möglich den Weißpunkt korrekt einzustellen. Egal was ich für Werte bei RGB auswählte. Gammaeinstellungen hat der Monitor nicht. Ja man hätte noch in Nvidiatreiber rumfummeln können. Hatte ich aber keine Lust zu.

Es gibt selten Monitore die sich nicht schon alleine mit rgb auf den richtigen Weißpunkt bringen lassen.
 
Zuletzt bearbeitet von einem Moderator:
ich kann nur von den Montoren ausgehen die ich schon hatte.
Normalerweise stehen die RGB Regler alle auf 100% und out of the Box bekommt man da oft schon gute Ergebnisse.

Die Verfeinerung liegt darin, dass, im Zusammenspiel mit Weissabgleich, Gamma und Farbeinstllungen defintiv ein besseres Bild erzielt wird.
Es gibt Monitore, da ist ein Colorimeter Pflicht, sonst wird man damit nicht glücklich, andere widerum sind zunächst mal ganz OK (z.B. x34a wenn man Glück hat oder eben auch der Alienware)

Ein Colorimeter macht auch dann sinn, wenn man mehrere Monitore farblich und in der Helligkeit angleichen will.
Selbst bei alten und abgenutzten Panels läst sich da was rausholen.
Ich habe an einem Arbeitsplatz für das Mastering mit ProTools zwei alte schrottige BenQ, und selbst die schauen nach Kalibrierung zumindest OK genug aus, um daran zu arbeiten.

Fazit: Ja, auf jeden Fall siehst Du einen Unterschied. Im besten Fall stimmt dann auch der Weisspunkt (ist abhängig von der Beleuchtung - je nach Licht und Tageszeit (Sonne) kann das Bild wärmer oder kühler ausfallen - Weiss ist nicht gleich Weiss
Und Du kannst auch ganz gezielt auf Werte einmessen lassen, die für Dich angenehmer sind.
Für den Druck gibt es allerdings Regeln und dies sollte man als Profi mit der Druckerei abklären, aber davon ist hier ja nicht die Rede.
Wichtig ist ein angenehmes Bild mit korrekter Darstellung.
 
Zuletzt bearbeitet:
Nach ein paar weiteren getesteten Spielen (Witcher 3, Skyrim, Crysis 2) möchte ich noch kurz anmerken dass ich weiterhin kein Flimmern habe (bei asus kann ich das sogar im Video sehen, da müsste ich es live ja kaum aushalten können!) und auch kein Microruckeln vernehmen kann.

Colorbanding ist in geringem Maße vorhanden (ich nehme an das ist normal bei 8bit-Panels) und bei unter 50-60FPS + Gsync habe ich recht deutlich wahrnehmbare Scanlines. Mehr Bildprobleme hatten meine Exemplare nicht.

Ob er das Risiko mit dem Monitor eingeht bleibt da jedem selbst überlassen. Die Wahrnehmungsempfänglichkeit für solche Fehler ist ja augenscheinlich stark unterschiedlich.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben