News Asus ROG Swift PG27UQ: Erster Monitor mit UHD bei 144 Hz, DP 1.4 und G-Sync HDR

Im Artikel wird nichts zu reaktionszeit gesagt, daher gehe ich mal davon aus das der Monitor eh nichts für Gamer ist.
Mindestens 2ms muß es für mich sein, aber 1400€ ist zuviel für das Teil.

4k Monitore mit IPS Panel sind eh noch lange nicht ausgereift und wenn die entwicklung so schleppend vorran geht wird es das in den
nächste 2 Jahren auch nicht werden. Dieses HDR ist eh nur ein Papiertieger.
 
Als würdest du einen Unterschied sehen wenn dir einer nen 2MS Monitor oder nen 10 MS Monitor vor die Nase setzt... HAt wieder einer viel Ahnung von der Technik und vorallem den ach so tollen Angaben der HErsteller...
 
@crxtuner: Warum dann nicht der c34f791?
 
@ Kasmopaya

Der Monitor hat sich an meine Grafikkarte und an mein Spiel anzupassen und nicht umgekehrt. Immer in 4k zocken ist ein extrem teures Hobby. Kann man machen, aber muss man nicht. Ihr müsst diesen Monitor als 1080p Monitor sehen mit der Option auf 4k. Und nicht umgekehrt. Ich wüsste nicht warum es heute anders sein sollte als zu CRT Zeiten. Ich konnte meine Auflösung schon immer in extreme Höhen treiben, das einzige das mich davon abgehalten hat war meine GPU Rohleistung und ich selber, weil wie schon einer schrieb. Das wichtigste am Zocken ist nicht der Monitor, oder die Auflösung, sondern das Spiel, der Spielspaß. Alles andere spielt sich in euren Köpfen ab, Gruppenzwang, oder sonst was. Aber auf keinen Fall ist es normal zwanghaft auf 4k zu stellen und dann alles dem unterzuordnen. Für die Masse wird noch eine sehr lange Zeit 1080p der Standard bleiben, genau wie die Quad Core CPUs, die gerade erst die dualcore CPUs abgelöst haben bei der großen Masse.

Wenn ich das nicht besser wüsste , würde ich glatt sagen Du bist der Pressesprecher der deutschen TV Sender :-) Mir der Begründung ist es auch völlig okay weiterhin HD ready Sendungen zu erstellen. Das ist Realsatire pur....

Bei Medion und Saturn sind die 4k TV-geräte schon bei 400€ angekommen und die Leute kaufen den Kram.


Noch etwas, meine Grafikkarte wechsel ich öfterst als meinen Monitor.... in dem Sinne haben sich Grafikkarte/CPU den Monitor anzupassen.

mfg

P.S. Warten wir erst mal den Test bei Prad ab und warten die ersten 3 -5 Monate ab wie die Kundenberichte sind. Ob sich hier die Qualität verbessert hat oder genauso mau wie bei den anderen Asus ist.
 
Zuletzt bearbeitet:
Rollkragen schrieb:
Hauptsache Nvidia verkauft teuer die G-Sync Lizenz- bei der Qualitätskontrolle wurde jedoch bisher leider gespart.

Und dann wird der Jammerthread eröffnet wie schlimm doch alles ist usw.
http://www.pcgameshardware.de/Monit...enbar-mit-starkem-Backlight-Bleeding-1185497/

Ich finde das absoluten Irrsinn, wenn es Displays gibt mit freiem Freesync die in der Gesamtqualität diesen G-Sync Kisten deutlich überlegen sind gibt.

Komisch, ich kann in den verlinkten Artikel nirgenswo erkennen das G-Sync hier die Schuld hat... da wird eher mit dem Finger auf Asus gezeigt wegen der schlechten verarbeitung.

AMD fanboy oder doch berechtigte kritik? Solange kein beweis für das angeblich verursachende G-Sync kommt dann wohl ersteres -.-
Ergänzung ()

@Mustis

Es kann nicht jeder so kaputte Augen haben wie du ;)
Wohl noch nie 3D Shooter gezockt... ach ja und den unterschied zwischen 60Hz und 144Hz sieht man dann auch nicht :lol:
 
Zuletzt bearbeitet von einem Moderator:
m-kobald.

Die Zäpfchen in deinem Auge, die fürs Farbsehen zuständig sind, haben ne Reaktionszeit von 1-10 MS. Selbst wenn du zu den Menschen gehörst, die 1 MS dort haben, ist damit noch kein Bild an dein Gehirn gesendet worden geschweige den dort so verarbeitet, dass es dir bewusst geworden ist. Man kann den Unterschied zwischen 10 MS und 2 nicht erkennen und bis auf TN Panels können keine PAnels 2 MS Grey to Grey... 2 MS black to White mag sein, ist aber nicht schneller. :rolleyes: Das meinte ich mit da kennt sich einer aus.

PS: Deiner Shooter Arguemnt ist natürlich der HAmmer. XD Ne hab ich nie oder was waren Doom, CS, UT und so nochmal? Mhh...
 
na super. seit einem jahr hab ich das vorgängermodell, 27 zoll 4k, gsnc, 60hz.

verdammt :evillol:
 
Noch etwas, meine Grafikkarte wechsel ich öfterst als meinen Monitor.... in dem Sinne haben sich Grafikkarte/CPU den Monitor anzupassen.
Wo ist das Problem? Die freie Auswahl ist durch den Asus ROG Swift PG27UQ doch nicht gefährdet.
Dann kaufst du eben einen anderen, der zur Hardware besser passt. Asus kann von mir aus für einen einzelnen, möglichen, potentiellen Kunden einen Monstermonitor anbieten. Trotzdem muss der ihn nicht kaufen. Es ist nur ein Angebot.
 
tho_schmitz schrieb:
Ich bin noch hin- und hergerissen, ob ich meinen aktuellen FHD durch einen 4k- oder durch einen WQHD mit ebendiesen Parametern (3440x1440, 34", möglichst hohe max. Bildwiederholrate, entweder G-Sync oder FreeSync) ersetzen möchte.

Was meint ihr - kommt diese Technik (G-Sync HDR, Quantum Dots, hohe Bildwiederholrate, DP 1.4) auch für die WQHD-Geräteklasse?

Ich würde gerne ja sagen, bin diesbezüglich jedoch skeptisch: die 34 Zoll Modelle mit 3440x1440 sind mehr ein Nischenprodukt und deswegen kann keiner genau sagen ob bzw. wann man Monitore mit HDR/ Quantum Dots/ 144Hz oder DP1.4 bekommen werden.

Ansonsten kann man auch die derzeitigen Modelle von Asus oder Acer nehmen. Probleme haben diese lediglich beim Panel, was leider dazu neigt zu fiepen (z.B. beim Browsen mit hellen Hintergründen) und mehr oder weniger starkes Backlight Bleeding aufweist.

Ich bin seit einiger Zeit Besitzer des Acer Gerätes und damit sehr zufrieden (auch wenn das Gerät ein paar kleine Probleme hat).

Letzten Endes musst du aber selbst wissen ob du wirklich 34 Zoll haben möchtest und ob du gewillt bist die nicht unbeträchtliche Summe Geld dafür zu bezahlen. Wenn du eh nahe davor sitzt kannst du auch getrost zu 27 Zoll greifen.
Ich hab einen 90cm Schreibtisch und das Gerät steht so weit hinten wie möglich und 34 Zoll ist dabei schon sehr "blickfüllend"^^

PS:
WQHD ist übrigens nur 2560x1440, 3440x1440 nennt sich UWQHD :)
 
LOL. 1200 Ökken? Echt jetzt? Ich bin ja wirklich nicht geizig wenn es um Hardware geht und hab mir auch den aktuellen Swift für 800€ EUR gekauft aber irgendwann muss auch mal Schluss sein. Die Zielgruppe dürfte entsprechend klein ausfallen.
 
So hier mal drei Aufnahmen vom LG 75UH780V in einer dunklen Szene von Mr. Robot. Übrigens die Szene, wo es mir so stark negativ aufgefallen ist, dass ich das die Helligkeit dann runter geschraubt habe.

Bild.jpg
Bild.jpg
Bild.jpg


Ist nicht die beste Qualität, weil Smartphone Kamera, aber man sieht halt deutlich die Bereiche wo beleuchtet wird und wo nicht. Die Informationen muss sich der Fernseher ja selbst generieren. Entsprechend sehen dunkle Szenen in meinen Augen dann grottig aus.

Vielleicht ist es bei deutlich mehr ansteuerbaren LEDs wie hier besser. An OLED wird es aber nicht rankommen.

Für mich steht daher fest, dass Local Dimming (oftmals) nur ne Mogelpackung ist, um den geforderten Kontrast bzw. Dynamik Umfang von HDR zu entsprechen.
 
Erste Reaktion: DP 1.4 ENDLICH VERFLUCHT NOCHMAL!!!!
Zweite Reaktion: SHIT, WO SIND JETZT DIE GRAFIKKARTEN DAFÜR? :D
 
Weby schrieb:
Hoffentlich hat der Monitor nicht wieder so eine miserable Qualität (Pixelfehler / Lichthöfe) wie der/die(?) Vorgänger.
Also zumindest Lichthöfe bzw. ungleichmäßige Ausleuchtung in dem Ausmaß sollten bei einem full array local dimming display eigentlich eliminiert werden.
 
TheDarkness schrieb:
Local Dimming wird man wohl ausstellen können (und vermutlich müssen um gute Reaktionszeiten zu bekommen), Halos und Blooming tritt meines wissens nur auf wenn Dimming auch genutzt wird.
Ne direkte Hintergrundbeleuchtung (die Voraussetzung für so ein Dimming ist) ist so ziemlich das Beste, das wir momentan haben was Qualität und Haltbarkeit angeht.
Gegen DSE hilft die direkte Beleuchtung übrigens ebenfalls zum großen Teil.
Nach OLED wird der Monitor wohl die beste Qualität fürs Gaming bieten und OLED ist eben einfach a) noch teurer und b) nicht lang genug haltbar.

TLDR: Direkte Hintergrundbeleuchtung hilft sehr bei den meisten Problemen die wir momentan bei High-End Monitor Panels haben.

Schau dir mal die LCD TVs für 3-10k € an, die so eine Hintergrundbeleuchtung haben. In den entsprechenden Foren gibt es viele Beschwerden bzw. Berichte über DSE etc. Da reicht eigentlich schon ein Fußballspiel, um die Probleme sofort zu erkennen. Das betrifft natürlich nicht jedes Exemplar, aber immer noch sehr viele bzw. zu viele bei solchen Preisen. Stichwort Panel Lotterie.
 
Wie kann man sich das mit diesem Local Dimming denn überhaupt vorstellen?
Bei nur 384 Zonen auf über 8 Millionen Pixel sehe ich da doch erhebliches Problem-Potenzial.

Für einen glatten Helligkeitsverlauf müssten die LCD-Kristalle dann nicht einfach diesen Verlauf darstellen, sondern das Raster des Local Dimming ausgleichen. Oder sofern sich diese Felder für glatte Verläufe hinreichend überlappen, sind harte Übergänge wieder schwer.

Irgendwie habe ich so meine Zweifel, daß das am Ende richtig funktioniert.
 
Schau die mal die Bilder an, die ich hochgeladen hatte
 
Galatian, dein TV hat Edge LED, richtig? Hast du schon mal an den Einstellungen gedreht, die mit dem Backlight zu tun haben?
 
Jau habe ich...auf den Bildern ist worst case mit maximaler Helligkeit. Persönlich finde ich es auf 25% Helligkeit allerdings erträglich. Ich glaube mehr als an und aus geht beim Local Dimming auch nicht.

Ich finde es halt super störend. Für mich fallen halt beleuchtete und nicht beleuchtete Bereiche direkt auf. Super nervig auch bei Filmen in 21:9. da hast du dann je nach Szene die schwarzen Balken oben und unten jeweils mal einen Bereich der beleuchtet und mal nicht.
 
Zurück
Oben