News Asus ROG Swift PG27UQ: Erster Monitor mit UHD bei 144 Hz, DP 1.4 und G-Sync HDR

Bin mir auch nicht sicher ob Local Dimming Sinnvoll ist. Einmal ist das sicher ein Grund warum das dann auch sehr teuer wird, weil so viele Zonen. Zweitens könnte das zu langsam sein für 144hz gaming, sowas gabs bisher aber noch nicht? Daher kann man das schlecht beurteilen. Klar bei nehm lahmen panel von nem riesen Tv mag das vllt noch irgendwie gehen oder weniger auffallen, aber bei so nem kleinen Monitor? Zuletzt muss man sagen, wenn das Panel gut ist braucht man das eigentlich nicht. Vielleicht gut um schlechte ips panels besser dastehen zu lassen? Oder doch nur um den Kontrast hochzuballern? trotzdem dp1.4 144hz und 4k allein ist schon mal top. :) Teetrinken
 
Mustis schrieb:
Das ist genauso unsinnig. Denn die Leistung habe ich je nach Spiel schon und zukünftig ohnehin. Nur weil es in einigen Games noch nicht geht wegen der Power ist es nicht überflüssig und wenn die Power reicht ist es der Hammer. Ich kauf mir das Ding ja nicht um es 2018 zu ersetzen. Das Teil wird locker 5-6 JAhre, eher bis zu 10 bei mir stehen.

@Highspeed Opi
Das komtm auf den Sitzabstand an. bei 40 Zoll kannst du das Ding nicht nen Meter vor dich stellen. Und eben weil es so fein ist, kann man sich Kantenglättung auch mal sparen. Und zumindest in Windows ist das mit der Größe kein Problem.

Endlich einer der Ahnung hat. Habe seit über 2 Jahren UHD mit G-Sync bei 28" und der Wechsel von FHD warn Knaller und auch der Unterschied zu 1440p ist sehr gut sichtbar. Grade beim Surfen im Browser, die Schriftschärfe ist viel angenehmer beim Lesen usw. Bei Games kann man oft Anti-Aliasing weglassen oder runterregeln. Mal sehen was noch für Monitore im Kommen sind und dann werd ich mal sehen ob was für mich dabei ist.
 
Zuletzt bearbeitet von einem Moderator:
Lehner82 schrieb:
Man sollte auch erwähnen dass man keine 144fps braucht um die Vorteile von 144hz zu spüren. Auch 60fps@144hz sind besser als 60fps@60hz.

Unlogische Aussage oder? 60fps bei einem 144Hz sind genau dann besser wenn der Monitor Free oder G-Sync unterstützt. Ohne das hat man nämlich die genau gleichen Probleme wie bei einem 60Hz Monitor welcher mit weniger als 60fps beliefert wird. Fazit, man brauch die 144fps nur nicht wenn man natürlich Free- oder G-Sync Unterstützung hat.
 
Sehr schön dass es voran geht. :)
Hab mir aber vor kurzem wqhd, 165hz zugelegt. Im 27" Bereich dürfte das erstmal der Sweetspot bleiben. Die Leistungseinbußen zu 4K rechtfertigen denke ich nicht das bessere Bild.
 
Ich hätte gerne einen in 38 Zoll eventuell curved, in 21:9 mit 1440p Auflösung bei einem Abstand von 80cm, mit Gsync.

27 Zoll ist für mich zu klein, und seit ich mit 21:9 bei 34 Zoll spiele, würde ich nie wieder auf 16:9 oder 16:10 wechseln.

Das Erlebnis ist einfach ganz anders. Mir ist am Anfang etwas schlecht gewesen als ich mit dem Monitor das erste Mal in Star Citizen mit einem Fluggerät Loopings geflogen bin. Das war mehr wie mitendrinn statt nur dabei, und damals hatte ich davor einen Dell in 27 Zoll in 16:10.
 
@Kasmopaya: ich mach mal nachher ein Foto, dann siehst du was ich meine.
 
@Mustis
Mir ist schon bewusst das Asus keine Panels selbst produziert, das Bild wird jedoch von der Ansteuerung sehr stark beeinflusst. Um meinen vorherigen Kommentar zusammenzufassen. Wer mit dem Gedanken spielt sich so einen Monitor anzuschaffen sollte es echt nicht nur anhand von Rezessionen machen und lieber abwarten bis er ihn selbst wo testen kann.
 
machiavelli1986 schrieb:
Unlogische Aussage oder? 60fps bei einem 144Hz sind genau dann besser wenn der Monitor Free oder G-Sync unterstützt. Ohne das hat man nämlich die genau gleichen Probleme wie bei einem 60Hz Monitor welcher mit weniger als 60fps beliefert wird. Fazit, man brauch die 144fps nur nicht wenn man natürlich Free- oder G-Sync Unterstützung hat.

Das stimmt so ganz nicht. In dem Beispiel müssten es allerdings 72 FPS sein oder aber der Monitor 120 Hertz. Dann kommt nämlich das Bild auch snychron, halt auf jeden 2. Refresh des Monitors, was dann aber auch für das Auge absolut synchron ist. 144 Hertz hat zu 120 Hertz noch den VOrteil, dass auch ein Bild bei jedem 3. Refresh noch taugt. Das wären dann nämlich noch 48 fps, bei 120 Hertz schon nur noch 30. Die nötigen FPS kann man über ein FPS Limit dann erreichen und hat dann quasi Vsnyc ohne dieses anzustellen. Das Bild wirkt aber aufgrund des hohen Refreshs dann im vergleich zu 60 Hertz immer noch besser/flüssiger weil flimmerfreier und Bewegungen flüssiger auf dem Bildschirm erscheinen.

Wers nicht glaubt, sollte es mal live ausprobieren.
 
Ist aber wohl eher was für die nächste GPU Generation.
4k und 140fps bei aktuellen AAA Titel schaffen wohl nicht mal zwei 1080.
Verstehe ich nicht wie hier alle zwanghaft irgend was auf max. stellen wollen? Hattet ihr alle keinen CRT? Die guten Röhren konnte man auch je nach Spiel aufdrehen, zb. bei einem 22" 2048x1536, oder wenn die GPU wie üblich schlapp gemacht hat wieder auf 16001200. Die 4k Auflösung kann eingestellt werden, falls man die Rohleistung verballern will, man muss nicht. 2160p ist genau das doppelte von 1080p, ich sehe da keinen Grund warum man nicht im Windows oder in Spielen meist mit 1080p einstellen sollte. Vor allem bei einem 27" sind 1080p noch perfekt. Das ginge bei einem 35" nicht so schön.

Wenn man dann mal eine 1500€ Titan X daheim hat, kann man dann auf 4k hoch stellen und die Rohleistung der Karte verballern.

ich mach mal nachher ein Foto, dann siehst du was ich meine.
Thx, kann mir da grad echt nix drunter vorstellen. :schluck:
4k mangels Leistung auf Fullhd zu skalieren ist wesentlich einfacher als diese komische WQHD auf Fullhd zu skalieren.
Der Grund warum bei mir alle 1440p Monitore durchfallen. :daumen: Wobei ich immer noch nicht überzeugt bin das ein 4k hier irgend was skalieren muss, einfach jede 2. Zeile ausschalten, fertig.
 
Zuletzt bearbeitet:
Mustis schrieb:
Das Bild wirkt aber aufgrund des hohen Refreshs dann im vergleich zu 60 Hertz immer noch besser/flüssiger weil flimmerfreier und Bewegungen flüssiger auf dem Bildschirm erscheinen.

Wers nicht glaubt, sollte es mal live ausprobieren.
Diese Einschätzung teile ich nicht: der Eindruck ist eh immer sehr subjektiv aber für mich fühlen sich 144Hz mit 60FPS genau so an wie 60Hz bei 60FPS.
Für wen es sich anders anfühlt ok, dass ist halt immer ein subjektiver Eindruck und nicht allgemein gültig.

Und wenn du heute XXXX€ für ein Gerät investieren willst, dass du erst in X Jahren wirklich nutzen kannst, dann ist dass ok, nur haben wir in X Jahren eben auch wieder neue Technologien so dass dein damals neues Gerät dann auch wieder veraltet ist :freak:


Ich nutze seit einiger Zeit 34 Zoll mit 3440x1440 bei 100Hz und was soll ich sagen: 100Hz oder 60, ich fühle keinen Unterschied. Lediglich GSync macht sich deutlich bemerkbar. Und bei 144Hz war es mit dem WQHD Gerät genau so.
 
ENDLICH. Fortschritt. was hab ich große augen gemacht als ich den Artikel Laß. Beim Lesen wartete ich schon auf TN panel zu lesen, um wegzuklicken. Aber so, Geile Specs.

hab ein auge auf den hier geworfen, beste kompromisse aus allem laut specs: http://geizhals.de/samsung-c34f791wqu-lc34f791wqux-en-a1502619.html?hloc=at&hloc=de

und den hier die eierlegende wollmilchsau "4k 120hz 30" OLED DELL" http://geizhals.eu/dell-ultrasharp-up3017q-a1376625.html

Dieser ASUS liest seine specs sehr gut. Bin Gespannt wenn die ersten Tests erscheinen.

Ich Dümpel noch mitm BenQ 27" 120hz FullHD rum von 2013 mit lightboost bewegungs schärfe wie auf Röhre/CRT(das ist das einzige was geil ist.
Aber Pixeldichte zum Kotzen. Hätte ich bloß auf die ganzen sogenannten Flamer "FullHD 27Zoll Kotz" gehört. haha. So Lernt man aus eigenen fehlerfahrungen xD
 
tek9 schrieb:
Mit welcher Auflösung spielst du tatsächlich? WQHD packt deine GTX580 entweder nur auf Fullhd skaliert, was bei der krummen Auflösung kacke aussieht, und/ oder mit minimum Details auf nicht mal PS4 Niveau. Oder spielst die tatsächlich in 1280x720?

Das war vielleicht etwas missverstänbdlich ausgedrückt. Die 580er hatte ich, als ich den Monitor vor über 4 Jahren gekauft habe. Seit 3 Jahren befeuert ihn eine 780Ti und in absehbarer Zeit gibt es wahrscheinlich nochmal ein Grafikkartenupgrade. Spätestens dann passen GPU-Leistung und Monitorauflösung problemlos. (Solange, bis mich dann doch irgendwann ein neuer Monitor reizt. ;) )

4k mangels Leistung auf Fullhd zu skalieren ist wesentlich einfacher als diese komische WQHD auf Fullhd zu skalieren.
Von daher ist die empfehlung lieber einen teuren Monitor zu kaufen grundsätzlich nicht falsch, muss aber im Detail immer sehr gut geplant sein...

Da hast du natürlich recht. Man muss, solange man noch keine bessere Grafikkarte hat, halt ein paar Kompromisse machen. Entweder mit nicht ganz schönem Skalieren von niedrigeren Auflösungen, oder bei den sonstigen Qualitätseinstellungen. (AA z.B. kann man ja ganz gut runter drehen, wenn man eine sehr hohe Auflösung hat.)
Aber da kommt man halt schlecht drum rum, wenn man sich nicht zu jeder Grafikkarte direkt einen passenden Monitor kaufen will. ;)

Meine Erfahrung mit Skalieren auf WQHD ist außerdem gar nicht mal so übel.
Bei FullHD-Videos sieht man davon überhaupt nichts.
Bei Spielen habe ich auch mit der alten 580 meist lieber die native Auflösung gefahren und andere Qualitätseinstellungen etwas runter gedreht. Da wo es nicht sinvoll ging, ist aber auch das skalierte Ergebnis nicht so übel. Unterm Strich immer noch besser als davor mein alter 1920x1200er mit nativer Auflösung. Mit der 780Ti ist aber das meiste was ich derzeit spiele sowieso ohne größere Qualitätsabstriche in nativem WQHD möglich.

Auf meinem Notebook mit 13" WQHD-Display sind auch bei Spielen in FullHD für mich wegen der hohen Pixeldichte überhaupt keine Skalierungsprobleme sichtbar. (So weit Spielen mit Intel-Grafik halt überhaupt sinnvoll ist.)

Ich nehme an, dass Skalieren mit immer höheren Pixeldichten auch bei größeren Monitoren immer unproblematischer wird. Auch bei "krummen" Faktoren.

Ergänzung:
Ich sollte vielleicht noch betonen, dass ich mich nicht primär wegen Spielen für höher auflösende Displays entschieden habe, sondern weil ich sowohl am Desktop-PC als auch am Notebook halt auch eine Menge andere Sachen mache, die davon profitieren.
Für eine reine Spielekiste hätte ich vielleicht zu einem FullHD-Monitor mit >60Hz gegriffen.
 
Zuletzt bearbeitet:
@DonDonat
Ich kann in 90% der Spiele, die es heute gibt mit der gleichzeitig zu erwerbenden Vega/1080TI bereits heute in 4k spielen. Ob es in den kommenden 5-6 JAhren so umwälzende neue Technologien wie HDR, G-Sync/Free-Sync kommen werden mag ich bezweifeln, da hätten sich bereits neue Technologien bereits als Prototypen oder Ideen ankündigen müssen. Und was die Auflösung angeht kommen wir, zumindest bei 27 Zoll inzwischen auch in Bereiche, wo noch höhere Auflösung in ihrer Sinnhaftigkeit immer weiter abnehmen. Von daher wird ein solcher Monitor heute gekauft wohl eher nur noch günstiger werden aber technologisch vorne dabei bleiben. Ob z.B die Probleme von OLED für PC Schirme in den Griff zu bekommen sind, ist noch völlig offen.

@Biesnacker
Dem Dell fehlt leider Free-Snyc/G-Sync und da OLED geh ich von noch höheren Preisen aus. Ist ein Top Profimonitor, aber fürs Gaming ein Kompromiss der zu dem zu erwartenden PReis nicht tragbar ist. Da der Moni hier ein Gaming Monitor ist, passt der Vergleich nicht ganz.
 
Zuletzt bearbeitet von einem Moderator:
beste kompromisse aus allem laut specs:
Mäh
Adaptive Sync/​AMD FreeSync (48-100hz
12 FPS mehr und man wäre eh bei den 60FPS VSync. Vor allem hört man das es nervt wenn der Monitor den Sync verliert, also der Übergang ist wahrnehmbar und es nervt einfach nur wenn eine GPU nicht 50FPS+ packt.
Und dann die Details zurück drehen nur damit Freesync richtig läuft ->Das ging ja mal voll nach hinten los.
 
Kasmopaya schrieb:
Verstehe ich nicht wie hier alle zwanghaft irgend was auf max. stellen wollen?
Das Teil ist halt ein Gaming Monitor. Dann will ich auch in 4k, Ultra Settings und min. hohen zweistelligen fps spielen. 4k und Low oder FHD und Ultra wäre beides etwas witzlos. (Okay man könnte bis zum nächsten Hardwareupdate halt erstmal FHD-WQHD und Ultra zocken.)
Da ich mir solche Hardware nicht leisten möchte gabs vor einem Monat halt "nur" einen 2k 144hz G-Sync Monitor.
 
Zuletzt bearbeitet:
Klinkt sau geil, wird aber wahrscheinlich soviel wie ein aktuelles Gaming Komplettsystem inkl. GTX 1070 kosten ;)
 
Das Teil ist halt ein Gaming Monitor. Dann will ich auch in 4k, Ultra Settings und min. hohen zweistelligen fps spielen. 4k und Low oder FHD und Ultra wäre beides etwas witzlos.
Das ist nicht witzlos, das ist normal. Ich hab bei meiner 22" CRT auch nicht immer zwanghaft 2048x1536 eingestellt, bin dann nicht in den nächsten Laden und hab mit SLI massenhaft Geld aus dem Fenster geworfen. Oder hab den Aufrüßtwahn gestartet (980TI; 1080TI; 1180TI).

Der Monitor hat sich an meine Grafikkarte und an mein Spiel anzupassen und nicht umgekehrt. Immer in 4k zocken ist ein extrem teures Hobby. Kann man machen, aber muss man nicht. Ihr müsst diesen Monitor als 1080p Monitor sehen mit der Option auf 4k. Und nicht umgekehrt. Ich wüsste nicht warum es heute anders sein sollte als zu CRT Zeiten. Ich konnte meine Auflösung schon immer in extreme Höhen treiben, das einzige das mich davon abgehalten hat war meine GPU Rohleistung und ich selber, weil wie schon einer schrieb. Das wichtigste am Zocken ist nicht der Monitor, oder die Auflösung, sondern das Spiel, der Spielspaß. Alles andere spielt sich in euren Köpfen ab, Gruppenzwang, oder sonst was. Aber auf keinen Fall ist es normal zwanghaft auf 4k zu stellen und dann alles dem unterzuordnen. Für die Masse wird noch eine sehr lange Zeit 1080p der Standard bleiben, genau wie die Quad Core CPUs, die gerade erst die dualcore CPUs abgelöst haben bei der großen Masse.

(Okay man könnte bis zum nächsten Hardwareupdate halt erstmal FHD-WQHD und Ultra zocken.)
Genau das sollte man machen. Viele Spiele haben sowieso keinen 4k Support. Hab ihr das schon mit DSR getestet? Die Schriften sind so klein, ich stell meistens wieder auf FHD um, auch wenn die Rohleistung da wäre.
 
Zuletzt bearbeitet:
Das ist ja auch völlig in Ordnung. Aber warum dann einen 4k Monitor kaufen? Dann kann ich auch für 1/3 des Geldes einen FHD kaufen und nach ein paar Jahren wenn die eigene Hardware stark genug ist wechselt man halt auf 4k. Da es in 3 Jahren wahrscheinlich schon die ersten 8k Geräte gibt kostet 4k dann das was heute FHD kostet.
 
Kasmopaya schrieb:
Der Grund warum bei mir alle 1440p Monitore durchfallen. :daumen: Wobei ich immer noch nicht überzeugt bin das ein 4k hier irgend was skalieren muss, einfach jede 2. Zeile ausschalten, fertig.

Warum sollte man auch bei einem 1440p Monitor auf FHD skalieren. Wenn dann skaliert man eben auf WFHD also 2560x1080, um im Verhätniss zu bleiben, oder versteh ich was falsch?

und was ist mit "jede zweite Zeile ausschalten" gemeint?
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben