Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Asus ROG Swift PG27UQ: Erster Monitor mit UHD bei 144 Hz, DP 1.4 und G-Sync HDR
PHuV
Banned
- Registriert
- März 2005
- Beiträge
- 14.219
Nö, der soll man schön ab 1000 € kosten, damit ihn sich nicht jeder leisten kann.Gandalf2210 schrieb:Wunderbar.
Das ganze jetzt bitte für 300€.
Mir wäre ja ein gescheites IPs mit 4k und G-Sync HDR bei 60 Hz lieber als dieser unnötige 144 Hz-Firlefanz. Jeder, der ein bißchen Ahnung von der Funktionsweise von LCDs hat, weiß doch, daß höhere Frequenzen über 60 Hz eben nur mit technischen Tricks erreicht werden, die deutlich auf die Farbqualität schlagen. Was soll dann da HDR bringen? Ich wette, HDR läuft dann nicht mit 144 Hz, sondern vermutlich nur mit 60 Hz.
Zuletzt bearbeitet:
Erfindest du das eigentlich komplett frei?
Es existieren bereits eine Reihe von 1440p 144Hz IPS Monitore, von diversen Seiten genauestens geprüft und durchgemessen, und da schlägt sich gar nichts auf die Farbqualität. Der einzige "Trick" den man braucht um mit IPS sinnvoll 144 Hz zu erreichen ist Overdrive, und das ist bei den bisherigen G-sync IPS Modellen extrem gut abgestimmt. Besser als bei vielen 60 Hz Monitoren.
Es existieren bereits eine Reihe von 1440p 144Hz IPS Monitore, von diversen Seiten genauestens geprüft und durchgemessen, und da schlägt sich gar nichts auf die Farbqualität. Der einzige "Trick" den man braucht um mit IPS sinnvoll 144 Hz zu erreichen ist Overdrive, und das ist bei den bisherigen G-sync IPS Modellen extrem gut abgestimmt. Besser als bei vielen 60 Hz Monitoren.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Genau so schauts aus, kann das Maxwell überhaupt, oder braucht man hier Pascal? Hoffentlich geht G-Sync runter bis 25 bzw. 30 FPS. Alles drüber fällt bei mir durch.Ausserdem abwarten was Gsync HDR sein wird. Nicht das hinterher, es unzählige HDR normen gibt.
IPS Panel müsste solide sein, wobei wir ja auf den Sprung zu wesentlich besseren Panels stehen. Einer sagte es schon in einem anderen Thead, IPS ist heute bereits ein Kompromiss und nicht mehr high End. Zb bei dem hier: HP Omen X 35 -(A)MVA-Panel dürfte vom Panel hier überlegen sein, auch wenn der HP kein HDR hat. Dann noch local dimming das sonst keiner hat. Ich fürchte, da helfen nur Tests für ein ordentliches Fazit.
27" ist gut, 30-35" wären wohl aber besser bei 4k.
Denke nicht das unter 1000€ hier viel geht.
Finde ich auch, 100Hz reichen locker. Wichtig ist mir nur das G-Sync so weit runter wie möglich arbeitet.Welche Graka soll den bitte 240fps auf 4k schaffen?
OLED dürfte noch ein paar Jahre auf sich warten lassen.
Zuletzt bearbeitet:
cypeak
Captain
- Registriert
- Dez. 2013
- Beiträge
- 3.914
ChaosCamper schrieb:Kann mir jemand erklären, wieso der Monitor 2x Displayport bietet, wenn bereits einer die 4K in 144Hz schafft? Wofür ist der zweite?
ob der monitor evtl. für daisy-chaining zu gebrauchen ist?
müsste man mal in der vollständigen featureliste suchen, falls verfügbar...
ist für gaming aber eher uninteressant...
VA ist hauptsächlich Kontrastmäßig überlegen, und da ist dann natürlich die Frage ob local dimming (mit der hohen Anzahl an Zonen) den Kontrastvorteil nicht in den meisten realistischen Szenarien komplett überflügelt.Kasmopaya schrieb:IPS Panel müsste solide sein, wobei wir ja auf den Sprung zu wesentlich besseren Panels stehen. Einer sagte es schon in einem anderen Thead, IPS ist heute bereits ein Kompromiss und nicht mehr high End. Zb bei dem hier: HP Omen X 35 -(A)MVA-Panel dürfte vom Panel hier überlegen sein, auch wenn der HP kein HDR hat. Dann noch local dimming das sonst keiner hat. Ich fürchte, da helfen nur Tests für ein ordentliches Fazit.
Sollte es eigentlich in einer brauchbaren Implementierung.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Ganz einfach. Freesync versagt ständig wenn es darum geht die Technik bis 30FPS am laufen zu halten. 48Hz oder was teils nur geboten wird. Mit mir nicht.Ich kann noch immer nicht verstehen wie man zu G-Sync hält und Nvidia mit ihrer Methode auch noch bestätigt/unterstützt.
Wäre Freesync überlegen und würde ständig besser abschneiden als G-Sync müssten wir hier gar nicht diskutieren, dann würden die NV Käufer Freesync Support einfordern von NV, Shitstorm mäßig...
Hmm, hab ich mir auch gedacht. Wirklich sicher bin ich mir erst nach einem Test.VA ist hauptsächlich Kontrastmäßig überlegen, und da ist dann natürlich die Frage ob local dimming (mit der hohen Anzahl an Zonen) den Kontrastvorteil nicht in den meisten realistischen Szenarien komplett überflügelt.
Am wichtigsten ist echt immer noch die Qualität der Spiele. Aber wenn man schon mal neu kauft, warum minderwertig und nicht das Beste? Einen Monitor hat man in der Regel viel länger als einen Rechner.Am Ende merkt man während des Spiels eh nicht wie toll das Bild ist.
So ungefähr bei mir:
1998: 19" CRT
2004: 22" CRT
2012: 27" FHD Panel: AH-IPS
2017+: ?
Zuletzt bearbeitet:
value
Commander
- Registriert
- Dez. 2003
- Beiträge
- 2.120
PHuV schrieb:Nö, der soll man schön ab 1000 € kosten, damit ihn sich nicht jeder leisten kann.
Mir wäre ja ein gescheites IPs mit 4k und G-Sync HDR bei 60 Hz lieber als dieser unnötige 144 Hz-Firlefanz. Jeder, der ein bißchen Ahnung von der Funktionsweise von LCDs hat, weiß doch, daß höhere Frequenzen über 60 Hz eben nur mit technischen Tricks erreicht werden, die deutlich auf die Farbqualität schlagen. Was soll dann da HDR bringen? Ich wette, HDR läuft dann nicht mit 144 Hz, sondern vermutlich nur mit 60 Hz.
Und was soll dann an diesem Display schlecht sein?
Als ROG-Gerät ist das ganze für Gamer ausgelegt, und ich fände es toll ein RTS in 60hz mit HDR zu spielen und ein FPS halt ohne HDR, dafür in 144hz.
Vielen, die sich über die 4k/144hz Kombination wundern, sollte auch klar sein dass man in 4K bei den meisten Spielen auch mit niedrigen Details eine tolle Optik erzielt und man auch jetzt schon mit aktueller Hardware ältere Titel, vorwegs die großen Online-Spiele, in 4K auf low mit 144fps spielen kann.
Wer sich so ein Display leisten kann und will, kann auch nochmal ca. 50% des Monitorpreis für eine 1080 hinblättern.
Spatha ROG G752
Banned
- Registriert
- Juni 2007
- Beiträge
- 5.928
Das Teil wird sowas von gekauft. Dito
Schon mal HDR auf nem Samsung 9090 SUHD gesehn. Da weisste was im kommen ist
Schon mal HDR auf nem Samsung 9090 SUHD gesehn. Da weisste was im kommen ist
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.862
Das war wohl (noch) nichts mit der Ankündigung von G-Sync HDR seitens nVidia, vielleicht ja zusammen mit dem GeForce (Elite) Club und der GTX 1080Ti um 15:30 Uhr (der angeblich großen Enthüllung), nur dass die AMD Präsentation um 15:00 Uhr doch um einiges interessanter ausfallen dürfte.
Zum zuvor schon in einem anderen Thread erwähnten Monitor, ganz nett, aber etwas zu klein (30+" sollte bei 4K/UHD schon sein), falscher Hersteller und leider nicht Free-Sync 2, welches Samsung (als weitaus renommierterer Monitor-Hersteller) wohl anführen dürfte und mehr Modell-Auswahl und bessere Technik und Verarbeitungsqualität erwarten lässt. Ich hoffe, dass Eizo, NEC, Iiyama, Phillips, LG und hoffentlich dann endlich auch Dell noch zu den FreeSync 2 dazu stoßen werden (die restlichen Hersteller - wie Acer, AOC, Asus usw. - braucht man dann eh nicht mehr).
Die Preise für die ersten neuen Free-Snyc 2 und G-Sync HDR Monitore dürften doch auch ziemlich gepfeffert ausfallen, insbesondere am Anfang wird man die Early Adopter und Enthusiasten ausnehmen wollen .
Ach ja, ich denke die Zahlen pro Free-Sync Monitore und contra der vergleichsweise wenigen G-Sync Monitore sprechen ziemlich eindeutig für sich, auch wenn einige "Experten" hier etwas anderes behaupten, vielleicht einfach 'mal den Free-Sync 2 Werbespot anschauen .
https://www.youtube.com/watch?v=y4FQbVwirKM
Die Mehrheit der Kundschaft und Monitorhersteller will sich leider nicht mit der überteuerten, proprietären G-Sync-Technik gängeln lassen und setzen wie Intel und AMD auf A-Sync (worauf Free-Sync basiert), die Zahlen sprechen klar für sich ...
Zum zuvor schon in einem anderen Thread erwähnten Monitor, ganz nett, aber etwas zu klein (30+" sollte bei 4K/UHD schon sein), falscher Hersteller und leider nicht Free-Sync 2, welches Samsung (als weitaus renommierterer Monitor-Hersteller) wohl anführen dürfte und mehr Modell-Auswahl und bessere Technik und Verarbeitungsqualität erwarten lässt. Ich hoffe, dass Eizo, NEC, Iiyama, Phillips, LG und hoffentlich dann endlich auch Dell noch zu den FreeSync 2 dazu stoßen werden (die restlichen Hersteller - wie Acer, AOC, Asus usw. - braucht man dann eh nicht mehr).
Die Preise für die ersten neuen Free-Snyc 2 und G-Sync HDR Monitore dürften doch auch ziemlich gepfeffert ausfallen, insbesondere am Anfang wird man die Early Adopter und Enthusiasten ausnehmen wollen .
Ach ja, ich denke die Zahlen pro Free-Sync Monitore und contra der vergleichsweise wenigen G-Sync Monitore sprechen ziemlich eindeutig für sich, auch wenn einige "Experten" hier etwas anderes behaupten, vielleicht einfach 'mal den Free-Sync 2 Werbespot anschauen .
https://www.youtube.com/watch?v=y4FQbVwirKM
Die Mehrheit der Kundschaft und Monitorhersteller will sich leider nicht mit der überteuerten, proprietären G-Sync-Technik gängeln lassen und setzen wie Intel und AMD auf A-Sync (worauf Free-Sync basiert), die Zahlen sprechen klar für sich ...
Zuletzt bearbeitet:
Oh man Tellerrand und so: ich benutze gerne 4K auf 27" bei Windows mit 200% Skalierung, damit es wie unter Mac OS wie 1920x1080 aussieht. Nur eben schärfer. Das ist mir beim arbeiten mit Text viel angenehmer und auch bei Spielen, habe ich so Schärfe aber gleichzeitig auch brauchbare GUI.
Im übrigen finde ich Local Dimming alles andere als überzeugend. Hab mir hier Ende letzten jahren ein 75" LG Fernseher an die Wand gehangen und mich macht das Local Dimming schäumend vor Wut. Einzig auf 25% Gesamthelligkeit finde ich es tolerierbar. Bei der auch für HDR vorgesehenen 100% Helligkeit sieht man besonders bei dunklen Szenen dann richtig Bänder. Das ist so eine Technik, um auf dem Papier zwar den Kontrast hoch zu schrauben, aber sieht in der Realität schrecklich aus.
Im übrigen finde ich Local Dimming alles andere als überzeugend. Hab mir hier Ende letzten jahren ein 75" LG Fernseher an die Wand gehangen und mich macht das Local Dimming schäumend vor Wut. Einzig auf 25% Gesamthelligkeit finde ich es tolerierbar. Bei der auch für HDR vorgesehenen 100% Helligkeit sieht man besonders bei dunklen Szenen dann richtig Bänder. Das ist so eine Technik, um auf dem Papier zwar den Kontrast hoch zu schrauben, aber sieht in der Realität schrecklich aus.
Naennon
Lieutenant
- Registriert
- Jan. 2009
- Beiträge
- 621
Butz schrieb:Darüber hinaus gibt es noch keine Grafikkarte die auf UHD auch noch die 144 Hz halten kann. Also vergessen wir das mal......
G-Sync... schonma gehört?
JackTheRippchen
Lt. Commander
- Registriert
- März 2012
- Beiträge
- 2.020
@ Prad: BITTE TESTEN!
Wenn die Qualität stimmt, bin ich gern bereit 1000..1200 EUR dafür hinzulegen.
2) spielt nicht jeder (nur) aktuelle Spiele
3) sind mehr PPI dringend notwendig, damit man endlich nicht mehr so stark von schlecht implementierten AA-Filtern abhängig ist (am "besten" noch post processing-AA )
Wenn die Qualität stimmt, bin ich gern bereit 1000..1200 EUR dafür hinzulegen.
1) schaffen das genug Systeme (non-AAA-Titel)Kloppmet schrieb:Super logische das Teil. Gibt ja auch so viele Systeme die 4K bei 144Hz hinbekommen...
Wenn man bedenkt wo wir heute leistungstechnisch sind, und wie "schnell" die Entwicklung fortschreitet, kann es noch einige Jahre dauern bis auch normal-preisige Rechner/Systeme aktuelle Spiele überhaupt in 4K bei 60 FPS darstellen können.
Für mich absolutes Spielzeug für die obersten Enthusiasten. Nett, mehr aber auch nicht.
Zumal mir FullHD auf 24 Zoll auch absolut ausreichen. Mehr PPI mögen ja "nice2have" sein, aber wirklich nötig sind sie in keinem Fall.
2) spielt nicht jeder (nur) aktuelle Spiele
3) sind mehr PPI dringend notwendig, damit man endlich nicht mehr so stark von schlecht implementierten AA-Filtern abhängig ist (am "besten" noch post processing-AA )
Linus9000 schrieb:Ganz weit hergeholt: evtl kann man an den zweiten Eingang.. ein zweites Gerät anschließen?
Zum Glück gibt es hier gelegentlich noch vernünftige Posts. Danke euch beiden.Galatian schrieb:Oh man Tellerrand und so: ich benutze gerne 4K auf 27" bei Windows mit 200% Skalierung, damit es wie unter Mac OS wie 1920x1080 aussieht. Nur eben schärfer. Das ist mir beim arbeiten mit Text viel angenehmer und auch bei Spielen, habe ich so Schärfe aber gleichzeitig auch brauchbare GUI.
Wahrscheinlich wie die anderen Quantum-Dots 125% sRGB.
Wie hier in einem vermeintlichen Technikforum alle schreiben "Wieso 240hz, meine Grafikkarte schafft das gar nicht" und das bei einem Display das mit G-Sync wirbt. Dabei geht es ja gerade darum niedrigere FPS auszugleichen, aber whatever.
Was mich bei diesen Asus' tierisch nerven würde ist dieses ROG Logo das Projeziert wird, kann man die Kirmesbeleuchtung ausstellen?
Wie hier in einem vermeintlichen Technikforum alle schreiben "Wieso 240hz, meine Grafikkarte schafft das gar nicht" und das bei einem Display das mit G-Sync wirbt. Dabei geht es ja gerade darum niedrigere FPS auszugleichen, aber whatever.
Was mich bei diesen Asus' tierisch nerven würde ist dieses ROG Logo das Projeziert wird, kann man die Kirmesbeleuchtung ausstellen?
Ähnliche Themen
- Antworten
- 261
- Aufrufe
- 55.879
- Antworten
- 73
- Aufrufe
- 12.248
- Antworten
- 164
- Aufrufe
- 34.805