News Asus PG35VQ & Acer X35: 3.440 × 1.440 mit 200 Hz, HDR und G-Sync auf 35 Zoll

200 hz?
Sind das echte 200hz oder geht es jetzt los wie bei den Fernsehern?
 
Im PC Bereich sind es wirklich 200 Hz.. Interpolation, Sub Field Drive, Zwischenbildberechnung etc. spielen in unserem Segment (zum Glück) keine Rolle.
 
Sehr tolle Monitore, nur leider nicht zu den Preisen, die wahrscheinlich abgerufen werden.

Warum werden aktuell eigentlich so Mondpreise verlangt? War doch früher net so .... Da gabs auch neue Technologien, welche das teuerste, beste, geilste darstellten. Am Ende der Produkt - Kette ist irgendwas rausgeflogen, was neues tolles oben nachgerutscht und das Preisgefüge ist in etwa gleich geblieben.

Mitlehrweile ist es ja so, dass preislich einfach alles stehen bleibt und man für jeden Funken neue Technologie Unmengen mehr an Geld ausgeben muss.
 
Das täuscht.

Wenn ich überlege wie teuer damals die großen Röhrenmonitore waren....
Das Ding hat mich damals ein Vermögen gekostet.

State of the Art ist IMMER schon wahnsinnig teuer gewesen.
 
Die letzten monitore von Asus schienen nicht so gut zu sein.Das MG279Q hatte zb mit Backlight Bleeding zu kämpfen und dies geht meiner Ansicht bei einem Qualitätsprodukt in der Preisklasse überhaupt nicht.
solange die ganzen Kinderkrankheiten nicht behoben sind, bleibe ich bei meinem alten Eizo Foris
 
Kingsdom schrieb:
Mitlehrweile ist es ja so, dass preislich einfach alles stehen bleibt und man für jeden Funken neue Technologie Unmengen mehr an Geld ausgeben muss.

So siehts aus und dann eig. für sachen die an sich ja nicht *neu* sind.

Meine ich sehe es ja ein das man nen Monitor ja Jahre hat und man mit solch ein Monitor wohl auch Jahre ruhe hat wenn der Monitor das einhalten sollte wie es aufm blatte steht.
Dann kann das wohl nur noch OLED ablösen.

Aber 2000-3000€ für ein Monitor ist trotzdem zu hochgegriffen.

Schön ist wohl auch das Asus und Acer wohl exaxt den gleichen Preis haben werden also nix mit konkurenz...

Aber mal abwarten wie die Quallität denne zum schluss ausschaut.
 
Wobei man hier schon beachten muss, dass zwischen vollem 4K und 3440 x 1440 ein Unterschied besteht, der relativ große Auswirkungen auf die fps hat.
Jo stimmt, aber während man 4k verlustfrei(muss nix skaliert werden) auf 1080p zurück stellen kann, ist 720p bei 1440p wohl dann zu pixlig.

Noch dazu verballtert 21:9 GPU Rohleistung und mit der fixen 1440p Auflösung die man quasi nicht mehr los wird ist das der Killer jeder GPU auf Zeit. Während die 4k Leute einfach 1080p einstellen und wie gewohnt ihre 4+ Jahre abspulen ohne Probleme.

Schaut nicht so aus auf den ersten Blick, aber 21:9 1440p ist der GPU Killer schlecht hin über Zeit, während 4k 16:9 Möglichkeiten hat dem entgegen zu wirken. (4k 21:9 geht auch noch weil man ja auf 16:9 zurück stellen kann)

Doch, weil 35" 21:9 = 27" 16:9.
Also hätte der 35" Monitor den zu beschreibst 16:9, müsste der Hersteller 27" drauf schreiben?

Du hast nur mehr Breite, was beim Spielen nur Vorteile bringt.
Vielleicht, habs noch nicht getestet. Zum Arbeiten auf jeden Fall schon mal Gold wert. Auf jeden Fall müssen die extra Pixel von der GPU berechnet werden, das ist schon mal kein Vorteil.(über die Jahre für die GPU) Es sei denn man stellt auf 16:9 zurück.

Sagen wir es so, würde es den Asus in 21:9 geben, würde ich ihn nehmen, weil man ohne Probleme(wieder ohne Skalierung) auf 16:9 zurück stellen kann wenn man will. Aber die 1440p Auflösung würde ich niemals kaufen.
Wäre mir für 4K aber zu klein. WQHD ist da genau richtig, damit man nichts skalieren muss.
Denn Skalierung ist für mich ne absolute Bastellösung, die in den wenigsten Fällen gut funktioniert.
Wo muss ein 4k irgend was skalieren? 4k nativ und bei 1080p wird einfach jede 2. Zeile abgeschalten. Da wird nix skaliert. Genau wie bei 720p bei einem 1440p Monitor. Aber 720p puh, das wird zu grobpixlig.

Kurz: Mein neuer Monitor ist ein 1080p Monitor mit der Option auf 4k, während ein 1440p immer ein 1440p bleiben wird. (unflexibel wie Hölle)

4k auf 27" hab ich schon testen können, die Bildqualität ist so geil, das man nicht mehr zurück möchte. Für mich bedeutet das das ich einige Spiele nicht ohne 4k zocken will zb:
Witcher 3 GOTY(wird erst mit der neuen big Volta GPU in 4k zum ersten mal gestartet)
Deus EX MD
Star Citzien(muss ich erst noch schnaun ob 4k möglich ist mit einer ollen big Volta)
...
 
Zuletzt bearbeitet:
Naja....mit einem 4K wieder zurück auf FullHd, sieht dann auch nicht mehr all zu schön aus. Bei 27Zoll sowieso. Da hast du dann auch wieder potenzial verschenkt, die deine Graka bei 1440p evtl noch ideal nutzen könnte. Ich sehe das so meine 1080ti ist ideal für die 1440p Auflösung. Der wird so schnell nicht die puste ausgehen.

Ich merke das auch jetzt der Schritt von FullHD auf WQHD war für mich optisch nocht nicht so gewaltig. Erst als ich eine Zeitlang auf dieser Auflösung gespielt habe und dann aus Interesse meinen FullHD nochmals angeschlossen habe um zu schauen wie es wirkt, ist mir die Veränderung aufgefallen. Wenn du jetzt 1-2 Jahr 4k spielen kannst und dann auf FullHD wechseln musst, weil deine Graka die Leistung dazu nicht mehr hat, wirst du wohl auch nicht mehr zufrieden sein.
 
@ Kasmopaya
Ich selbst habe es nie getestet, jedoch sprichst du hier so sicher über die Möglichkeit 4k ohne Probleme auf FHD laufen zu lassen, dass mich das etwas stutzig macht, da ich weißgott wie oft in den letzten Jahren gelesen habe, dass dem eben nicht so sei und auch bei 4k -> FHD interpoliert wird und Qualität verloren geht.
Ich sage es noch mal, ich weiß es nicht, aber ich habe eben die gegenteilige Meinung sehr oft gelesen. Da gibt es einige, die ihre 24" oder 27" Monitore verglichen haben. 24" FHD Panel vs. 24" UHD-Panel auf FHD skaliert und all jene, die dies getestet haben meinen, dass FHD auf einem nativen FHD-Panel besser aussehen würde.
 
Kasmopaya schrieb:
Noch dazu verballtert 21:9 GPU Rohleistung und mit der fixen 1440p Auflösung die man quasi nicht mehr los wird ist das der Killer jeder GPU auf Zeit. Während die 4k Leute einfach 1080p einstellen und wie gewohnt ihre 4+ Jahre abspulen ohne Probleme.

Warum sollte sich jetzt jemand einen 4K-Monitor holen und den dann nur mit 1080p betreiben? Rausgeschmissenes Geld. Dann kann er auch auf seinem alten FHD bleiben, bis die Rohleistung für 3440x1440 oder 4K da ist.
 
Dann spielt man halt in 2560x1080p...kommts gleiche bei raus gezwungen ist man an den 1440p nicht.
 
Kasmopaya schrieb:
Jo stimmt, aber während man 4k verlustfrei(muss nix skaliert werden) auf 1080p zurück stellen kann, ist 720p bei 1440p wohl dann zu pixlig.

Stimmt nicht, da wird trotzdem interpoliert. Musste diesen Weg bei Ark gehen und es sah beschissen aus ;)

Kasmopaya schrieb:
Noch dazu verballtert 21:9 GPU Rohleistung und mit der fixen 1440p Auflösung die man quasi nicht mehr los wird ist das der Killer jeder GPU auf Zeit. Während die 4k Leute einfach 1080p einstellen und wie gewohnt ihre 4+ Jahre abspulen ohne Probleme.

Dafür kannst du bei 21:9 (3440x1440) komplett verlustfrei (Bildqualität) auf das 16:9 WQHD gehen. Haste halt links und rechts schwarze Balken, aber zur Not definitiv eine Möglichkeit.

Kasmopaya schrieb:
Schaut nicht so aus auf den ersten Blick, aber 21:9 1440p ist der GPU Killer schlecht hin über Zeit, während 4k 16:9 Möglichkeiten hat dem entgegen zu wirken. (4k 21:9 geht auch noch weil man ja auf 16:9 zurück stellen kann)

Wieso das nur bei 4k 21:9 gehen sollte, musste mir mal genauer erklären. (Mal unabhängig davon, dass jemand, der einen solche Monitor hat, bestimmt auch ne Grafikkarte besitzt, die dazu in der Lage ist diese Auflösung zu stämmen)
 
Zuletzt bearbeitet:
Das menschliche Auge hat wohl 16:9 oder 16:10 Sichtfeld, blöd nur, wir haben 2 Augen und nutzen peripheres sehen links wie rechts...

Wer einen 34" 21:9 als Panzerschlitz betitelt sollte mal einen 27" 16:9 und einen 34" 21:9 genauer ansehen.
Wenn ein 34" 21:9 ein Panzerschlitz ist, dann ist der 27" 16:9 einfach nur winzig.

1920x1080 entsprechen etwa 2M Pixel
3440x1440 entsprechen etwa 5M Pixel (2,5x mehr Pixel)
3840x2160 entsprechen etwa 8,3M Pxel (4,15x mehr Pxixel)

Meiner Meinung nach gibt es derzeit und auch in Zukunft keine Grafikkarte die wirklich 60fps@UHD halten kann.
Davon zu schweigen das dieser Bildschirm deutlich mehr als 60 fps kann.
Selbst wenn es bsp. die 1080TI@OC ist, kann man sich direkt danach die nächste TITAN / xx80TI etc. kaufen, da die Spiele ja auch permanent mehr Leistung einfordern. Man muss nur an das *** optimierte ARK denken, skaliert unendlich schlecht mit hoher AUflösung. 21:9 dagegen sind kein Problem.

Hier fehlt allerdings wieder der selbe Schirm mit Freesync. Ab Vega wird AMD hoffentlich in der Lage sein den Bildschirm zu befeuern. NVIDIA sperrt jedenfalls den High-End Markt mithilfe solcher Monitore vollständig.
 
Che-Tah schrieb:
Was bringt denn Breite beim Spielen für Vorteile?

...21:9 kommt vom Kino und das einfach nur damit sie ein anderes Format als die TV's haben... Sobald jeder nen 21:9 Fernseher daheim hat kommt eh wieder ein neues Format...

Wieso erstellst du mit deinem Monitor zu Testzwecken nicht eine benutzerdefinierte Auflösung von 3840x1620 und testest damit deine Spiele?

Ich zocke so mit dem BDM4065 seit 1,5 Jahren und möchte 21/9 nicht mehr missen!

Deine These zum Kinoformat ist auch sehr interessant! Könntest du dir eine 16/9 Leinwand im Kino vorstellen?
 
Was bringt denn Breite beim Spielen für Vorteile? Das menschliche Sichtfeld entspricht in etwa einem 16:10 Format..

Da zitiere ich einfach mal Draco Nobilis:

Das menschliche Auge hat wohl 16:9 oder 16:10 Sichtfeld, blöd nur, wir haben 2 Augen und nutzen peripheres sehen links wie rechts...

Man sieht beispielsweise in vielen Rennspielen plötzlich die Außenspiegel. Bei manchen sind diese sogar nutzbar.
Noch dazu wird das Geschwindigkeitsgefühl durch das periohere Sichtfeld enorm verbessert.
In Strategie oder Aufbauspielen sieht man viel mehr von der Karte.
Und allgemein fühlt man sich durch die Breite viel mehr ins Spiel hineingezogen.
Man kann das nicht nachvollziehen, wenn mans noch nie probier hat.

Und dazu kommt natürlich der Vorteil beim Arbeiten, wie du ja schon erwähnt hast.
Bei Audio- und Videoschnitt ist das 21:9 Format für mich eine enorme Arbeitserleichterung.

Also hätte der 35" Monitor den zu beschreibst 16:9, müsste der Hersteller 27" drauf schreiben?

Ja weil er dann keine 35" (eigentlich 34", aber das eine Zoll macht den Braten auch nicht fett) Diagonale mehr hat, sondern nur noch 27".

Siehe hier: https://abload.de/img/monitorvergleich75k3e.jpg

Wo muss ein 4k irgend was skalieren? 4k nativ und bei 1080p wird einfach jede 2. Zeile abgeschalten. Da wird nix skaliert. Genau wie bei 720p bei einem 1440p Monitor. Aber 720p puh, das wird zu grobpixlig.

Versuch mal bei nem normalen Bildabstand bei nem 27" 16:9 Monitor mit 4K Auflösung hier im Forum normal zu lesen.
Und da geht das skalieren bzw. zoomen noch ziemlich einfach.
Aber versuch mal diverse Audio- und Videoschnittprogramme so zu skalieren, dass man damit wieder alles ohne Lupe findet und anständig arbeiten kann. Noch nicht mal Windows skaliert anständig.
Klar kannst du auf 1080p stellen, dann geht dir aber wieder Arbeitsfläche verloren.
1440p ist da die perfekte Zwischenlösung. Scharf genug und gleichzeitig groß genug.

4K wird gehyped und beworben ohne Ende. Es braucht Rechenleistung in Spielen, die immer noch keine Grafikkarte durchgehend leisten kann und man muss zwingend bei 27" skalieren, wenn man damit vernüftig arbeiten will.
Immerhin sind das immer noch knapp 80% mehr Pixel im Vergleich zu 3440x1440, die berechnet werden müssen.
 
Warning: Wall of Text incomming:
Naja....mit einem 4K wieder zurück auf FullHd, sieht dann auch nicht mehr all zu schön aus.
Aber nur weil man sich an die 4k Ultra Qualität gewöhnt hat. Nicht weil der Monitor das schlechter wiedergeben könnte als ein nativer 1080p. Darum gehts mir. Und ich bin nicht so einer der dann zwanghaft SLI rein klatscht oder ständig neue GPUs kauft, nur damit 4k weiter genutzt werden kann. Mir ist das wichtig das das ganze nicht zum Aufrüstmarathon wird: https://www.computerbase.de/forum/threads/eure-grafikkarten-historie.235090/page-107#post-17603646

Bei 27Zoll sowieso.
Ha! Von wegen, hab hier einen 27" IPS 1080p stehen. Einfach perfekt war der. DSR 4k(Faktor 4) ist auch einfach göttlich.

die deine Graka bei 1440p evtl noch ideal nutzen könnte.
Kein Problem, DSR hat die Zwischenstufen. Die interessieren mich aber nicht, hab ich schon getestet. Entweder 1080p oder 4k, was anderes will ich nicht haben.

Ich sehe das so meine 1080ti ist ideal für die 1440p Auflösung. Der wird so schnell nicht die puste ausgehen.
Ohh doch, jede GPU macht irgend wann schlapp und dank deiner massiv erhöten Auflösung, viel schneller als mit 1080p. Ich schätze das es mindestens 1 Jahr kostet, wenn nicht 2 Jahre die Karte vor ihrer Zeit schlapp machen wird, wenn man zwanghaft 1440p fahren will.

Ich merke das auch jetzt der Schritt von FullHD auf WQHD war für mich optisch nocht nicht so gewaltig.
Genau so sehe ich das auch, erst bei 4k ist mir die Kinnlade auf den Boden gedroppt. Und 1440p kostet Trotzdem massiv Rohleistung. Bin absoluter Gegner dieser Auflösung. NV freuts natürlich, die verkaufen mehr Grafikkarten.

Wenn du jetzt 1-2 Jahr 4k spielen kannst und dann auf FullHD wechseln musst, weil deine Graka die Leistung dazu nicht mehr hat, wirst du wohl auch nicht mehr zufrieden sein.
Mache ich heute schon mit DSR bei meinem 1080p mit Faktor 4 Einstellung.(seit 2015 mit der Titan XM) Fazit bei mir ist dann gewesen das es auf 4k so geil ausschaut, das ich einige Perlen nicht ohne zocken will. Dann gehe ich aber nicht in den nächsten Laden und kaufe mir eine neue GPU oder SLI, sondern lege das Spiel(müssen Perlen sein) zb. Witcher 3 beiseite und starte es nicht mehr. Es bleibt so lange im Regal bis ich die nächste GPU habe die diese Auflösung dann flüssig stemmen kann. Dabei bleibe ich felsenfest bei meinem 4 Jahres Rhythmus. Auch wenn es Überwindung kostet, so hab ich das schon immer gemacht und werde es auch immer machen. Massenhaft kaufen und verkaufen ist bei mir aus Umweltschutz Gründen(Stichwort: Elektroschrott) nicht drin.

und all jene, die dies getestet haben meinen, dass FHD auf einem nativen FHD-Panel besser aussehen würde.
Ich werde es testen, rechnet mit einem Fazit wenn Asus den Monitor liefern kann. Zur Not geht er zurück. Ich habe nämlich das genaue Gegenteil gehört, es ist logisch das wenn der Monitor nur komplette Zeilen abschalten muss jede 2. Zeile da nix interpoliert werden muss. Es ist so als ob ein 1080p vor einem stehen würde. Mit der Option doppelt so viele Zeilen anzuschalten.

Warum sollte sich jetzt jemand einen 4K-Monitor holen und den dann nur mit 1080p betreiben?
Weil wie ein besessener 4k zwanghaft immer zu fahren massig Rohleistung kostet, die jede GPU in handumdrehen killt?
Sogar eine 800mm² Volta Titan wird irgend wann von einem 4k Game sowas von geplättet, weil die Entwickler ständig die allgemeine Grafik Qualität erhöhen. Dann kaufe ich mir nicht die 2. Titan, sondern stelle ganz gemütlich auf 1080p zurück. :D

Dann kann er auch auf seinem alten FHD bleiben,
Hat mein alter 144Hz, Quatum Dots, G-Sync etc. etc. etc? Kleiner Hinweis, die Antwort geht mit N an.


Dann spielt man halt in 2560x1080p...kommts gleiche bei raus gezwungen ist man an den 1440p nicht.
1080p ist doch garantiert interpoliert. Das kann nix werden mit der Bildqualität.

Außer es gibt Monitore die perfekt interpolieren? Gibt es die?

Dafür kannst du bei 21:9 (3440x1440) komplett verlustfrei (Bildqualität) auf das 16:9 WQHD gehen. Haste halt links und rechts schwarze Balken, aber zur Not definitiv eine Möglichkeit.
Hab ich ja auch geschrieben, 21:9 ist kein GPU Killer unbedingt. Da man ja ohne Probleme auf 16:9 zurück stellen kann und die Rohleistung der GPU wird entlastet. :)

Wieso das nur bei 4k 21:9 gehen sollte, musste mir mal genauer erklären.
Hast mich nur falsch verstanden, ich bin davon ausgegangen das hier wieder einige zwanghaft 21:9 und 1440p fahren wollen, wie üblich eben. Wenn die 21:9 kaufen, dann wird das niemals abgeschaltet, Beweis ist der der eine da oben der 4k zwanghaft fahren will und niemals auf 1080p zurück stellen würde.
(Mal unabhängig davon, dass jemand, der einen solche Monitor hat, bestimmt auch ne Grafikkarte besitzt, die dazu in der Lage ist diese Auflösung zu stämmen)
Das ist ein Mythos. Jede GPU wird von 4k irgend wann gekillt. Lange dauert das nicht bis die Entwickler eure GPU klein bekommen. Dann geht entweder das Auflösung runter Spiel los, oder ihr rennt in den Laden und erhöht NVs Gewinn.

Draco Nobilis hats verstanden... :daumen:

Ja weil er dann keine 35" (eigentlich 34", aber das eine Zoll macht den Braten auch nicht fett) Diagonale mehr hat, sondern nur noch 27".
Interessant, diesen Marketing Trick kannte ich noch nicht. :)
 
Zuletzt bearbeitet:
Ohh doch, jede GPU macht irgend wann schlapp und dank deiner massiv erhöten Auflösung, viel schneller als mit 1080p. Ich schätze das es mindestens 1 Jahr kostet, wenn nicht 2 Jahre die Karte vor ihrer Zeit schlapp machen wird, wenn man zwanghaft 1440p fahren will.

Eine 1080Ti wird bei 1440p 3-4 Jahre Jahr halten, wenn man Regler bedienen kann.
Dann ist es eh Zeit für eine neue Grafikkarte.

Ich merke das auch jetzt der Schritt von FullHD auf WQHD war für mich optisch nocht nicht so gewaltig.

Ich empfand es genau anders herum.
Der Unterschied von FullHD auf WQHD war in Spielen riesig.
Von WQHD auf UHD hingegen war der Unterschied eher marginal, kostet aber dafür fast 80% mehr Rechenleistung.
Das Verhältnis von Rechenleistung zu Grafikgewinn ist hier mehr als schlecht.

Weil wie ein besessener 4k zwanghaft immer zu fahren massig Rohleistung kostet, die jede GPU in handumdrehen killt?

Richtig. Und deshalb WQHD.

Sich jetzt 4K zu kaufen und dann auf FullHD zurückzugehen, wenns nichtmal mehr mit Reglerschieben reicht,
ist wie sich einen Porsche zu kaufen und dann wieder auf den Corsa zu wechseln, wenn man den Sprit nicht mehr bezahlen kann.
 
Im Prinzip geht man dann zu Fuß(Witcher 3 wieder ins Regal), ziemlich ökologisch wenn du mich fragst. Oder um im Autosektor zu bleiben:
Das beste, oder nichts.

Die Spiele die ich auf 1080p zocke, sind es eh nicht wert auf einer höheren Auflösung gezockt zu werden.(Mainstream Müll) Den Autovergleich darfst du dir gerne ausdenken dazu.

Und wie gesagt, es gibt immer noch DSR um dynamisch die Rohleistung zu verballern wie ich lustig bin. Da wird überhaupt nix liegen gelassen. Nur eben das ein 4k nativ 2 gute Auflösungen hat.
 
Zuletzt bearbeitet:
Zurück
Oben