News 2.160p statt 1.440p: Wenn im WQHD‑Bildschirm ein UHD‑Panel steckt

Aber es bestätigt wieder das man nur noch verarscht wird.
Und ich hoffe das es eine entscheidung/gesetz geben wird das die Hersteller dies angeben müssen ob es sich um ein beschnittenes Panel handelt oder nicht.

Alles andere wär total fail und einfach betrug.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
new Account() schrieb:
Wie kommst du darauf?
5k ist ein Exotenformat, 4k ist sehr verbreitet und entsprechend günstig und 8k steht in den Startlöchern - wieso sollte die Masse da zu 5k greifen? Wieso? Wieso sollte man für einen geringen Mehrwert einen enormen Aufpreis zahlen?

Wie gesagt, ich habe langfristig geschrieben und es gibt eben Leute, die abseits Games und Filme schauen, mit ihren PC auch arbeiten. Insbesondere in der Medienproduktion sind dann FullHD und UHD(4K) ungünstig, da man pixelperfekt eben nur den Inhalt aber kein UI oder Menüs darstellen kann. 16:10 war da ein schöner Kompromiss, bei WQHD oder 5K habe ich den Vorteil, dass ich FullHD/UHD (oder im Pro Bereich echte 2K und 4K) Inhalte 1:1 darstellen kann und noch immer viel Raum für UI Elemente einer Anwendung habe.

Es ist auch ziemlich sinnfrei darüber zu debattieren. Wem tut es weh, wenn es Panels mit anderen Auflösungen oder Seitenverhältnissen gibt? FullHD und UHD in einiger Zukunft 8K UHD sind die Standards für Filme und Medien im Konsumentenbereich, Spiele werden weiterhin durch die Leistung der GPU in ihrer Auflösung limitiert und dort wird man schlicht für die Auflösungen optimieren, die verbreitet sind. Daran wird sich durch Zwischengrößen nichts ändern, außer dass der Käufer die Freiheit hat, das zu kaufen, was er gerade braucht. Das geht jetzt aber auch ziemlich OT.
 
Wie gesagt, ich habe langfristig geschrieben und es gibt eben Leute, die abseits Games und Filme schauen, mit ihren PC auch arbeiten.
Und ich habe die Langfristigkeit nachfolgend begründet dementiert.

Okay, wenn es tatsächlich der Fall ist, dass man mit 27" und 4k durch 5k noch von pixelgenauem Arbeiten profitieren kann und das dort wichtig ist (ist es das?), dann mag es für die sehr spezielle Nische (mit PC arbeiten heißt übrigens nicht zwangsweise Videobearbeitung) bis zum Eintreffen von 8k tatsächlich einen Use Case geben. Das habe ich aber auch nicht bestritten. Aber mit 8k wirst du keinen Unterschied mehr sehen, ganz gleich ob nativ oder nicht.
Dies widerspricht doch völlig der langfristigen Verbreitung von 5k.

Das gilt auch für Spiele: Hast du 8k, stellst du einfach (oder in Zukunft gar das Spiel dynamisch?) die maximal mögliche Auflösung ein, ohne Rücksicht auf die Auflösung des Monitors.
Bei Smartphones kommt auch keiner auf die Idee zu sagen: Ich will nur Full HD, sonst kann ich meine Videos nicht mehr nativ in FHD anschaun :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Spawn182
CS74ES schrieb:
Über Sinn und Unsinn von glare/nonglare Panels zu streiten ist Blödsinn. Kommt immer auf das Anwendungsgebiet an. Ein glare Display, das das Fenster spiegeln kann ist definitiv nicht schön. Wenn man die Gardine sieht, hilft das schärfste Bild nicht. Ich hab/hatte beides (Monitore + TV1 = nonglare und altes Notebook + TV2 (Plasma) = glare. TV2 steht mit dem Gesicht zum Fenster, wenn da tagsüber die Sonne rein scheint, kann ich vergessen TV zu sehen, mit dem nonglare im Schlafzimmer geht das schon einiges besser (steht genauso). Dafür macht der Plasma aber ein klasse Bild.
Kann man sich jetzt aussuchen, was einem wichtiger ist.

FFF, zuerst muss die Funktion gewährleistet sein, also TV schauen, und dann sekundär die das es etwas schärfer aussieht.
 
new Account() schrieb:
Dies widerspricht doch völlig der langfristigen Verbreitung von 5k.

Dir ist weiter oben schon aufgefallen, dass das Kostenargument kein ganz unwichtiges ist. Bis 8k in Preisbereichen ist, die für die Masse interessant sind, dauert es noch lange. Da ist 4k heute noch zu teuer.

5k wird 4k sicher nicht überholen, aber vielleicht das sein, was heute 1440p ist. Eine Alternative für Leute, denen die anderen Formate aus verschiedenen Gründen nicht zusagen.
 
  • Gefällt mir
Reaktionen: Spawn182
Leli196 schrieb:
Warum sollte 1080p auch so scharf dargestellt werden wie UHD? Es ist nur ein Viertel der Pixelanzahl.

Weil viele einen Denkfehler bei der Skalierung haben. Nämlich das ein Pixel (1x1) einfach durch vier Pixel (2x2) dargestellt wird und somit 100% scharf bleibt. So wie bei einem Gegenstand, welchen man zuerst aus 30 cm und dann aus 15 cm ansieht.

Diesen Denkfehler habe ich 2007 ebenfalls gehabt, als ich von CRT auf TFT Displays wechselte und Crysis auf der exakt halben Auflösung, also 1280 x 800 spielen wollte. Die native Auflösung war logischerweise 2560x1600.
 
new Account() schrieb:
Und ich habe die Langfristigkeit nachfolgend begründet dementiert.

Bei 8K stimme ich dir bei den im Desktopbereich üblichen Diagonalen bei der Skalierung zu ;) Ich würde mich auch freuen den 5K Schritt (außer da wo er berechtigt ist) zu überspringen. In meinem Fall machen leider 4K überhaupt keinen Sinn und 5K ist hoffnungslos überteuert und sicherlich betrachte ich das Thema auch aus meinem Umfeld <- und die Medienindustrie ist doch recht groß, sonst hätte kaum einer was auf seinem Screen anzuschauen ;)

Denke die Panel Hersteller würden die schnelle Einführung von 8K auch begrüßen, momentan scheint der Engpass eher bei der Anbindung und den Zuspielen zu liegen. Schauen wir mal, wo wir in zwei bis vier Jahren stehen, das geht ja immer schneller.*

* Siehe die Verdrängung von FullHD durch UHD im TV Bereich, obwohl es gefühlt "kaum" Inhalte gibt. Ich habe ein 4K OLED und hätte kein Problem 2-4+ Stunden am Tag auch natives 4K Material zu schauen.

Highspeed Opi schrieb:
Weil viele einen Denkfehler bei der Skalierung haben. Nämlich das ein Pixel (1x1) einfach durch vier Pixel (2x2) dargestellt wird und somit 100% scharf bleibt. So wie bei einem Gegenstand, welchen man zuerst aus 30 cm und dann aus 15 cm ansieht.

Also, auf die Pixel bezogen beleibt FullHD auf UHD auch 100% scharf, 1 Pixel wird 4 Pixeln zugeordnet, der Inhalt bleibt also quasi "pixel perfect". Bei gleicher Diagonale bleibt der Eindruck also mehr oder minder der selbe. Was noch wichtiger ist, Details die eben in FullHD vorhanden waren, bleiben auch in UHD durch das vierfache Aufblasen erhalten. Bei einer ungeraden Skalierung habe ich immer das Problem, das ein nicht homogenes Ergebnis entsteht. Nimm ein Schachbrettmuster, beim vervierfachen der Pixel bleibt es ein sauberes Muster mit glatten Abgrenzungen. Nehme ich eine anderen Faktor (oder einen "klassischen" Scaler), habe ich nicht mehr gleichgroße Felder, was viel störender ist, ich habe unscharfe Abgrenzungen der Felder. <- Sichtbare Unschärfe.
Je nach Inhalt ist mehr oder weniger auffällig bzw. störend.

Schaue ich hingegen von 30 cm und dann von 15 cm auf einen Gegenstand nimmt ja nicht nur die Größe zu, sondern auch der Detailgrad, das habe ich natürlich bei obigen Verfahren nicht, weder bei der Größe noch den Details.

Ein Scaler, könnte hier natürlich etwas eingreifen, aber oftmals möchte man das gar nicht. Siehe "pixel perfect" ;)
 
Zuletzt bearbeitet:
Steini1990 schrieb:
Sollte jemand einen Tipp für einen guten Monitor (24-27 Zoll) zu einem halbwegs vernünftigen Preis haben nehme ich den gerne.

Hey Steini. Ich kann den Acer Predator xb271 empfehlen. Fantastisches QHD PANEL, IPS, 144HZ mit super Bauqualität. Ich hab die Version mit g-sync aber es gibt sicherlich auch eine freesync Variante :)

Ich hab ihn relativ preiswert via Newegg aus den USA importiert. Musst mal schauen ob die noch was haben.
 
Wundert mich, hast du ein Vergleichsgerät? Von Acer hört man oft nicht sooo gutes, oder verwechsel ich Acer gerade mit Asus?
 
Unnu schrieb:
Das günstigste auf Geizhals sind 350 EUR für einen ACER . Und ohne Testbericht würde ich den nicht nehmen wollen.
Das wird wohl der Monitor aus meiner Signatur sein. Nachdem ich diesen bei einer Freundin gesehen hatte, konnte ich nicht widerstehen (zumal bei dem Preis). Wir sind beide sehr zufrieden mit diesem Monitor und würden ihn guten Gewissens weiterempfehlen.

Und hier meine 2 Cents zu UHD vs. WQHD: Wenn ich von UHD auf FHD runterschalte, fehlt mir einfach Bildschirminhalt. Der zusätzliche Platz für Menüs bei Bild- oder Videobearbeitung ist schon angesprochen worden.
Bei Spielen sollten sich manche hier, die UHD, aus welchen Gründen auch immer, schon für einen Massenmarkt halten und mit Runterskalierung auf FHD argumentieren, mal schlau machen. Viele Games liefern mehr Inhalt und Einzelheiten in WQHD vs. FHD - darauf würde ich nicht mehr verzichten wollen.
Da hätte ich dann einen tollen UHD-Monitor, aber bekäme, weil ich aufgrund von Grafikkartenleistung selbst mit einer 1080Ti häufig keine wirklich flüssigen Frameraten schaffen würde, am Ende ein runterskaliertes Bild mit weniger Bildschirminhalt - für mich ein No-Go. Und UHD auf WQHD zu skalieren kommt wegen zwangsläufiger Unschärfe ebenso für mich nicht in Frage.

Zu guter Letzt hier mal eine Umfrage zur Monitorauflösung der User von 3D-Center vom Dezember 2017: http://www.3dcenter.org/umfrage/wel...ht-fuer-den-spielerechner-zur-verfuegung-2017

Wer sich die Umfrage anschaut wird feststellen: UHD ist weit weg davon schon ein Massenmarkt zu sein.
UHD ist mit 1% im Low-End-PC-Segment vertreten, mit 3% bei Mainstreamkäufern und selbst bei den Enthusiasten setzen erst 10% schon auf UHD. WQHD ist deutlich verbreiteter mit 4%, 10% und 19%.

Massenmarkt? Wascht euch mal die Augen. ;)
 
Zuletzt bearbeitet:
@NoSyMe
Danke für den Tipp. Leider gibt es das Panel nur als G-Sync. Bei FreeSync Modellen mit 27 Zoll gibt es eigentlich nur den Acer XF270HUAbmiidprzx mit halbwegs guten Daten, die sind aber auch nicht auf dem Niveau deines Monitors. Außerdem ist das Ding auch schon seit 2016 auf dem Markt und man findet so gut wie keine guten Tests dazu.

Zusätzlich bleibt da noch immer die unschärfere Darstellung von FullHD Inhalten. Der Monitormarkt ist derzeit echt der Horror. Die Panelhersteller entwickeln nur noch für Fernseher und Smartphones.
 
Wie so oft werden hier („vermeintlich“) wirtschaftliche Gesichtspunkte vor Qualität und das Wohl des Kunden gesetzt.

„Vermutlich“ weil ich es mir nur schwer vorstellen kann, sowas muss einem in einem Test doch sofort ins Auge fallen.

Sollte es stimmen, ist das ne ganz dicke Nummer.

Sollten einige Hersteller dies aus Kostengründen tun, gehört jeder dieser Monitore gekennzeichnet: „Es kann zu Qualitätseinbußen kommen, da das Panel nicht innerhalb seiner nativen Auflösung betrieben wird.“

Ganz einfach. Sonst ist das eine Mogelpackun.

Liebe Grüße
Sven
 
Ah ok, den kannte ich noch nicht.
Als ich meinen Acer letztes Jahr gekauft habe, lag der günstigste Preis auch bei 350,-€.
"Damals" war es der mit Abstand günstigste Monitor in 32" mit WQHD und IPS-Panel.

Edit: Oh, nur noch ~250€ für meinen Monitor?!
Da könnte ich ja fast schwach werden und gleich noch zwei danebenstellen. :daumen:
 
Zuletzt bearbeitet:
Gefallen muss er, das ist die Hauptsache. :)
Ich spare auf diesen hier.
Ist zwar schon älter, allerdings gehe ich nur ungern Kompromisse ein, wenn es mein Augenlicht betrifft.
 
Tom_Callaghan schrieb:
Da ich es selber nicht genau weiß, und Wikipedia sagt, daß 2k und 4k eine Range von Formaten ist,
was bezeichnest du denn mit 2k und 4k hier in dem Zusammenhang?

Tom
4k ist für mich der DCI Standard, 4096 x 2160. Wobei ich mich noch halbwegs damit abfinde, dass 3840x2160 auch als 4k bezeichnet wird, korrekt wäre 4k UHD, oder einfach nur UHD.
2k ist für mich eine Auflösung mit etwa 2000~ Horizontalen Pixeln, in der Regel 2048. Da gibt es einige, wovon aber keine im PC bereich genutzt wird, sprich im PC bereich gibt es keine 2k Auflösung.

Und WENN man das, wie bei UHD annähern will, kann nur 1920x1080 als 2k bezeichnet werden^^
Denn wenn 3840 Bildpunkte zu einem 4k werden, muss 2k (hälfte von 4) dann logischerweise 1920 (hälfte von 3840) sein.

Ich vertrete aber die Ansicht, dass es völlig unnötig ist, Auflösungen irgendein "k" zuweisen zu müssen. Wozu?
1080p ist Full HD, 2560x1440 ist WQHD, 3840x2160 ist UHD. So einfach.


Hintergrund der Thematik ist, wenn viele das einfach völlig falsch bezeichnen, hilft das für Kaufberatungen z.B. nichts ^^
Wenn User xy dann nach einem neuen 2k Monitor sucht, wäre es technisch korrekt, ihm ein 1920x1080 Modell zu empfehlen. Wobei bei sowas immer nachgefragt wird, welche Auflösung nun wirklich gemeint ist.
Kann man z.B. bei Mydealz sehr häufig bei Monitoren beobachten^^
Kommt mal nen Deal zu einem günstigen 1080p Monitor mit 144 Hz für 180€, und die Leute schreiben "schade, ich hätte lieber 2k" Auflösung. Es IST doch 2k :rolleyes:
 
  • Gefällt mir
Reaktionen: Tom_Callaghan
Spawn182 schrieb:
Also, auf die Pixel bezogen beleibt FullHD auf UHD auch 100% scharf, 1 Pixel wird 4 Pixeln zugeordnet, der Inhalt bleibt also quasi "pixel perfect". Bei gleicher Diagonale bleibt der Eindruck also mehr oder minder der selbe. Was noch wichtiger ist, Details die eben in FullHD vorhanden waren, bleiben auch in UHD durch das vierfache Aufblasen erhalten. Bei einer ungeraden Skalierung habe ich immer das Problem, das ein nicht homogenes Ergebnis entsteht. Nimm ein Schachbrettmuster, beim vervierfachen der Pixel bleibt es ein sauberes Muster mit glatten Abgrenzungen. Nehme ich eine anderen Faktor (oder einen "klassischen" Scaler), habe ich nicht mehr gleichgroße Felder, was viel störender ist, ich habe unscharfe Abgrenzungen der Felder. <- Sichtbare Unschärfe.
Je nach Inhalt ist mehr oder weniger auffällig bzw. störend.

Das ist eine schöne Theorie, die ich auch so geglaubt habe, bis ich dann den LG MU67B (2160p, 27") bekommen habe. Auf dem sieht 1440p im Standard auch recht verwaschen aus, er bietet aber eine Funktion, das Bild unter der nativen Auflösung mit höherer Schärfe darzustellen. Hilft sehr nach meinem Empfinden. Da meine RX 480 nicht überall 4K schafft, spiele ich Actionspiele meist in 1440p, z.B. The Division, RoTR, GTA V, AC: Origins, Witcher 3, etc.
1080p hab ich manchmal auch probiert sieht aber tatsächlich im Vergleich mit 1440p grässlich aus. Die Pixel sind halt viel zu groß, man hat überall Treppeneffekte, etc. und AA einzuschalten ist kein Ersatz für die höhere Auflösung. Das hat mich anfangs aufgrund der Theorie auch etwas überrascht, ich bin mit den 1440p seitdem aber sehr zufrieden wenn ich in ~1m Abstand davor sitze.

Natürlich sind Spiele, die die RX480 in 4K schafft, wie Stellaris, WoT, WoWS etc. ein Stück schärfer und man sieht auch den Unterschied wenn man Witcher 3 oder andere zum Testen mal eben auf 4K schaltet, 1080p kann aber dennoch nicht mit den "schiefen" 1440p mithalten, es sei denn es ist ein Video (Netflix, Youtube, etc.), die sehen auch in 1080p gut aus.

Das ist natürlich meine Erfahrung, ich habe dadurch aber für mich gelernt, dass auch eine "schiefe" Skalierung besser sein kann als eine niedrigere Auflösung. Gut möglich, dass verschiedene Monitore auch unterschiedlich gut skalieren und "nachschärfen", etc.
 
Atomkeks schrieb:
Vielleicht weil sie mit Displayfolien-Herstellern im Bunde stehen?
Denn zB bei uns auf Arbeit (großes deutsches Medienhaus) haben wir mehrere tausend iMacs in Verwendung. In Sonnendurchfluteten Büros hat fast jeder davon eine mattierende Folie drauf, weil sie an sonnigen Tagen sonst einfach nicht verwendbar sind. Und so ne Displayfolie für einen 27er iMac ist alles andere als günstig...
Sollte nicht eigentlich jeder Mac ne Folie drauf haben? Die Arbeitsstättenverordnung verbietet doch generell glänzende Oberflächen? Unsere Werbefuzzis sind davon jedenfalls genervt. Matte Displays würden den Mac verschandeln, drauf sind die Folien dennoch.
 
Ergänzung ()

Aufm Mac gibts keine Folie da ist nur dieses Glas davor um es Panel zu schützen.(also wie bei Smartphones s7,8,9 z.b)
Würdeste das abmachen läge das Panel frei da gibts keine verschandelungsfolie es sei denne die haben das geändert aber aktuelle Macs sehen immer noch so aus.
 
Zurück
Oben