Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News5K-Monitore: Samsungs schärfstes QD-OLED-Display bietet 220 ppi
Ja, der Vorteil entsteht allein dadurch, dass Apple Hard- und Software kontrolliert und daher viel früher den Schritt auf High-PPI-Displays vollziehen konnte als der PC-Bereich - rein OS-seitig ist zumindest Windows besser aufgestellt (unter Linux ist es ja etwas uneinheitlich - KDE beherrscht m.W. schon solides Fractional Scaling, das von mir bevorzugte Gnome hat es erst kürzlich und nur als experimentelle Option eingeführt).
Für mich selber, halte ich es für sinnvoller einen Monitor in der Zukunft zu haben,
der 0.6-0.7 ms pro Bild als Wiederholrate bei 42", 4k bei 104... PPI erreicht.
Das wird schon schwer in der Zukunft, mit einer Grafikkarte ordentlich zu befeuern für Spiele.
Eine höhere PPI für nur dazu, dass man mit der Wiederholrate in Spielen nicht so weit hochkommt,
da die menge, an Pixel der limitierende Faktor ist.
Bei mir klar Hz vor PPI!
Minimale PPI, aber 104,
darunter sollte niemand mehr in 2025 einen Monitor kaufen.
@Zoldan
Ich würde der Annahme immer höher werdender Auflösungen gerne widersprechen.
Das was wir bei Displayauflösungen sehen, ist ein fortgeschrittener bis stark fortgeschrittener abnehmender Grenznutzen.
Man sieht das ganze recht Schön an: Smartphones, Notebooks, TVs.
Obwohl es schon 2015 4K Displays in Smartphone gab und zu gewissen Zeit fast jedes Phone ein qhd Display besaß, befinden wir uns heute wieder in einer Zeit, in der der aller größte Teil der Geräte 1080p Displays hat und einige qhd.
Bei Notebooks ist es ähnlich. Dort gibt es auch seit mindestens 2015 4k Displays und trotzdem wird der Großteil mit 1080 ausgeliefert. Auch hier wieder mit einigen qhd ausnahmen.
Dass 8k TVs faktisch keinen interessieren, das ist wohl unbestritten oder?
Der zusätzliche Nutzen, der aus dem Mehr an Auflösung generiert wurde, ist so gering, dass es den Konsumenten einfach keinen Aufpreis wert war. Deswegen ging man über zu: mehr hz, bessere Farben (qled, oled), mehr Helligkeit.
Das konnte Konsumenten zu einem Aufpreis überreden.
Ich erkläre Dir genau wo hier das Problem ist: Es geht darum, dass hier ein x-beliebiger User meint, dass ein mehr an Qualität unnötig wäre, weil er 1. der Überzeugung ist, dass bei 140-160PPI das Ende der erkennbaren Fahnenstange erreicht wäre, weil ER DABEI KEINEN UNTERSCHIED ZWISCHEN EINZELNEN PIXELN SIEHT und damit zum Ausdruck bringt, dass der Rest der Menschheit damit zufrieden sein muss und 2. im selben Zug NOCH NIE AN EINEM MONITOR 220PPI GEARBEITET HAT UND SOMIT KEINEN VERGLEICH ZIEHEN KANN.
Das sind mir die liebsten Kandidaten, die meinen die Weißheit mit Löffeln gefressen zu haben. Der Punkt ist aber: Sobald sich diese Qualität in der Displaydarstellung in der Breite einmal durchgesetzt hat, wandeln sich plötzlich die Meinungen und wie durch ein Wunder sprechen dann genau solche User wieder davon dass man plötzlich doch sehr zufrieden ist mit 220PPI oder mehr. Wer sich fragt, warum man da so sicher sein kann? Weil die gleiche Situation vor ca. 25 Jahren schon mal entbrannt ist, als die Monitore mit 1600x1200 (die gute alte CRT Zeit) den Markt erobert haben und die ewig gestrigen meinten, dass man bereits mit 1024x768 ein maximum an Bildschirmqualität erreicht hat und 1600x1200 der Overkill ist, der sich am Markt nicht durchsetzen wird. Die Wahrheit war damals wie heute, dass solche Monitore einfach etwas teurer waren und sich nicht jeder Furz so einen leisten konnte oder wollte, aber als bald die Preise fielen, war alles plötzlich ganz toll.
Und genauso wird es auch heute laufen. Wer meint den allen ernstes, dass die Panel-Industrie die Weiterentwicklung der Auflösung einstellen wird? Die wollen verkaufen und selbstverständlich wird es weiter in 220PPI+ gehen!
Sehr zutreffender und sachlich fundierter Kommentar. Und weil er richtig ist, mache ich mir auch nicht mehr die Mühe, Ignoranten zu antworten. Wer nicht in der Lage ist, den Unterschied zu erkennen, braucht diese Monitore nicht zu kaufen. Aber von sich auf andere zu schließen ist lächerlich. Ich hätte am liebsten eine 8K Auflösung auf einem 27 Zoll Monitor und dann wären Textinhalte endlich richtig scharf und das ohne Cleartype, das ich immer ausschalte, weil es zwar die Kanten glättet, aber das Bild insgesamt etwas unschärfer macht.
Wenn du rein von den Displays redest hast du natürlich recht, da DP2.1 einfach nicht genug Bandbreite hat. Aus Rechenleistungssicht spricht aber wenig gegen hohe Auflösungen. Klar, ab einer gewissen Menge läuft man da natürlich in alle möglichen Limits inkl interner Bus-Bandbreiten. Aber ein bisschen mehr als deine Zielauflösung würde kaum schaden, man muss ja nicht alles nativ berechnen. Also zB intern mit 1440p rendern, via DLSS auf 6K hochskalieren und dann nativ die UI darüber legen. Spiele Welt ist scharf genug (mit DLSS 6 dann vielleicht auch endlich ohne nervige Artefakte), UI ist tatsächlich scharf und benötigte Rechenleistung ist nicht viel höher als mit UHD Zielauflösung. Upscaling kosten skalieren zwar mit der Auflösung, sind aber mMn bei 6K noch vertretbar.
Und wir müssen ja nicht die ganze Leistung freihalten um die hohen Bildraten zu erreichen, hier kann man ebenfalls tricksen. Frame Reprojection basierend auf Game State würde nahezu beliebige Ziel Bildraten mit sehr niedriger Latenz bieten. Die native Framerate muss natürlich immer noch hoch genug sein, aber eine reprojection basierend auf 120fps sollte sich schon ziemlich gut anfühlen. Für Sachen wie Valorant von mir aus auch native 500fps reprojected auf 1500fps, aber native 1500fps (das wären ja ca deine 0.6-0.7 ms) ergeben mMn kein Sinn, bzw nur, wenn das rendering schneller geht als die reprojection. Für die Kombi upscaling auf 6K und reprojection auf ~1500fps ist wahrscheinlich auch die RTX5090 zu schwach, bzw ließe zu wenig Leistung für das eigentliche Spiel übrig, aber grundsätzlich sehe ich da die Zukunft.
Bin ja auch wirklich nicht der einzige oder erste der sich seit den VR Techniken wie Asynchronous Time Warp (Konzept aus 2013!) und Asynchronous Space Warp fragt, warum es das für normale PC Spiele noch nicht gibt. NVidias Reflex 2 Frame Warp ist ein erster Schritt in die Richtung. Es scheint quasi das gleiche wie ASW zu machen, nur leider synchron statt asynchron. Aber wäre gut denkbar, das wir mit der nächsten oder übernächsten Gen, also RTX60xx/RTX70xx, schon frame reprojection kriegen könnten.
tl;dr: Stimmt, aber zukünftig zunehmend irrelevanter dank upscaling und frame reprojection. Einzig Anschlussbandbreite bleibt vorraussichtlich länger ein Argument.
Was mMn aber nicht nur daran liegt, das 8K grundsätzlich zu wenig Mehrwert bietet, sondern auch das die meisten Leute je nach Sichtweise ein zu kleinen Fernseher haben oder zu weit davon entfernt sitzen, und das es kaum 8K Inhalte gibt. Die Streaming Anbieter liefern ja nichtmal anständiges UHD, da ergibt ein 8K Display natürlich noch kein Sinn.
Gut möglich das sich 8K in der Masse nie durchsetzen wird, der Mehrwert zu UHD ist gerade für Fernseher wirklich gering, aber ich hoffe das es trotzdem Premium Modelle mit 8K geben wird. Hisense hat zB ein neuen 136" Fernseher auf der CES vorgestellt, der hat nur UHD. Bei 4m Abstand, was ~40° horizontales Sichtfeld entspricht, hätte man da "nur" ~90ppd. Für Netflix ist das mehr als genug, aber ich hätte lieber >120ppd.
Hatte bis Anfang letzten Jahres noch 23" FHD und sehr lange gewartet, weil ich unbedingt auf 4K direkt gehen wollte. Dann war der lange ersehnte Monitor im Angebot und ich habe zugeschlagen. Kurz danach hab ich mir dann ein komplett neues System aufgebaut. Es ist schon krass was der PPI-Unterschied ausmacht. Auch Freunde die im letzten Jahr von FHD 24" auf WQHD 27" oder WQHD 27" auf 27" 4K umgestiegen sind erzählen mir, wie begeistert sie von der höheren Pixeldichte sind. 27" ist aber nun wirklich das Maximum für alle (bei 16:9). Bei der Bildfrequenz merkt auch jeder den krassen Unterschied von 60 auf 120 Hz und mehr. Allerdings sind mehr als 120 Hz für eigentlich alle die ich kenne kaum wahrnehmbar.
Für mich bleibt daher das Fazit:
In 16:9 bleibt 4K120Hz so die Anforderung und darüber bringt nur wenig. Dann lieber die Kohle in bessere Bildquali.
Das Andere sind natürlich die Hardwareanforderungen, wenn es um Spiele geht. Im Moment läuft das Meiste noch nativ in 4K und höchsten Einstellungen bei um die 100 FPS mit einer 4090. Manche krassen Titel wie Cyberpunk brauchen hier schon DLSS und das wird sich auch mit der 5090 nicht ändern. Daher ist aus meiner Sicht auch alles darüber nicht wirklich sinnvoll befeuerbar, auch wenn es jetzt nicht schadet, wenn der Monitor mehr wie 120 Hz hat. Ich freu mich auf gute 27"4K120+Hz OLED Monitore die ein gutes Bild haben und mit denen man HDR vllt. endlich am PC auch flächendeckend nutzen kann
Genau so ist es.
Ich teste das demnächst. Heute kommt mein 32 Zöller mit 4K Auflösung.
Mal schauen was MacOS daraus macht.
Den aktuellen 38" QHD+ (3840x1600) konnte ich nativ betreiben. Damit kam MacOS dann natürlich super zurecht.
Aber egal ob MacOS oder Windows, wenn skaliert werden muss geht das immer mit Qualitätsverlust oder Problemen einher.
CDLABSRadonP... schrieb:
Im Kern ging ich ursprünglich davon aus, dass ein Vorteil von MacOS gemeint war, aber eigentlich ging es um einen Nachteil von MacOS.
Der Vorteil von MacOS ist eben dass die Skalierung auf alle Programme übertragen wird und problemlos funktioniert, auch wenn sie je nach Monitor/Auflösung nicht so knackescharf aussieht wie nativ. (Das finde ich demnächst heraus)
In Windows kann es sein dass manche Programme gut skalieren, manche aber auch nicht.
Es hat alles seine Vor- und Nachteile.
Der Vorteil von MacOS ist eben dass die Skalierung auf alle Programme übertragen wird und problemlos funktioniert, auch wenn sie je nach Monitor/Auflösung nicht so knackescharf aussieht wie nativ. (Das finde ich demnächst heraus)
In Windows kann es sein dass manche Programme gut skalieren, manche aber auch nicht.
Es hat alles seine Vor- und Nachteile.
Das stimmt. Grundsätzlich ging ich aber von noch mehr aus:
CDLABSRadonP... schrieb:
Was jetzt bzgl. MacOS besonders sein soll, bleibt vollkommen offen. Unter Windows oder einem Linux-Derivat ist der Normalfall ja auch, Skalierung auf 200% zu stellen und entsprechend "nativ super scharf dargestellt" zu erhalten. (...)