News 5K-Monitore: Samsungs schärfstes QD-OLED-Display bietet 220 ppi

CDLABSRadonP... schrieb:
Verstehe. Im Kern ging ich ursprünglich davon aus, dass ein Vorteil von MacOS gemeint war, aber eigentlich ging es um einen Nachteil von MacOS.
Ja, der Vorteil entsteht allein dadurch, dass Apple Hard- und Software kontrolliert und daher viel früher den Schritt auf High-PPI-Displays vollziehen konnte als der PC-Bereich - rein OS-seitig ist zumindest Windows besser aufgestellt (unter Linux ist es ja etwas uneinheitlich - KDE beherrscht m.W. schon solides Fractional Scaling, das von mir bevorzugte Gnome hat es erst kürzlich und nur als experimentelle Option eingeführt).
 
  • Gefällt mir
Reaktionen: DKK007, phanter und Drummermatze
Hi@all!

Für mich selber, halte ich es für sinnvoller einen Monitor in der Zukunft zu haben,
der 0.6-0.7 ms pro Bild als Wiederholrate bei 42", 4k bei 104... PPI erreicht.
Das wird schon schwer in der Zukunft, mit einer Grafikkarte ordentlich zu befeuern für Spiele.
Eine höhere PPI für nur dazu, dass man mit der Wiederholrate in Spielen nicht so weit hochkommt,
da die menge, an Pixel der limitierende Faktor ist.

Bei mir klar Hz vor PPI!

Minimale PPI, aber 104,
darunter sollte niemand mehr in 2025 einen Monitor kaufen.

Gruß
Mehlstaub
 
@Zoldan
Ich würde der Annahme immer höher werdender Auflösungen gerne widersprechen.
Das was wir bei Displayauflösungen sehen, ist ein fortgeschrittener bis stark fortgeschrittener abnehmender Grenznutzen.
Man sieht das ganze recht Schön an: Smartphones, Notebooks, TVs.
Obwohl es schon 2015 4K Displays in Smartphone gab und zu gewissen Zeit fast jedes Phone ein qhd Display besaß, befinden wir uns heute wieder in einer Zeit, in der der aller größte Teil der Geräte 1080p Displays hat und einige qhd.
Bei Notebooks ist es ähnlich. Dort gibt es auch seit mindestens 2015 4k Displays und trotzdem wird der Großteil mit 1080 ausgeliefert. Auch hier wieder mit einigen qhd ausnahmen.
Dass 8k TVs faktisch keinen interessieren, das ist wohl unbestritten oder?

Der zusätzliche Nutzen, der aus dem Mehr an Auflösung generiert wurde, ist so gering, dass es den Konsumenten einfach keinen Aufpreis wert war. Deswegen ging man über zu: mehr hz, bessere Farben (qled, oled), mehr Helligkeit.
Das konnte Konsumenten zu einem Aufpreis überreden.

Aber nein, wir befinden uns im Auflösungsendgame.
 
Zoldan schrieb:
Ich erkläre Dir genau wo hier das Problem ist: Es geht darum, dass hier ein x-beliebiger User meint, dass ein mehr an Qualität unnötig wäre, weil er 1. der Überzeugung ist, dass bei 140-160PPI das Ende der erkennbaren Fahnenstange erreicht wäre, weil ER DABEI KEINEN UNTERSCHIED ZWISCHEN EINZELNEN PIXELN SIEHT und damit zum Ausdruck bringt, dass der Rest der Menschheit damit zufrieden sein muss und 2. im selben Zug NOCH NIE AN EINEM MONITOR 220PPI GEARBEITET HAT UND SOMIT KEINEN VERGLEICH ZIEHEN KANN.

Das sind mir die liebsten Kandidaten, die meinen die Weißheit mit Löffeln gefressen zu haben. Der Punkt ist aber: Sobald sich diese Qualität in der Displaydarstellung in der Breite einmal durchgesetzt hat, wandeln sich plötzlich die Meinungen und wie durch ein Wunder sprechen dann genau solche User wieder davon dass man plötzlich doch sehr zufrieden ist mit 220PPI oder mehr. Wer sich fragt, warum man da so sicher sein kann? Weil die gleiche Situation vor ca. 25 Jahren schon mal entbrannt ist, als die Monitore mit 1600x1200 (die gute alte CRT Zeit) den Markt erobert haben und die ewig gestrigen meinten, dass man bereits mit 1024x768 ein maximum an Bildschirmqualität erreicht hat und 1600x1200 der Overkill ist, der sich am Markt nicht durchsetzen wird. Die Wahrheit war damals wie heute, dass solche Monitore einfach etwas teurer waren und sich nicht jeder Furz so einen leisten konnte oder wollte, aber als bald die Preise fielen, war alles plötzlich ganz toll.

Und genauso wird es auch heute laufen. Wer meint den allen ernstes, dass die Panel-Industrie die Weiterentwicklung der Auflösung einstellen wird? Die wollen verkaufen und selbstverständlich wird es weiter in 220PPI+ gehen!
Sehr zutreffender und sachlich fundierter Kommentar. Und weil er richtig ist, mache ich mir auch nicht mehr die Mühe, Ignoranten zu antworten. Wer nicht in der Lage ist, den Unterschied zu erkennen, braucht diese Monitore nicht zu kaufen. Aber von sich auf andere zu schließen ist lächerlich. Ich hätte am liebsten eine 8K Auflösung auf einem 27 Zoll Monitor und dann wären Textinhalte endlich richtig scharf und das ohne Cleartype, das ich immer ausschalte, weil es zwar die Kanten glättet, aber das Bild insgesamt etwas unschärfer macht.
 
MehlstaubtheCat schrieb:
Eine höhere PPI für nur dazu, dass man mit der Wiederholrate in Spielen nicht so weit hochkommt,
da die menge, an Pixel der limitierende Faktor ist.
Wenn du rein von den Displays redest hast du natürlich recht, da DP2.1 einfach nicht genug Bandbreite hat. Aus Rechenleistungssicht spricht aber wenig gegen hohe Auflösungen. Klar, ab einer gewissen Menge läuft man da natürlich in alle möglichen Limits inkl interner Bus-Bandbreiten. Aber ein bisschen mehr als deine Zielauflösung würde kaum schaden, man muss ja nicht alles nativ berechnen. Also zB intern mit 1440p rendern, via DLSS auf 6K hochskalieren und dann nativ die UI darüber legen. Spiele Welt ist scharf genug (mit DLSS 6 dann vielleicht auch endlich ohne nervige Artefakte), UI ist tatsächlich scharf und benötigte Rechenleistung ist nicht viel höher als mit UHD Zielauflösung. Upscaling kosten skalieren zwar mit der Auflösung, sind aber mMn bei 6K noch vertretbar.

Und wir müssen ja nicht die ganze Leistung freihalten um die hohen Bildraten zu erreichen, hier kann man ebenfalls tricksen. Frame Reprojection basierend auf Game State würde nahezu beliebige Ziel Bildraten mit sehr niedriger Latenz bieten. Die native Framerate muss natürlich immer noch hoch genug sein, aber eine reprojection basierend auf 120fps sollte sich schon ziemlich gut anfühlen. Für Sachen wie Valorant von mir aus auch native 500fps reprojected auf 1500fps, aber native 1500fps (das wären ja ca deine 0.6-0.7 ms) ergeben mMn kein Sinn, bzw nur, wenn das rendering schneller geht als die reprojection. Für die Kombi upscaling auf 6K und reprojection auf ~1500fps ist wahrscheinlich auch die RTX5090 zu schwach, bzw ließe zu wenig Leistung für das eigentliche Spiel übrig, aber grundsätzlich sehe ich da die Zukunft.
Bin ja auch wirklich nicht der einzige oder erste der sich seit den VR Techniken wie Asynchronous Time Warp (Konzept aus 2013!) und Asynchronous Space Warp fragt, warum es das für normale PC Spiele noch nicht gibt. NVidias Reflex 2 Frame Warp ist ein erster Schritt in die Richtung. Es scheint quasi das gleiche wie ASW zu machen, nur leider synchron statt asynchron. Aber wäre gut denkbar, das wir mit der nächsten oder übernächsten Gen, also RTX60xx/RTX70xx, schon frame reprojection kriegen könnten.

tl;dr: Stimmt, aber zukünftig zunehmend irrelevanter dank upscaling und frame reprojection. Einzig Anschlussbandbreite bleibt vorraussichtlich länger ein Argument.
Ergänzung ()

RedPanda05 schrieb:
wir befinden uns im Auflösungsendgame.
Auch wenn es mir nicht gefällt, grundsätzlich muss ich zustimmen.
RedPanda05 schrieb:
Dass 8k TVs faktisch keinen interessieren, das ist wohl unbestritten oder?
Was mMn aber nicht nur daran liegt, das 8K grundsätzlich zu wenig Mehrwert bietet, sondern auch das die meisten Leute je nach Sichtweise ein zu kleinen Fernseher haben oder zu weit davon entfernt sitzen, und das es kaum 8K Inhalte gibt. Die Streaming Anbieter liefern ja nichtmal anständiges UHD, da ergibt ein 8K Display natürlich noch kein Sinn.
Gut möglich das sich 8K in der Masse nie durchsetzen wird, der Mehrwert zu UHD ist gerade für Fernseher wirklich gering, aber ich hoffe das es trotzdem Premium Modelle mit 8K geben wird. Hisense hat zB ein neuen 136" Fernseher auf der CES vorgestellt, der hat nur UHD. Bei 4m Abstand, was ~40° horizontales Sichtfeld entspricht, hätte man da "nur" ~90ppd. Für Netflix ist das mehr als genug, aber ich hätte lieber >120ppd.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HageBen, DKK007, fox40phil und eine weitere Person
Hatte bis Anfang letzten Jahres noch 23" FHD und sehr lange gewartet, weil ich unbedingt auf 4K direkt gehen wollte. Dann war der lange ersehnte Monitor im Angebot und ich habe zugeschlagen. Kurz danach hab ich mir dann ein komplett neues System aufgebaut. Es ist schon krass was der PPI-Unterschied ausmacht. Auch Freunde die im letzten Jahr von FHD 24" auf WQHD 27" oder WQHD 27" auf 27" 4K umgestiegen sind erzählen mir, wie begeistert sie von der höheren Pixeldichte sind. 27" ist aber nun wirklich das Maximum für alle (bei 16:9). Bei der Bildfrequenz merkt auch jeder den krassen Unterschied von 60 auf 120 Hz und mehr. Allerdings sind mehr als 120 Hz für eigentlich alle die ich kenne kaum wahrnehmbar.

Für mich bleibt daher das Fazit:
In 16:9 bleibt 4K120Hz so die Anforderung und darüber bringt nur wenig. Dann lieber die Kohle in bessere Bildquali.

Das Andere sind natürlich die Hardwareanforderungen, wenn es um Spiele geht. Im Moment läuft das Meiste noch nativ in 4K und höchsten Einstellungen bei um die 100 FPS mit einer 4090. Manche krassen Titel wie Cyberpunk brauchen hier schon DLSS und das wird sich auch mit der 5090 nicht ändern. Daher ist aus meiner Sicht auch alles darüber nicht wirklich sinnvoll befeuerbar, auch wenn es jetzt nicht schadet, wenn der Monitor mehr wie 120 Hz hat. Ich freu mich auf gute 27"4K120+Hz OLED Monitore die ein gutes Bild haben und mit denen man HDR vllt. endlich am PC auch flächendeckend nutzen kann :D
 
schneeland schrieb:
Das sieht auf Bildschirmen mit mittlerer Pixeldichte (sprich: 4K auf 27" oder 32") dann etwas unscharf aus.
Genau so ist es.
Ich teste das demnächst. Heute kommt mein 32 Zöller mit 4K Auflösung.
Mal schauen was MacOS daraus macht.
Den aktuellen 38" QHD+ (3840x1600) konnte ich nativ betreiben. Damit kam MacOS dann natürlich super zurecht.

Aber egal ob MacOS oder Windows, wenn skaliert werden muss geht das immer mit Qualitätsverlust oder Problemen einher.

CDLABSRadonP... schrieb:
Im Kern ging ich ursprünglich davon aus, dass ein Vorteil von MacOS gemeint war, aber eigentlich ging es um einen Nachteil von MacOS.
Der Vorteil von MacOS ist eben dass die Skalierung auf alle Programme übertragen wird und problemlos funktioniert, auch wenn sie je nach Monitor/Auflösung nicht so knackescharf aussieht wie nativ. (Das finde ich demnächst heraus)
In Windows kann es sein dass manche Programme gut skalieren, manche aber auch nicht.
Es hat alles seine Vor- und Nachteile.
 
  • Gefällt mir
Reaktionen: DKK007
Drummermatze schrieb:
Der Vorteil von MacOS ist eben dass die Skalierung auf alle Programme übertragen wird und problemlos funktioniert, auch wenn sie je nach Monitor/Auflösung nicht so knackescharf aussieht wie nativ. (Das finde ich demnächst heraus)
In Windows kann es sein dass manche Programme gut skalieren, manche aber auch nicht.
Es hat alles seine Vor- und Nachteile.
Das stimmt. Grundsätzlich ging ich aber von noch mehr aus:
CDLABSRadonP... schrieb:
Was jetzt bzgl. MacOS besonders sein soll, bleibt vollkommen offen. Unter Windows oder einem Linux-Derivat ist der Normalfall ja auch, Skalierung auf 200% zu stellen und entsprechend "nativ super scharf dargestellt" zu erhalten. (...)
Daran ändert sich nichts. Und wieso sollte man nicht einfach 200% oder 300% nehmen?
 
Endlich mal wieder Fortschritte bei der Auflösung.
Wobei mir für 5K eher 32" bis 36" lieber wären.
Ergänzung ()

Drummermatze schrieb:
Aber natürlich auch für Windows User / Zocker gut. Man kann quasi WQHD nativ darstellen und 5K dann zum Arbeiten nutzen.

Könnte mir das auch über eine Dual Funktion vorstellen, wo bei WQHD höhere Frequenzen möglich sind.
Ergänzung ()

Zoldan schrieb:
Das sind mir die liebsten Kandidaten, die meinen die Weißheit mit Löffeln gefressen zu haben. Der Punkt ist aber: Sobald sich diese Qualität in der Displaydarstellung in der Breite einmal durchgesetzt hat, wandeln sich plötzlich die Meinungen und wie durch ein Wunder sprechen dann genau solche User wieder davon dass man plötzlich doch sehr zufrieden ist mit 220PPI oder mehr. Wer sich fragt, warum man da so sicher sein kann? Weil die gleiche Situation vor ca. 25 Jahren schon mal entbrannt ist, als die Monitore mit 1600x1200 (die gute alte CRT Zeit) den Markt erobert haben und die ewig gestrigen meinten, dass man bereits mit 1024x768 ein maximum an Bildschirmqualität erreicht hat und 1600x1200 der Overkill ist, der sich am Markt nicht durchsetzen wird. Die Wahrheit war damals wie heute, dass solche Monitore einfach etwas teurer waren und sich nicht jeder Furz so einen leisten konnte oder wollte, aber als bald die Preise fielen, war alles plötzlich ganz toll.

«Niemand braucht mehr als 640 Kilobyte Arbeitsspeicher in seinem PC.»
Bill Gates, Microsoft-Gründer

Mein neuer ArrowLake hat 48 GiB. :D
 
Zuletzt bearbeitet:
Ich lese immer wieder, dass User sich über höhere Auflösungen beschweren, weil es die Hardware angeblich dafür nicht geben würde.
Das wurde auch damals bei FHD WQHD und UHD gesagt😅
Ich habe schon damals mit einer GTX 780 in UHD gezockt und da gab es kein DLSS ^^

Für mich geht es in die richtige Richtung.
Wünsche mir einen 42" OLED mit 5K/6K ^^
 
Bccc1 schrieb:
Hisense hat zB ein neuen 136" Fernseher auf der CES vorgestellt, der hat nur UHD.

Solche Modelle hab ich auf der IFA auch schon gesehen. Da kann man dann wenn man davor steht deutlich die Pixel sehen.
 
MaverickM schrieb:
Das ist aber halt auch deutlich unter dem üblichen empfohlenen Sitzabstand. Nicht sehr ergonomisch. Würde ich mir auch keine 8h am Tag antun wollen.
Die Sitzabstände zu Monitoren sind zum Teil wirklich teilweise veraltet und gehen auch auf bestimmte Umstände überhaupt nicht ein.

zu dem Monitor auf meinem Arbeitsplatz müsste ich theoretisch 2 Meter abstand haben, wenn ich den habe, kann ich an diesem aber überhaupt nicht mehr arbeiten oder müsste die Schrifft um den Faktor 5 skalieren, damit die Lesbar ist. Mein Monitor ersetzt zwei 27"er.

Wichtig ist nicht der Abstand zum Monitor absolut, sondern dass Schriftgröße und Co angenehm zu lesen ist.
MaverickM schrieb:
Na, wenn Du meinst... Meine Gesundheit ist es ja nicht.
Für die "Gesundheit" relevanter als der Abstand ist Schriftgröße und Helligkeit.
schneeland schrieb:
Im Wesentlichen ist MacOS schon länger auf 218ppi optimiert* und hat den Schritt auf diese "Retina-Displays" genutzt, um z.B. Subpixel-Optimierung aus dem Grafikstack zu werfen. Das entspricht im Prinzip der 200%-Skalierung unter Windows und Linux.
Da muss ich aber sagen, dass Windows heute bei der "Schriftskalierung" deutlich besser agiert als Mac OS X. Ich arbeite an einem 32" 4K mit Windows und hab auf 150 % gestellt und kein Schärfe-Problem. Macbook müsste ich mal testen.

Wenn man natürlich star "2x" nimmt und dann von da aus skaliert, dann ist das kein wunder.
Drummermatze schrieb:
Aber egal ob MacOS oder Windows, wenn skaliert werden muss geht das immer mit Qualitätsverlust oder Problemen einher.
Kommt darauf an. Wenn sich Vektor-Grafiken und Schriften weitgehend durchsetzen, dann gibt es mit der Skalierung sogut wie keine Probleme. Kein Schärfe Verlust, kein Qualitätsverlust.

Die Qualitätsverluste und Schärfeverluste kommen durch "Pixelgrafiken", die entsprechend skaliert werden müssen. Entsprechend hatte man ja auch Anfangs unter Mac OS massive Probleme mit gewissen grafikken, wenn diese nicht mit doppelter Auflösung vorlagen, obwohl man HiPPI/Retina hatte.

Alles was GUI an geht, sollte man heute primär auf Vektorgrafiklen und Vektorschriften zurück greifen, dann ist es egal, ob man die Schrit- und Icons mit 100, 125, 150, 175 oder 200 % darstellt. Es ist immer "Scharf".

Das gute An Windows ist in dem Fall, dass es bei Pixelgrafiken - sofern diese nicht in der UI sind - weiterhin bei 1:1 bleibt, die UI aber entsprechen dem Faktor skaliert.
 
  • Gefällt mir
Reaktionen: MGFirewater
DevPandi schrieb:
Die Sitzabstände zu Monitoren sind zum Teil wirklich teilweise veraltet

Ich sag es mal so: Ich sitze Pi mal Daumen auf 60cm Abstand zum Hauptmonitor. Das empfinde ich als optimal und sehr angenehm. Die Richtwerte können also gar nicht so falsch sein.

DevPandi schrieb:
Für die "Gesundheit" relevanter als der Abstand ist Schriftgröße und Helligkeit.

Das ist richtig. Die meisten ballern sich ja ihre Retina mit voller Helligkeit bei den Monitoren weg... Ich habe meine auf ~120cd eingestellt und fahre damit sehr gut. Angenehmes Arbeiten Tag und Nachts. Natürlich stets mit Dark-Mode.
 
  • Gefällt mir
Reaktionen: Cabranium und Zoldan
Drummermatze schrieb:
Genau so ist es.
Ich teste das demnächst. Heute kommt mein 32 Zöller mit 4K Auflösung.
Mal schauen was MacOS daraus macht.
Den aktuellen 38" QHD+ (3840x1600) konnte ich nativ betreiben. Damit kam MacOS dann natürlich super zurecht.

Aber egal ob MacOS oder Windows, wenn skaliert werden muss geht das immer mit Qualitätsverlust oder Problemen einher.


Der Vorteil von MacOS ist eben dass die Skalierung auf alle Programme übertragen wird und problemlos funktioniert, auch wenn sie je nach Monitor/Auflösung nicht so knackescharf aussieht wie nativ. (Das finde ich demnächst heraus)
In Windows kann es sein dass manche Programme gut skalieren, manche aber auch nicht.
Es hat alles seine Vor- und Nachteile.
Die Antwort kann ich Dir sofort geben. macOS auf deinen neunen 4K Monitor wird schon gut aussehen, und Du wirst kurz und mittelfristig damit zufrieden sein… bis Du den Vergleich zu einem 220PPI Screen erleben durftest und dann wird Dir auffallen, dass es zu „gut“ noch Steigerungen gibt, nämlich „sehr gut“ bis „perfekt“! Und dann werden sich deine Gedanken ständig um solch einen Monitor drehen!
Ergänzung ()

Bccc1 schrieb:
Wenn du rein von den Displays redest hast du natürlich recht, da DP2.1 einfach nicht genug Bandbreite hat. Aus Rechenleistungssicht spricht aber wenig gegen hohe Auflösungen.
Was erzählst Du denn da? Natürlich hat DisplayPort 2.1 eine ausreichend hohe Bandbreite! Und selbst wenn Dir 80Gb nicht reichen sollten könnte man (so wie es auch früher praktiziert wurde) 2x DP 2.1 Kabel zwischen Grafikkarte und Display verbauen. Mit 160Gb wäre dann genügend Bandbreite für die schmutzigsten Auflösungen verfügbar!
 
Zuletzt bearbeitet:
@Zoldan

Das kann gut sein. :D
Ich meinte aber eher den Vergleich von nativer WQHD Auflösung zu skalierter 4K Auflösung.
Da bin ich mal gespannt ob ich da einen Unterschied sehen werde.
So ein 6K 32" hätte aber auf jeden Fall was!
 
Zoldan schrieb:
Was erzählst Du denn da? Natürlich hat DisplayPort 2.1 eine ausreichend hohe Bandbreite!
Hier fehlte der Kontext für meine Aussage. MehlstaubtheCat hat von 0.6-0.7 ms pro Bild, also 1429 - 1667 fps, bei 4K Auflösung geschrieben. Das bräuchte 1229.16Gbps, bzw mit DSC auf maximaler Kompression 327.77Gbps. Mit 5x DP2.1 Kabeln wäre das machbar. Bevor wir in diese Gefilde stoßen gibts hoffentlich neue Kompressionsstandards, um die notwendige Datenrate zu reduzieren.
Die Anforderung selber finde ich auch fragwürdig, der Mehrwert von 1500Hz vs 1000Hz bei nur UHD sollte sehr gering sein, wahrscheinlich für die meisten Menschen ohne Training nicht wahrnehmbar. Aber bei 6K 1000Hz bin ich wieder dabei, und das braucht ähnliche Datenraten.
 
Drummermatze schrieb:
@Zoldan

Das kann gut sein. :D
Ich meinte aber eher den Vergleich von nativer WQHD Auflösung zu skalierter 4K Auflösung.
Da bin ich mal gespannt ob ich da einen Unterschied sehen werde.
So ein 6K 32" hätte aber auf jeden Fall was!
Ich habe noch so einen low-auflösenden Monitor von Dell rumstehen mit 5120x2160 auf 40" mit meinen MacBooks im Betrieb. In der Praxis nutze ich darauf eine Auflösung von 3840×1620 damit die Schriften nicht zu klein sind. Ja, ist ein gutes Bild. Kann man mit arbeiten. Aber kristallklar ist das Bild erst auf 27" mit 5120x2880 bei 200% Skalierung. Ein besseres Bild habe ich noch nie im Leben mit einen anderen Monitor gesehen!
Ergänzung ()

Bccc1 schrieb:
Hier fehlte der Kontext für meine Aussage. MehlstaubtheCat hat von 0.6-0.7 ms pro Bild, also 1429 - 1667 fps, bei 4K Auflösung geschrieben. Das bräuchte 1229.16Gbps, bzw mit DSC auf maximaler Kompression 327.77Gbps. Mit 5x DP2.1 Kabeln wäre das machbar. Bevor wir in diese Gefilde stoßen gibts hoffentlich neue Kompressionsstandards, um die notwendige Datenrate zu reduzieren.
Die Anforderung selber finde ich auch fragwürdig, der Mehrwert von 1500Hz vs 1000Hz bei nur UHD sollte sehr gering sein, wahrscheinlich für die meisten Menschen ohne Training nicht wahrnehmbar. Aber bei 6K 1000Hz bin ich wieder dabei, und das braucht ähnliche Datenraten.
MehlstaubtheCat hat sich um eine Dezimalstelle vertan! Was soll so ein Blödsinn von ~1600 FPS ... EINTAUSENDSECHSHUNDERT? Er meinte natürlich, dass 160FPS bei 4K die Grafikkarte schon ordentlich ins Schwitzen bringen kann, wenn diese Framerate konstant anliegen soll. Natürlich sollte man dann aber auch richtig rechnen können. Auf der anderen Seite sollte man abschätzen, ob eine solch offensichtlich irrwitzige FPS Angabe ernsthaft gemeint gewesen sein kann!
 
Da haben wir scheinbar eine stark verschiedene Meinung. Ich meine 6K 1000fps ernst. Kennst du die Artikel von Blurbusters? Um die sample and hold bedingte Bewegungsungschärfe zu umgehen, braucht es entweder gepulste Hintergrundbeleuchtung/Black Frame Insertion oder frame rates von 1000fps oder mehr. Blurbusters nennt immer wieder 1000Hz, die auf der Annahme basieren, dass auf einem UHD Bildschirm Bewegungen von 960 Pixel/Sekunde eine Unschärfe von nicht mehr als 1 Pixel haben sollen. Die 960 Pixel/s erscheinen mir recht willkürlich, d.h. abhängig von der maximalen Geschwindigkeit die man für relevant hält, ändert sich diese 1000Hz angabe. Und mit 6K bräuchte es noch mehr. Aber die Größenordnung kommt grob hin. Ich bin schlicht davon ausgegangen, das MehlstaubtheCat sich mit Motion Clarity auskennt, und daher wirklich 0,6-0,7ms/frame haben will. Was ich nicht in Betracht gezogen habe, ist die BFI/Strobing Option, also das er evtl nur von 0,6ms Persistenz gesprochen hat. 160fps mit strobing auf 0,6ms Persistenz würde ich nicht haben wollen, aber mit 500fps könnte das wieder hell genug und hinreichend flackerarm sein.
 
Was nutzt mit Schärfe wenn ich bei QD OLED wieder Farbsäume sehe? Nur die Inkjet Technologie von TCM kann das mit einer RGB Matrix verhindern.
 
Zurück
Oben