Welcher OLED TV ist für meine Situation geeignet?

FYI: Dolby Vision für den PC gibt es:
https://www.reddit.com/r/OLED_Gamin..._oled_running_at_144_with_dolby_vision_on_pc/

Btw. Samsung schummelt auch beim S95D wieder:
 
@eigsi124 Nein, sschummelt nicht, techtracks hat leider wieder diesen ungeeigneten Tonemappingtest aus dem avsforum verwendet, welcher auch bei den sony TVs deutlich niedrigere Spitzenhelligkeit ergibt.
Hier die Realszenario Tests von hdtvpolska
Screenshot_20240624-100236_YouTube.jpg

Screenshot_20240629-180452_YouTube.jpg


Vincent von hdtvtest hat den tv nicht grundlos als hellsten Consumer oled tv bezeichnet, er prüft üblicherweise recht gewissenhaft vor solchen Äußerungen und hat auch mitunter Zugang zum 4000 nits Masteringmonitor.

https://www.computerbase.de/forum/threads/vergleich-lg-g4-und-samsung-s95d.2192909/post-29542282
 
Suspektan schrieb:
@eigsi124 Nein, sschummelt nicht, techtracks hat leider wieder diesen ungeeigneten Tonemappingtest aus dem avsforum verwendet, welcher auch bei den sony TVs deutlich niedrigere Spitzenhelligkeit ergibt.
Auch rtings kommt zum selben Ergebnis. Es gibt einfach nach kurzer Zeit ein thermisches Drosseln, von dem sich auch der TV einige Minuten nicht erholt.
TecTracks hat ja nicht nur den einen Test gemacht und der G4 hatte damit keine Probleme.
Im direkten Vergleich ist auch der G4 heller.

Weiters musste Samsung beim S95C bereits mittels FW Update die Spitzenhelligkeit reduzieren, da sich die QD-OLED Panels zu schnell abnutzen… also nicht unwahrscheinlich, dass das beim S95D auch der Fall sein wird.

D.h. wenn überhaupt, kommt man nicht lange in den Genuss der hohen Helligkeit.
 
Zuletzt bearbeitet:
@Azghul0815 Das schon aber wenn ich mich zwischen den beiden TVs entscheiden müsste, würde ich nicht den kaufen, bei dem nicht der Hersteller versucht mich zu verarschen.
Der G4 ist im direkten Vergleich auch deutlich heller.

Außerdem sieht man beim S95C, dass Samsung bereits nach kurzer Zeit die max. Helligkeit via FW Update reduzieren muss, da sich die QD-OLED Panels zu schnell abnutzen.
 
eigsi124 schrieb:
Auch rtings kommt zum selben Ergebnis. Es gibt einfach nach kurzer Zeit ein thermisches Drosseln, von dem sich auch der TV einige Minuten nicht erholt.
So wie ich beschrieben habe, der massive Helligkeitsabfall tritt nur nach längerer konstanter Darstellung von hdr Peakhelligkeiten auf, was im Alltag komplett irrelevant bleibt und absolut NULL das Realszenario wiedergibt.
In realen Szenen werden sehr wohl 1500 nits+ erreicht wie die echten REALSZENENMESSUNGEN zeigen, also verbreite nicht weiter dieses Falschwissen.

eigsi124 schrieb:
TecTracks hat ja nicht nur den einen Test gemacht und der G4 hatte damit keine Probleme.
Sieh dir seine Ergebnisse zum sony an, auch weit ab von der Realität
Screenshot_20240623-194229_YouTube.jpg

Ich kenne das Testmaterial, da reduziert sich die Spitzenhelligkeit meines Panasonic jz oled nach wenigen Sekunden um min. 20%, befindet sich quasi schon mit Beginn der Messung im freien Fall.

Dieser von ihm verwendete "Tonemappingstest" eignet sich nicht zur Messung der Spiztenhelligkeit, die tatsächlichen Realszenenmessungen belegen es, aber die werden geflissentlich ignoriert, um diesen Dimmingbug in den Vordergrund stellen zu können.
Screenshot_20240624-100236_YouTube.jpg



Und nein, techtracks hat eben nicht seine Beobachtungen mit echten Realszenen belegt, sondern den tv nur weiter mit seinen Testpattern beansprucht und so das Dimming weiter provoziert.
Beim sony a95L hingegen hat er die Ergebnisse seines "Realszenario"tests hinterfragt und dann mit echten Szenen widerlegt, womit er letztlich die Untauglichkeit seines Realszenariotests sich selbst bewiesen hat.

Aber aus dieser Erkenntnis lernt er auch weiterhin nicht






Das ist ein Dimmingbug, seine Spitzenhelligkeit kann der TV dennoch im realen Betrieb abrufen, jedenfalls die 1500+

Und noch was zu rtings-
die messen beim s90d höhere real scene Helligkeit als beim s95d, was keinen Sinn ergibt.
Und:
Screenshot_20240629-213011_Samsung Internet.jpg

Rrings schreibt selbst, dass Dimming im Realbetrieb nicht auftritt, weil hdr Spitzlichter nicht über eine Minute an der gleichen Stelle verbleiben.
Abgesehen davon werden mit aktvem Tonemapping in der ersten Hallway Lights Szene trotz Anhebung des APLs sogar noch 1300 nits erreicht und rtings beschreibt die Szene als nicht gerade dunkel.
"The entire Screen should be bright"
https://i.rtings.com/assets/product...rightness-photo-hallway-large.jpg?format=auto

For our first real scene photo, we display this bright hallway scene. We measure the peak brightness of the two bright lights at the top of the scene and record the brightest measurement of the two. The small highlights are coded to be very bright, so on an ideal TV, they should measure around 1,950 cd/m². Aside from the two bright highlights, the entire scene should be bright,

Screenshot_20240629-214028_Samsung Internet.jpg



Also Helligkeotsreserven hat der TV und es wird definitiv nicht auf ca. 1100 nits im Realbetrieb begrenzt wie es techtracks darstellt.
Jedes Jahr das gleiche mit seinem "Realszenario" test, sony und samsung oled TVs mit 1500 nits + Peak erreichen da nur ca. 1000 oder gar weniger, lg ist von der Problematik nicht betroffen.
Ändert aber nichts an dem Fakt, dass dieser Test nicht die Realität abbildet, sondern belegt genau diesen.
Nächstes Jahr wieder das gleiche

Das von ihm verwendete Testmaterial ist frei verfügbar und ich kann gerne den Link nennen, falls Interesse besteht.
Die Metadaten weisem 1000 nits mdl/ cll aus, es kann bis zu zu 10000 nits abrufen und er verwendet dort die 4000 nits Szene.
Ich weiß auxh nicht, warum sie das Dimming auf meinem panasonic oled so stark triggert, kann mir aber vorstellen, dass auch andere Hersteller betroffen sind.
Ich sage auch nicht, dass er die Szene falsch gemessen hätte, sie stellt sich aber nun mal äußerst ungeeignet zur Beurteilung einer Realszenariohelligkeit heraus.
Ergänzung ()

Azghul0815 schrieb:
Und wie oft kommt dieses Szenario im realen Betrieb vor?
g4 oder s95d, beides Topgerate
Quasi nie, rtings und hdtvtestpolska sagen das auch selbst, als Tester muss man es aber berücksichtigen.
Es ist nur noch lächerlich wie man hier den Ergebnissen eines dilletatantischen Youtubers mehr Beachtung schenkt als international anerkannten Kalibrierern mit mehr als einem Jahrzehnt an Erfahrung und Zugang zu 4000 nits Masteringmonitor zwecks optischem Vergleich.
Und das obwohl dieser keine einzige reale Fimszene auf Helligkeit geprüft hat
Die echten Realszenenmessungen werden dann ignoriert - und zwar alle!
Ergänzung ()

eigsi124 schrieb:
Weiters musste Samsung beim S95C bereits mittels FW Update die Spitzenhelligkeit reduzieren, da sich die QD-OLED Panels zu schnell abnutzen
Finde ich bei rtings nichts zu, mal abgesehen davon, dass Spitznehlligkeit in hdr Szenen wie erwähnt nicht über einen langen Zeitraum abgefordet werden und der lg g3 im Langzeit Burnin Test ungleichmäßige Abnutzung zeigt, der s95c aber nicht. (Rtings aktualisiert seinen Langzeittest regelmäßig, man kann also den aktuellen Stand dort praktischerweise direkt einsehen)
20240305_094932.jpg

Ergänzung ()

eigsi124 schrieb:
D.h. wenn überhaupt, kommt man nicht lange in den Genuss der hohen Helligkeit.
So ein Schwachsinn
Screenshot_20240630-092752_Samsung Internet.jpg

Ist ein Extremtest mit dauerhaft Maximalhelligkeit
Zu HDR kann ich bei rtings auch keine deutlich niedrigeren Werte als vormals entnehmen, ca. 1300 nits Peak waren schon immer beim s95c üblich.
Ob nun 1350 oder 1250, mag schwanken, ok, aber den Unterschied bemerkt man selbst im Direktvergleich kaum.
eigsi124 schrieb:
Der G4 ist im direkten Vergleich auch deutlich heller.
Nein, je nach Szene ist mal der eine und mal der andere heller, evtl. auch eine Frage der Tonemappingalgorithmen und nicht nur der Panelkapazität.
Man kann nicht simpel festlegen, der g4 sei uneingeschränkt in Helligkeit überlegen, beispielsweise hdr Vollbildweiß limitiert lg auf um die 220 nits, der s95d erreicht da 300.
Aber auch das sagt wenig aus über die reale Performance

Letztlich ist auch der Bildmodus mit entscheidend, beispielsweise hebt lg's Dynamisches Tonemapping die Grundhelligkeit oft sehr stark an, womit sich in gewissen Szenen eine deutlich höhere Bildhelligkeit erzielen lässt, allerdings ergibt sich daraus auch eine kontrastschwächere Darstellung.
Samsung's Tonemapping agiert da ganz anders und je nach Umgebungshelligkeit und persönlicher Präferenz bevorzugt man das eine oder das andere.

Gesättigte gelbe hdr Peaks bleiben z.B. weiterhin eine Schwäche der woled tvs und zeigen z.T. eine grünliche Verfärbung, selbst mit mehreren woled tvs getestet, aich mla woled.


Wir reden hier von high end TVs mit jeweils eigenen Stärken und Schwächen, über die Helligkeitsunterschiede sollte man sich hier weniger sorgen, als Themen wie Bildabstimmung gewisser Modi, Natürlichkeit von memory colors wie Hauttönen, Kalibrierbarkeit (falls erwünscht), Processing, nearblack Darstellung (die schwankt nämlich trotz gleichem Modell leider weiterhin), Reflexionsverhalten bzw. persönliche Präferenz des Coatings, etc.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Azghul0815
Fehlermeldung schrieb:
Ich habe einen WOLED Monitor und bin ehrlich gesagt von der Farbwiedergabe heller Farben etwas enttäuscht. Verglichen mit meinem IPS sehen Gelbtöne echt fad aus
Ja, tritt bei woled mit hohen Peaks z.T. leider auf, bin auch nicht von der Farbwiedergabe meines woled tvs durchgängig überzeugt.
Ich weiß soagar von woled tv Besitzern, die die Farbdarstellung eines Plasma TVs weiterhin überlegen sehen, trotz höherem Farbraum.
Ich vermute, das undefiniertere RGB Farbspektrum als Grund, letztlich ermischt ein TV alle Farben aus diesen Frequenzbändern und kann diese nicht jeweils für sich variieren, nur die Amplituden regeln.
Man sieht, dass rot wie grün auch gelbanteile enthält
Screenshot_20240106-165822.jpg


Nur als Beispielfotos, die natürlich nie den realen Bildeindruck direkt wiedergeben können, habe aber auch eigene angefertigt
Screenshot_20240513-205538_YouTube.jpg




Screenshot_20240513-213122_YouTube.jpg

Ergänzung ()

Azghul0815 schrieb:
In meiner Wahrnehmung und der meiner Frau, nein.
Ich kam aber sehr günstig an die Kiste.
Uff, das sehen aber einige Tester deutlich anders und ist in diversen Vergleichen auch deutlich zu sehen.
Hängt aber natürlich auch davon ab, mit welcher Spitzenhelligkeit das Material in hdr gemastert wurde und variiert von Szene zu Szene.
Macht es irgendwie schwierig einzuschätzen für Außenstehende
 
Zuletzt bearbeitet:
@Azghul0815 Hmm, der s90d qd-oled war in 65" kürzlich für effektiv 1550€ erhältlich, der s95D ist vom Cashback ausgeschlossen und da liegt man derzeit ca. 800€ drüber.
War leider mit der Hauttondarstellung des s95b qd-oled im Vergleich zu meinem Panasonic woled nicht so zufrieden, hoffe die hat sich seit dem s90c gebssert wie einige Nutzer berichten.
 
Suspektan schrieb:
ch kenne das Testmaterial, da reduziert sich die Spitzenhelligkeit meines Panasonic jz oled nach wenigen Sekunden um min. 20%, befindet sich quasi schon mit Beginn der Messung im freien Fall.
Vermutlich werden hier viele TVs nach kurzer Zeit etwas droppen aber halt nicht von geboosterten 1800nits auf 1100 nits. Beim G4 ist das ganze kein Thema, da frage ich mich warum die das klnnen.
Suspektan schrieb:
Dieser von ihm verwendete "Tonemappingstest" eignet sich nicht zur Messung der Spiztenhelligkeit, die tatsächlichen Realszenenmessungen belegen es, aber die werden geflissentlich ignoriert, um diesen Dimmingbug in den Vordergrund stellen zu können.
Macht er auch nicht
Suspektan schrieb:
So wie ich beschrieben habe, der massive Helligkeitsabfall tritt nur nach längerer konstanter Darstellung von hdr Peakhelligkeiten auf, was im Alltag komplett irrelevant bleibt und absolut NULL das Realszenario wiedergibt.
In realen Szenen werden sehr wohl 1500 nits+ erreicht wie die echten REALSZENENMESSUNGEN zeigen, also verbreite nicht weiter dieses Falschwissen.
Die Frage ist, warum dropped die max Helligkeit bei 80% Weißsättigung auf 1100nits? Die Antwort ist: Samsung boostet bei Testbilderkennung auf 1800nits um möglichst gute Testwerte zu erhalten..
Alleine die hohen Temperaturen, die erreicht werden, finde ich von Samsung fahrlässig. Da wunderts mich nicht, dass in meinem Umfeld bei diversen Samsung TVs regelmäßig die Hintergrundbeleuchtung flöten geht.
Suspektan schrieb:
So ein Schwachsinn
In deiner eigenen Grafik sieht man, dass der S95C nach 7200 h schon 25% weniger Helligkeit hat. Zum Vergleich der G2 hat da 12% und der G3 hat bei 6000h 8% weniger Helligkeit.
Weiters zeigt der Trend beim 95C stark nach unten, während die LG relativ stabil blieben.
 
Zuletzt bearbeitet:
Ach Leute, ....verschiedene Testszenarien, verschiedene Einstellungen, unterschiedliche Bildmodi, veralteten/verbesserte Firmware,... was sollen die verschiedenen Testvergleiche da groß ausagen, somit etwas Objetives auf einen Nenner zu bringen ist unmöglich, damit bekommt man nur eine stark verzerrte Tendenz
eigsi124 schrieb:
Alleine die hohen Temperaturen, die erreicht werden, finde ich von Samsung fahrlässig.
Welche Temperaturen werden denn dMn erreicht?
eigsi124 schrieb:
Da wunderts mich nicht, dass in meinem Umfeld bei diversen Samsung TVs regelmäßig die Hintergrundbeleuchtung flöten geht.
Komisch das man dazu nichts liest, egal ob deut-, engl-, osteurop.-, asia.-sprachige Foren.
Du wirst es schwer haben bei den Oberklaase Modellen mit MiniLED überhaupt ne Hand voll Berichte über Backlightausfällen zu finden.
Und wenn, dann betrifft es zu 99% die Billigreihen, aber dann auch jeden Hersteller
 
onetwoxx schrieb:
Welche Temperaturen werden denn dMn erreicht?
ca. 70°C Oberflächentemperatur beim Panel.

onetwoxx schrieb:
Komisch das man dazu nichts liest, egal ob deut-, engl-, osteurop.-, asia.-sprachige Foren.
Du wirst es schwer haben bei den Oberklaase Modellen mit MiniLED überhaupt ne Hand voll Berichte über Backlightausfällen zu finden.
Und wenn, dann betrifft es zu 99% die Billigreihen, aber dann auch jeden Hersteller
Sind TVs der Mittelklasse aber kann natürlich sein ,dass das eine subjektive Wahrnehmung in meinem Umfeld ist. LGs, egal welche Klasse, sind mir mit dem Problem noch nicht untergekommen und da hab ich welche im Umfeld die 10 Jahre und auch älter sind.
 
Bei welchem TV Modell sind es die 70°C und unter welchen Bedingungen und Einstellungen?
 
@onetwoxx S95D 10% HDR Spitzenhelligkeitstestbild.
 
Lol, dann solltest du dir mal die Messung vom G4 Anschauen, ab ca Minute 11.
Wenn für dich 70°C beim Samsung schon fahrlässig sein sollen, was sind dann die 95°C bei LG ?
 
Zuletzt bearbeitet:
onetwoxx schrieb:
Lol, dann solltest du dir mal die Messung vom G4 Anschauen, ab ca Minute 11.
Wenn für dich 70°C beim Samsung schon fahrlässig sein sollen, was sind dann die 95°C bei LG ?
ja, aber lg darf das, der drosselt wenigstens nicht und hält schön die Temperatur, super
Das frühere Burnin des g3 im Langzeittest wird auch ignoriert, bei samsung würde es natürlich als Problem gesehen.
Abgesehen davon ist die Diskussion maximal unnütz, weil HDR Spitzlichter in realen Inhalte nicht über einen längeren Zeitraum konstant abgerufen werden und die genannten Temperaturen somit nicht erricht werden.
Wesentlich für die Abnutzung ist eher die allgemeine Bildhelligkeit., z.B. sdr auf maximaler Helligkeit + ggfls. Kontrasterweiterung bei ohnehin schon farbintensiven Inhalten.

onetwoxx schrieb:
Ach Leute, ....verschiedene Testszenarien, verschiedene Einstellungen, unterschiedliche Bildmodi,
Bezogen auf die Messung der realen Spitzenhelligkeit?
Nein, dort werden nicht unterschiedliche Bildmodi mit verschiedenen Einstellungen verwendet , sondern mòglichst native hdr Wiedergabe.
Und wie bereits erwähnt versagte sein "Realbildszenario" schon immer mit sony/ samsung oled tvs und ergab dort deutlich niedrigere Spitzenhelligkeiten, hat er beim sony a95l auch einsehen müssen. (1400 vs. ca. 800)
Auch der a95k erreicht in realen Szenen ca. 1000 nits und mit seinem "Realbildszenario nur 600.
Die Spitzenhelligkeit meines panasonic oled befindet sich quasi schon mit der zweiten Messaktualiserung direkt im Fall, verwende ich dieses Testmaterial, ist nun mal so.

Da nützt es auch nichts ,dass lg von dieser Problematik nicht betroffen ist, außer man will lg oled tvs die grundsätzlich höhere reale Spitzenhelligkeit zuschreiben.

Oder beziehst sich deine Aussage auf allgemeine Helligkeitsvergleiche?
Da wird auch trotz vergleichbarer Einstellungen nicht ein TV als der eindeutig in jeder Szene hellere hervorgehen.
Sei es aufgrund von tonemappingalgorithmen, Vorteile bestimmter Farbhelligkeiten, Metadatenorientierung (mdl, cll), etc
eigsi124 schrieb:
Macht er auch nicht
Doch, die niedrigen Messwerte seines "Realbildszenarios" stellt er beim s95D nicht in Frage, beim sony a95L tat er das.
Mit den weiteren Spitzenhelligkeitsmessungen über längeren Zeitraum provozierte er nur noch weiter das Dimming, von einem realszenario könnte man da nicht weiter entfernt sein.





eigsi124 schrieb:
Vermutlich werden hier viele TVs nach kurzer Zeit etwas droppen aber halt nicht von geboosterten 1800nits auf 1100 nits.
Screenshot_20240623-194229_YouTube.jpg


Screenshot_20240623-194024_YouTube.jpg




eigsi124 schrieb:
n deiner eigenen Grafik sieht man, dass der S95C nach 7200 h schon 25% weniger Helligkeit hat. Zum Vergleich der G2 hat da 12% und der G3 hat bei 6000h 8% weniger Helligkeit.
in einem unrealistischen Extremtest mit dauerhaft maximaler Bildhelligkeit
Ändert nichts daran, dass die Aussage
eigsi124 schrieb:
D.h. wenn überhaupt, kommt man nicht lange in den Genuss der hohen Helligkeit.
Schwachsinn bleibt,
auch weil zum einen die 5000 Stunden bis zum Helligkeitsabfall kaum in kurzer Zeit erreicht werden und weil zwischen 600 zu 500 nits kein derartiger Unterschied entsteht, welcher über "hell" und "zu dunkel" entscheiden würde.
Wer mal 600 mit 500 nits verglichen hat, weiß das auch

Die Helligkeit sinkt bei LG sogar noch viel eher ab, ja steigt wieder an, aber nützt einem in der Zeit erstmal auch nichts, außer man will lange warten.

Außerdem führt rtings den Test bei lg wrgb oled mit sdr auf maximaler Helligkeit und "höchste Helligkeit - hoch" durch, womit das weiße Subpixel überproportional viel Weiß beimischt und tendenziell Farben eher ausbleicht.
Der samsung qd-oled mit rgb Subpixelmatrix erschummelt sich seine Helligkeit nicht durch Weißbeimischung und erhält somit die Farbsättigung vollständig.
Ergänzung ()

eigsi124 schrieb:
Beim G4 ist das ganze kein Thema, da frage ich mich warum die das klnnen.
der s95D erreicht in realen Szenen 1500 nits+, kein Thema
Screenshot_20240629-180452_YouTube.jpg

Screenshot_20240624-100236_YouTube.jpg

Screenshot_20240701-171432_YouTube.jpg


Und zum Thema Dolby Vision Gaming: zum einen wird es von kaum einem Spiel tatsächlich unterstützt und wenn doch, dann oft nur mit statischen Metadaten, was den Vorteil von dv wiederum etwas einschränkt.
Wie soll ein Spiel auch dynamische Metadaten verwenden, wenn es im Gegensatz zu Filmen nicht aus vorgegebenen Szenen besteht, für die man jeweils eigene Metadaten anlegen könnte?

Und lg's DV Gamemode ist oft genug äußerst ungenau abgestimmt, was dieser techtracks natürlich nicht erwähnt, ebenso wenig wie samsung's gamemotion+.
Wie auch, kann er doch DV ohnehin nicht auf Genauigkeit prüfen, weil die von ihm verwendete kostenfreie Messsoftware hcfr DV eh nicht unterstützt.
Screenshot_20240701-173055_YouTube.jpg


Darf ja jeder Spaß mit einer ungenauen Darstellung haben wie er möchte, aber ich bevozuge dann doch ein brauchbares eotf Tracking ggü. einem aufgehellten DV Gamemode.
 
Zuletzt bearbeitet:
@Azghul0815
Es ist bei mir jetzt der S90c geworden. War dann nochmal in einem anderen Media Markt und hab die Geräte verglichen - und war erstmal der Meinung keinen großen Unterschied zu sehen. Schwarz auf dem LG n hauch besser, Farben auf dem Samsung n hauch besser, aber leider lief da auch nur SDR Bildmaterial. Bin dann nochmal mit meiner Freundin hin, da ich ihre unvoreingenommene Meinung hören wollte und sie hat gar keinen Unterschied zwischen den Panels wahrgenommen. Also habe ich mich dann einfach für den Günstigeren entschieden. Für knapp unter 1000€ ist das schon ein mega P/L Verhältnis.
Und bin sehr zufrieden.

Der S90C ist irre gut. Das mit dem schlechten Schwarz fällt eigentlich nur auf, wenn der Fernseher aus ist. Ansonsten ist es aber auch nicht mehr wahrnehmbar, sobald man die Plissees zumacht.
Ich weiß gar nicht was man mit mehr Helligkeit will. Teils tut es schon so in den Augen weh und ich hab in einigen Spielen die Helligkeit reduzieren müssen - sobald es dunkel ist im Grunde sogar in allen. Wobei ich gelesen habe, dass die inzwischen Verbauten Panele zweiter Generation auch nochmal heller sind als die, welche zuerst verbaut waren und in den meisten Tests untersucht wurden.

Spannend finde ich den direkten Vergleich mit meinem LG 27 Zoll MLA WOLED. Wenn man sie nebeneinander anschaut sieht der LG echt etwas verwaschen aus.
Obwohl er LG nochmal ein Stück weniger hell ist, finde ich den Unterschied bei den Highlights nicht allzu groß. Auch bei den sehr intensiven Farben in Cyberpunk habe ich mir den Unterschied gewaltiger vorgestellt. Wirklich besser ist eigentlich nur die Darstellung von Gelb und Metallfarben.

Irgendwie finde ich die Frage ob der Bildschirm nach 5000h noch zu 100% funktioniert auch komplett egal. Wie oft benutze ich den? Alle paar Tage mal ein paar Stunden. Wenn man von im Schnitt einer Stunde pro Tag ausgeht ist man bei 10 Jahren Nutzungsdauer. Bei 2h sind es 5 Jahre. Beides Zeiträume in denen ich als Techniknerd ohnehin was neues haben werde. Und selbst wenn nicht habe ich dann für 100-200€ im Jahr viel Spaß gehabt. Nichts, was einem das Genick bricht, wenn man bedenkt, wie viel Wertverlust man allein mit der GPU heutzutage hat.

Ich glaube es ist ein wenig wie Intel/AMD. Man kann beides kaufen und Spaß damit haben.
 
  • Gefällt mir
Reaktionen: Azghul0815
Zurück
Oben