Sehe ich nicht so. Ich hatte bis dieses Jahr einen Samsung QLED mit 2000 nits und da war man leicht geblendet wenn in einem Film ein Scheinwerfer oder die Sonne direkt angestrahlt hat und das war einfach cool da passend. Mein neuer LG 65G3 ist da zwar hell, aber mehr auch nicht. Den Effekt von QLED vermisse ich da. 🤷🏻♂️Mimir schrieb:Kein HDR Content braucht 500 nits vollflächiges Weiß und auch keine 1000 nits auf 8% fläche.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News True Black 1000 und ClearMR 21000: Neue VESA-Standards für schnellere und hellere OLED-Displays
person unknown
Lt. Junior Grade
- Registriert
- März 2019
- Beiträge
- 475
seh ich auch so. Wir müssen ohnehin erst mal lernen, die Werte für uns einzuordnen.Aduasen schrieb:Meckern kann man immer.
Ich finde es aber grundsätzlich in Ordnung wenn Standards angepasst werden sobald es die technischen Möglichkeiten dafür gibt.
War ich im Verkauf bei den Ersten 14" Vivobooks (*ASUS) vor knapp 2 Jahren noch uneingeschränkt begeistert, sind mir bei den aktuellen (und preiswerten) 15,6er Modellen zum Ersten Mal die roten Farbsäume unangenehm aufgefallen. Vermutlich werde ich meine Neuanschaffung (27" 1440p) doch erst mal mit einem "normalen" LCDs befriedigen. Bis der dann alt ist, kann OLED noch etwas reifen und die Herstellungspreise in sozialverträglichere Regionen sinken.
- Registriert
- Aug. 2012
- Beiträge
- 3.850
FXAA/SMAA = Matsch. MSAA war immer ein knackiges Bild. Ich weiß noch den Aufschrei als WoW Mists of Pandaria rauskam und MSAA nicht mehr anwählbar war. Was war das eine Matschepampe. Die Ausrede von Blizzard war deferred Rendering, und sie sagten es wäre technisch kein MSAA mehr möglich.Mimir schrieb:Danach ging es relativ lange mit FXAA und SMAA weiter, welche die Kanten nur weichgezeichnet haben, weil MSAA mit den neuen deferred renderern nicht kompatibel war
Als der Shitstorm groß genug war, tauchte MSAA wieder im Grafikmenü auf. Komisch aber auch....
TheGhost31.08 schrieb:FSR noch matschigere Grafik bekommt?
Komisch, dass in den CB Tests FSR Quality das Bild schärfer gemacht hat. 🤔
- Registriert
- Aug. 2012
- Beiträge
- 3.850
Weil die OLED so schnell schalten empfindet man "früher" ein Ruckeln bei niedrigen FPS. Wenn man keine potente Grafikkarte hat ist dann ingame Motion Blurr angesagt um das ruckelige Spielgefühl einzudämmen.Vigilant schrieb:Wenn ich das richtig erinnere, hängt der Grad nicht vorhandener Bewegungsunschärfe bei aktuellen OLED-Monitoren u.a. auch an den FPS, oder?
Ergänzung ()
Das macht FSR. Aber leider an vielen Kanten wo keine Kanten sind, und dann haste den Flimmereffekt auf dunklen Flächen.|Moppel| schrieb:Komisch, dass in den CB Tests FSR Quality das Bild schärfer gemacht hat.
Blood011
Fleet Admiral
- Registriert
- Feb. 2011
- Beiträge
- 19.127
Kommt halt auf das material an, HDR bedeutet ja nicht automatisch das alles mit 1000Nits läuft, was heute immer noch nur die wenigsten begreifen.Mimir schrieb:Wenn ich meine Spiele in HDR mit dem Reshade HDR Analyse filter messe, dann liegt die durchschnittliche Helligkeit des Bildes meist so bei 50 nits. (Trotz 1000 nits im peak)
80% von HDR Content läuft halt weit unter 1000Nits.
Aber so direkter taschenlampenschein, kann ruhig mit 500+ Nits daher kommen.
Oder ne Blend bei CS.
Wow.Mimir schrieb:Das letzte mal als Grafik nicht "matschig" war, war zu Zeiten, als MSAA in Spielen genutzt werden konnte. Das war so ca. bis 2010. Danach ging es relativ lange mit FXAA und SMAA weiter, welche die Kanten nur weichgezeichnet haben, weil MSAA mit den neuen deferred renderern nicht kompatibel war oder extrem viel performance gekostet hat, so dass man auch gleich das gesamte Bild supersamplen hätte können. War also sinnfrei.
Später folgte dann mit TAA der erste Post Processing Algorithmus, der auch wirklich effektive Kantenglättung durch zeitliches supersampling bieten konnte. Seitdem haben wir in Form von DLSS, TSR und XeSS deutlich leistungsfähigere Algos, die TAA deutlich überbieten.
Seit ~2010 sehe ich daher einen deutlichen Anstieg bei der Bildqualität.
Dazu kommt, dass wir dank DLSS und co jetzt gleichzeitig sehr hohe Ausgabeauflösungen bei zugleich sehr hohen Frameraten nutzen können, was die Bildschärfe sowohl im standbild als auch in bewegung deutlich erhöht.
Klassisches MSAA mag zwar prinzipiell schärfer gewesen sein, hatte aber selbst mit 4x MSAA noch ziemlich starkes Kantenflimmern. 4x MSAA war in den neuesten Spielen aber selten sinnvoll nutzbar, weil es extrem viel Performance gekostet hat. An 8x MSAA war kaum zu denken und selbst das hat nicht alle Bildelemente erfasst.
Und schlechte Frameraten sind ja auch kontraproduktiv, um ein scharfes Bild in bewegung zu erzielen. MSAA hat durch die performancekosten also ein scharfes Bild im Standbild gebracht, es aber in bewegung umso mehr zunichte gemacht, da geringe frameraten umso mehr Unschärfe auf Hold-type Displays erzeugen.
Von daher bin ich eigentlich ziemlich zufrieden mit der Entwicklung. Früher hat AntiAliasing mit SSAA extrem viel performance gekostet, weil das gesamte Bild in der vielfachen Auflösung berechnet werden musste. Mit MSAA hat man das dann optimiert und die last auf die Geometriekanten reduziert, war aber immernoch sehr fordernd. Dann kam TAA, welches zumindest nahezu "gratis" AntiAliasing bieten konnte, was schon ein krasser Fortschritt war und heute gewinnt man sogar noch performance dazu, wenn man AntiAliasing in form von DLSS und co nutzt. Das Bild mag nicht so pixel perfect scharf sein, wie früher mit MSAA, aber dafür ist es sauber geglättet. Das ist etwas, was damals nahezu unerreichbar gewesen ist.
Wenn dir die Bildschärfe heutzutage trotz DLSS und 4K Display nicht reicht, hält dich nichts davon ab, das ganze mit klassischem Supersampling (Downsampling via DSR) zu kombinieren.
Und na ja, DLSS und FSR im einem Satz zu erwähnen finde ich schwierig. Der Unterschied in Sachen Bildschärfe zwischen DLSS und FSR ist so groß wie noch nie. DLSS hat mit Version 3.7 das entwickler preset E eingeführt, das deutlich schärfer ist, sowohl in bewegung als auch im Standbild und kommt dabei völlig ohne Scharfzeichner aus. FSR hingegen ist mit Version 3.1 den völlig entgegengesetzten Weg gegangen und zeigt jetzt ein deutlich unschärferes Bild, als noch mit Version 2.2.
DLSS und FSR damit hinsichtlich Qualität kaum noch vergleichbar.
Unterm Strich würde ich daher auf jeden Fall sagen, dass wir heutzutage mit 4K 240+ Hz OLEDs mit HDR und einer Grafikkarte mit DLSS noch nie ein so gutes Bild hatten, wenn man mal Auflösung und die heutzutage auch gleichzeitig hohen Frameraten mit High End Hardware berücksichtigt. Das war früher so überhaupt nicht möglich, da man selbst in Standardauflösungen mit 4x MSAA jede GPU in die Knie gezwungen hat.
Da kennt sich jemand gut aus. (y)
Wie genau kann man denn die presets via dlss wechseln und wo sind die Unterschiede? Gewinnt/verliert man je preset Leistung?
Supersampling: wenn man sowas im nvidia Control Panel Zuschaltet für ein Spiel, bringt das bei eingeschaltetem dlss dann automatisch ein schärfere Bild? Wieviel Leistung kostet das?
Grüße
theGucky
Lt. Commander
- Registriert
- Dez. 2020
- Beiträge
- 1.466
@Vigilantt3chn0 schrieb:Die LG C4 OLEDs haben alle nur Level 9000.
Bei OLEDs gibt es ja nur an oder aus, da gibt es keine unscharfen Pixel. Die haben automatisch den höchstn Level.
Nur bei TN/IPS/VA gibt es einen fließenden Wechsel der Pixel, weil sich die Flüssigkristalle, welche die Farben darstellen, bewegen.
Dadurch haben TN/IPS/VA einen Motion Blur ähnlichen Effekt, der (gefühlt!) mit der steigenden hz-Zahl des Monitors abnimmt. Genau dafür ist der ClearMR Grad.
Es gibt auch BlackFrameInsertion BFI, welches lediglich das Backlight für einen Moment ausschaltet um diesen Wechsel zu kaschieren. Denn ohne Backlight sieht man kein Bild, solange man nicht von vorne mit einem hellen Licht reinleuchtet.
Was also den ClearMR Level angeht, ist ein OLED immer besser als TN/IPS/VA.
Auch wenn letzteres über 500hz hat. Irgendwann nimmt einfach diesen Übergang und damit den Motion Blur schlicht nicht mehr wahr, da ist er aber immer noch.
Zuletzt bearbeitet:
@BobMahoo
Seit DLSS 3.8 ist Preset E für alles außer DLAA und Ultra Performance Standard. Also einfach die DLL tauschen und fertig.
Vorher wurden häufig Preset C ("schlechte" Rekonstruktion) oder D (Ghosting) genutzt. Preset E bietet nun quasi das Beste aus beiden Welten.
Bzgl. Supersampling beziehst du dich vermutlich auf DLDSR? Der optische Mehrgewinn ist meines Erachtens immens, sodass DLDSR mit DLSS Performance meist besser aussieht als native Auflösung mit DLAA. Der Performance Impact ist für mich meist weniger das Problem als der Mehrbedarf an VRAM, bei dem es dann auch mit der 4080 häufig sehr eng wird. Aber Luxusproblem
Seit DLSS 3.8 ist Preset E für alles außer DLAA und Ultra Performance Standard. Also einfach die DLL tauschen und fertig.
Vorher wurden häufig Preset C ("schlechte" Rekonstruktion) oder D (Ghosting) genutzt. Preset E bietet nun quasi das Beste aus beiden Welten.
Bzgl. Supersampling beziehst du dich vermutlich auf DLDSR? Der optische Mehrgewinn ist meines Erachtens immens, sodass DLDSR mit DLSS Performance meist besser aussieht als native Auflösung mit DLAA. Der Performance Impact ist für mich meist weniger das Problem als der Mehrbedarf an VRAM, bei dem es dann auch mit der 4080 häufig sehr eng wird. Aber Luxusproblem
Vigilant
Vice Admiral
- Registriert
- Mai 2008
- Beiträge
- 6.936
DLDSR auf 4K verwende ich gerne mit dem WQHD-Monitor, sofern die GPU-Leistung für gute FPS ausreichen, ansonsten kommt DLSS hinzu (wenn verfügbar). Der Effekt auf die Bildqualität ist deutlich. Gerade bei etwas älteren Titeln kann man so die Performance-Reserven der GPU, sofern vorhanden, gut nutzen.
Mumbira
Commander
- Registriert
- Feb. 2012
- Beiträge
- 2.674
Knackige Standbilder konnte MSAA gut. Aber das ging auch komplett ohne AntiAliasing.FreedomOfSpeech schrieb:MSAA war immer ein knackiges Bild.
Mit der Zeit wurde MSAA einfach obsolet, da es nur auf geometrische Kanten angewendet wurde. Mit dem Anstieg an Techniken, insbesondere Reflexionen etc. wurde es irgendwann nach und nach durch andere Verfahren wie FXAA etc. ersetzt oder kombiniert. Daran hat kein Weg vorbei geführt, ausser man will ein knackiges Bild, was aber durch Kantenflimmern ungenießbar ist sobald es sich bewegt.
Daher war TAA ein guter Kompromiss, da es nun auf das ganze Bild angewandt wurde. Auch wenn es ein wenig matschig aussah.
Aktuell ist DLSS oder besser noch DLAA wohl das Beste aus allen Welten und hat so gut wie keine Nachteile.
Rein von der Bildqualität kommt nichts an SSAA ran, aber das ist nunmal deutlich zu rechenintensiv. Die Performancereserven sind besser in anderen Techniken wie Raytracing, Ambient Occlusion etc. aufgehoben. Auf der einen Seite hat man DLSS was sich positiv auf die Performance auswirkt und auf der anderen Seite SSAA was direkt mal mindestens die FPS halbiert oder viertelt.
M@tze schrieb:Sehe ich nicht so. Ich hatte bis dieses Jahr einen Samsung QLED mit 2000 nits und da war man leicht geblendet wenn in einem Film ein Scheinwerfer oder die Sonne direkt angestrahlt hat und das war einfach cool da passend. Mein neuer LG 65G3 ist da zwar hell, aber mehr auch nicht. Den Effekt von QLED vermisse ich da. 🤷🏻♂️
Welcher Film war das denn? Die meisten Filme erreichen in der Spitze kaum 1000 nits, viele bleiben sogar unter 800. Ist natürlich super, wenn Filme das ausnutzen, aber selbst dann ist es eben oft nur ein kleiner Teil des Bildes. Zumal es in einem dunklen raum sehr schnell extrem unangenehm werden kann, wenn zu hohe Helligkeiten genutzt werden. Es hat keinen Sinn einen Film zu sehen, wenn man alle 10 sekunden wegschauen muss. Den Filmemachern ist das auch bewusst, weshalb eben sehr selten überhaupt 1000 nits in der Spitze genutzt werden, obwohl der Farbraum bis zu 10.000 nits bieten würde. Das Auge hat halt auch nur einen sehr begrenzten dynamikumfang. Wir können zwar höhere Helligkeiten erfassen, wenn man raus geht, haben wir ein zigfaches der Helligkeit, aber dann muss sich das auge erst darauf adaptieren, was dazu führt, dass die Details in dunklen bereichen absaufen. Man kann also nicht einfach 10.000 nits aufs Auge ballern und dann erwarten, dass der Zuschauer noch irgend was anderes erkennen kann (von der schmerzhaften blendwirkung ganz zu schweigen.) In einem dunklen raum macht es also überhaupt keinen Sinn, über 1000 nits zu gehen, weil das sonst zu massivem Detailverlust aufgrund der Adaption des Auges führen würde. In einem hellen Raum müsste man dann zudem nicht nur die Spitzenhelligkeit anheben, sondern das gesamte Gamma.... Es ist... kompliziert.
Abgesehen davon muss man auch unterschieden, wie der TV eingestellt ist. Wenn dynamic tonemapping aktiv ist, dann hellt der TV das Bild häufig nachträglich auf, um die Helligkeit des Panels voll auszunutzen für einen "beeindruckenderen HDR Effekt". Führt aber auch dazu, dass Szenen auch generell viel zu hell bzw. mit falschem Gamma dargestellt werden. Ich halte davon nichts. Das wäre dann eben eher was für das Filmeschauen bei Tag.
HDR ist nunmal dazu gedacht, dass der TV 1:1 die Helligkeit wiedergibt, wie sie im Film vorliegt, ohne selbst was daran zu drehen. HDR arbeitet nämlich mit absoluten helligkeitswerten, während bei SDR immer nur mit relativen helligkeitswerten gearbeitet wurde (was aber auch dazu geführt hat, dass viele Leute ein viel zu helles SDR Bild gewohnt sind, weil die wenigsten in einem abgedunkelten Raum mit einem auf 100 nits kalibrierten TV schauen... Aber das führt jetzt zu weit.
Blood011 schrieb:Kommt halt auf das material an, HDR bedeutet ja nicht automatisch das alles mit 1000Nits läuft, was heute immer noch nur die wenigsten begreifen.
80% von HDR Content läuft halt weit unter 1000Nits.
Aber so direkter taschenlampenschein, kann ruhig mit 500+ Nits daher kommen.
Oder ne Blend bei CS.
Ja, richtig. 80% des Bildes ist nicht nur weit unter 1000 nits, sondern idr. auch weit unter 100 nits. 100 nits ist wie gesagt bereits das was bei SDR Inhalten normales Weiß sein sollte. Aber die wenigsten haben ihren TV so eingestellt. Da wird SDR auf voller Helligkeit geballert und bei HDR natürlich dynamic tonemapping genutzt. Am Ende ist das Bild doppelt bis dreimal so hell wie es sein sollte. Spätestens dann macht es eben überhaupt keinen Sinn mehr darüber zu diskutieren, weil die Ausgangslage und überhaupt die Vorstellung eines guten oder korrekten Bildes überhaupt nicht mehr vergleichbar ist.
FreedomOfSpeech schrieb:FXAA/SMAA = Matsch. MSAA war immer ein knackiges Bild. Ich weiß noch den Aufschrei als WoW Mists of Pandaria rauskam und MSAA nicht mehr anwählbar war. Was war das eine Matschepampe. Die Ausrede von Blizzard war deferred Rendering, und sie sagten es wäre technisch kein MSAA mehr möglich.
Als der Shitstorm groß genug war, tauchte MSAA wieder im Grafikmenü auf. Komisch aber auch....
MSAA ist bei deferred Rendering möglich, aber praktisch sinnfrei.
Schau dir mal GTA V als beispiel an. Das ist immernoch recht aktuell.
Das rennt auf ner aktuellen High End GPU in 4K mit - keine Ahnung, 200 FPS oder so.
Schaltet man 2x MSAA ein, geht es schon runter auf 120 FPS. 4x MSAA bereits auf 80-90 FPS.
Und das Bild flimmert trotzdem wie hölle, weil MSAA bei deferred rendering nur noch einen Bruchteil der Kanten erfasst.
Mit deferred Rendering wird MSAA nicht nur extrem teuer, sondern auch extrem wirkungslos.
Es kostet praktisch genauso viel Rechenleistung, wie richtiges SSAA bzw. Supersampling des kompletten Bildes, bietet aber viel viel schlechtere Qualität.
Und jetzt ist GTA V noch ein Spiel, das für die Playstation 3 entwickelt wurde. Mittlerweile werden viel komplexere Shader eingesetzt, die auf temporale Daten angewiesen sind. MSAA würde diese Shader zusätzlich stark flimmern lassen. Man hätte also nicht nur schlechte Kantenglättung, extrem miese performance, auch sämtliche Shader würden wie verrückt flimmern. Das wäre die Hölle.
MSAA ist heutzutage einfach nicht mehr brauchbar. Es war schon vor 10 Jahren unbrauchbar.
Ja, es gibt einige Ausnahmen wie Forza, die ihre ganze Engine bis heute um MSAA herum designed haben, aber selbst die setzen mittlerweile auf TAA, weil sie selbst gemerkt haben, dass sie mit MSAA endgültig nicht mehr weiter kommen.
Und ja, dass FXAA und SMAA kompletter Müll sind hab ich auch nie bestritten. Das hat für mich mit AntiAliasing nichts zu tun.
BobMahoo schrieb:Wow.
Da kennt sich jemand gut aus. (y)
Wie genau kann man denn die presets via dlss wechseln und wo sind die Unterschiede? Gewinnt/verliert man je preset Leistung?
Supersampling: wenn man sowas im nvidia Control Panel Zuschaltet für ein Spiel, bringt das bei eingeschaltetem dlss dann automatisch ein schärfere Bild? Wieviel Leistung kostet das?
Grüße
Das vom Entwickler festgelegte Preset kannst du via DLSS Tweaks oder den Nvidia Profile Inspector überschreiben. Das ist ab DLSS 3.1 möglich.
Preset E kam aber erst mit 3.7 dazu.
Der Unterschied bei den Presets (es gibt A bis F) ist einfach das Alter sowie unterschiedliche Charakteristiken bzgl. Bildqualität. Performanceunterschiede gibt es nicht.
Preset A und B sind veraltet, Preset C bietet verringertes Ghosting aber schlechteres AntiAliasing, Preset D hat mehr Ghosting, aber dafür besseres AntiAliasing und schärfere Kanten/feinere Details.
Preset E bietet das bisher schärfste und detaillierteste Bild mit kaum noch sichtbarem Ghosting. Also das beste aus allen Welten. Das ist das neueste Preset seit 3.7.
Preset F ist etwas weicher und legt den Fokus auf besonders glatte Kanten und ist für DLAA gedacht.
Mittlerweile gibt es aber DLSS in Version 3.8. https://www.techpowerup.com/download/nvidia-dlss-dll/
Mit Version 3.8 hat Nvidia alle Presets bis auf Preset E und F entfernt.
Preset E wird für DLSS Performance, Balanced und Quality genutzt und F für DLAA und DLSS Ultra Performance, was mMn. auch die beste Wahl ist.
Das heißt, praktisch brauchst du nur die nvngx_dlss.dll im Spieleordner mit der aktuellen 3.8 Version ersetzen und hast damit automatisch die aktuell bestmögliche Bildqualität. Den Umweg über DLSS Tweaks oder den nvidia profile Inspector kann man sich damit jetzt sparen.
Wie groß der Qualitätsgewinn ist hängt dann natürlich vom Spiel, dem vorher genutzten Preset und der vorher genutzten DLSS Version ab.
Wenn das Spiel vorher Preset D genutzt hat, dann wirst du mit E nur eine minimal höhere Bildschärfe sehen und weniger Ghosting. Das wird dir aber ohne Screenshotvergleich nicht auffallen. Wenn das Spiel vorher Preset A, B oder C genutzt hat, dann solltest du ein schärferes Bild bekommen. Je nach Sehkraft sollte das schon recht deutlich sichtbar sein.
Noch kurz zum Supersampling. Ja, das kannst du im Treiber aktivieren (DL-DSR). Die Nutzung in Kombination mit DLSS ist sogar sinnvoll, weil das Bild auf ein viel feineres Pixelraster aufgelöst wird, was selbst in Kombination mit DLSS Upscaling die Kantenschärfe deutlich erhöht. Also ja, ist sinnvoll, beides zu kombinieren.
Man muss aber die VRAM Auslastung im Auge behalten und in Kombination mit Frame Generation sind so hohe Auflösungen auch kontraproduktiv (der Performanceboost mit Frame Generation leidet sehr deutlich je höher die Auflösung ist)
Zuletzt bearbeitet:
Vigilant
Vice Admiral
- Registriert
- Mai 2008
- Beiträge
- 6.936
Verwende die 3.8 gerade im Replay von Rise of the Tomb Raider. Effekt in Kombination mit DLDSR auf 4K ist ein Top-Bild bei max. Settings zwischen 120 und 160 (capped) FPS.Mimir schrieb:Wie groß der Qualitätsgewinn ist hängt dann natürlich vom Spiel, dem vorher genutzten Preset und der vorher genutzten DLSS Version ab.
Bloodwalker
Lieutenant
- Registriert
- Juni 2009
- Beiträge
- 804
Mimir schrieb:Daher weiß ich wirklich nicht, was die VESA da spezifiziert und für welchen Content das sein soll.
Für mich macht es eher den Eindruck als wäre es für eine bestimmte art von Usern.
Soll ja die Leute geben die ihren OLED mit 100% Helligkeit betreiben und immer noch meinen er wäre ihnen zu Dunkel. Keine Ahnung ob da schon teile der Netzhaut weg gebrannt sind oder ich einfach nur kein Bock auf "Bildschirmbräune" habe aber ich habe meinen allgemein als eher dunklen bekannten 27GS95 von LG auch nur auf max 80% Helligkeit gestellt und finde das mehr als ausreichend...
Auch wenn ich die Diskussionen über neue OLED Fernseher höre frage ich mich wie manch einer seinen Fernseher benutzt. Da streiten sich in Foren oder im Reddit Menschen ob der C4 schon hell genug ist oder ob es nicht doch der G4 sein muss und ich sitze regelmäßig vor meinem CX im Wohnzimmer und bin bis heute begeistert von dem brillianten und vor allem im HDR super angenehm hellen Bild und absolut geilen HDR highlights.
Meine Augen werden immer rot von dieser Höllenhelligkeit, glaube das ist alles nicht gut fürs Auge aber ich Spiele auch nur in abgedunkelten Räumen und für Sonnenlichtfans ist das wohl gut aber irgendwie müsste es eine Warnung dafür geben oder jeder Monitor müsste ein Umgebungslichtsensor haben.
john.smiles
Commodore
- Registriert
- Mai 2014
- Beiträge
- 4.899
- Registriert
- Jan. 2009
- Beiträge
- 1.987
Ich habe einmal einen Blick auf einen high refresh rate OLED geworfen...
Das war ein Fehler. Allein die Bewegung des Cursors und und das butterweiche Scrolling was ich weder auf meinen 120Hz oder 144Hz Bildschirmen nicht gesehen.
Ich kann es kaum erwarten bis ich mir so ein Ding leisten kann.
Das war ein Fehler. Allein die Bewegung des Cursors und und das butterweiche Scrolling was ich weder auf meinen 120Hz oder 144Hz Bildschirmen nicht gesehen.
Ich kann es kaum erwarten bis ich mir so ein Ding leisten kann.
Ähnliche Themen
- Antworten
- 35
- Aufrufe
- 5.802
- Antworten
- 61
- Aufrufe
- 11.904