News BOE: 500-Hz-Monitore dank schnellerer Metalloxid-TFTs

hahaqp schrieb:
Manchmal fragt man sich schon woher diese Innovationsfeindlichkeit mancher Leute kommt :confused_alt:
Manchmal fragt man sich schon, woher diese Produktgeilheit mancher Leute kommt 🙄
 
aus technischer Sicht hochinteressant, freut mich dass es da weiter geht. Silizium ist halt garnicht mal so gut insgesammt was die eigenschaften als Halbleiter betrifft. es lässt sich zwar formen in bestimmte richtungen aber Verbundhalbleiter sind da oftmals noch besser geeignet
 
W0dan schrieb:
Und nein, Adaptive Sync erhöht nicht den Inputlag!
Es ist nur so, dass die Grafikkarte gezwungen wird, im Rahmen der Möglichkeiten des Displays zu arbeiten.

VSync und kein Inputlag? Willst du mich verarschen? VSync ist so ziemlich die schlechteste Mechanik die es nur gibt in Sachen Inputlag. Kein kompetitiver Spieler benutzt VSync. Selbst Gsync, obwohl deutlich besser, wird nicht benutzt.

Kann man übrigens mit dem Nvidia Reflex Latency Analyzer sehr gut nachvollziehen und messen.
 
theGucky schrieb:
Wenn man also MicroLEDs hat, die in einem 4k 27" Monitor passen, könnten sie dunkler sein als OLED.
Wer tut sich dieses Mäusekino an?
32" wäre für mich Minimum bei 4k auf dem Schreibtisch, ka. wie nah manche am Bildschirm kleben.
 
rentex schrieb:
Manchmal fragt man sich schon, woher diese Produktgeilheit mancher Leute kommt 🙄
Naja- In gewisser Weise hat er ja recht. Zu gefühlt jedem Artikel, der von Neuigkeit XY berichtet, kannst Du die Uhr danach stellen, dass in kurzer Zeit der Kommentar kommt, dass man es nicht braucht, dass es vorher auch anders ging und ... und ... und ...

Es geht darum, dass sinnvolle und wichtige Verbesserungen Einzug halten.
Im haushaltsüblichen Umfeld denke ich durchaus, dass man es schon als Ziel betrachten kann, 4K bei 120Hz anzustreben.
Technisch und ergonomisch kann man daraus einen Nutzen ziehen.

Dass sich die Leute hier High- Refresh- Monitore, die ihren Namen nicht verdienen anschaffen und dabei vergessen, dass die Grafikkarte nachwievor die "Smotheness", wie es hier so schön ausgedrückt wird zum Großteil vorgibt, da das Framepacing bzw. eine gleichmäßig hohe Framerate mit minimalen Schwankungen einen erheblich höheren Einfluss auf die wahrgenommene Schwupzidität hat, steht wiederum auf einem anderen Blatt.

Es hat durchaus gute Gründe, warum sich die VR- Konsortien darauf geeinigt haben, eine stabile Zielframerate von 90FPS als Goldstandard zu etablieren. 1080p bei 60FPS bzw. Hertz auf Sample und Hold Monitoren mag zwar für viele ausreichend sein, ideal ist es aber sicher nicht bei den heute verfügbaren Monitoren und genutzten Diagonalen.

Daher finde ich die Wege zur Effizienssteigerung wie DLSS, FSR &co. extrem interessant und zukünftig unabdingbar, um in variabler Form gerade das Framepacing beim Halten maximaler Qualität zu verbessern.
 
Zuletzt bearbeitet:
W0dan schrieb:
Burn In wäre die einzige Problematik, die mir einfällt. Oder meinst du was anderes?

Potenziellem Burn-In lässt sich ziemlich gut aus dem Weg gehen. Vor allem bieten viele Spiele auch ein dynamisches HUD an, das sich ausblendet, wenn nicht benötigt.
Burn In als Elefant im Raum, wenn man einen OLED Monitor als Hauptmonitor nutzt bringen einem die Schutzmechanismen nichts.
Zu viele statische Elemente, zu lange Nutzungszeit (OLED brauch ja "Ruhephasen")
Dann wäre da noch die schlechte Helligkeit bei hellen Inhalten die viel Fläche einnehmen, sprich Desktop, Excel, Word, Browser.
Nicht alles unterstützt den Dark Mode.

Top Video dazu.

Finde OLED auch geil, aber die Dinger sind zu teuer dafür, dass sie so schnell altern.

Als TV ok (kommt aber auch hier stark auf die Nutzungszeiten und die Inhalte an), aber als Daily Driver am PC ist die Technik derzeit (noch) nichts.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Marcel55 schrieb:
Ist wie bei Hi-Res-Audio, wir können auch nur Audio-Frequenzen bis ca. 20KHz wahrnehmen (im besten Falle), und doch gibt es einen Markt für Quellen, die in der Lage sind, Frequenzen bis 40KHz (oder darüber hinaus) abzubilden.

wahrnehmen ist nicht richtig. hören ist richtig. der hörbare bereich liegt individuell irgendwo zwischen 20hz-20khz, das heißt aber nicht, dass wir für frequenzen im grenzbereich nicht auch anders als über das gehör wahrnehmen können, bzw wir bewusst als hörbar empfinden. einen fetten 30hz bassimpuls "hört" man großteils über die obertöne in höheren oktaven - 30hz spürt man daher zu 80% und hört nur zu 20%. ist deshalb ein system, das 30hz wiedergeben kann sinnlos? überhaupt nicht.

und dann kommt noch der zweite effekt dazu: "die masse" besitzt kein system, das 30hz sauber wiedergeben kann. die üblichen 8" oder 10" bassreflexwürfel können in der regel keine sauberen 30hz. dazu muss es schon etwas exotische hardware sein, wie bspw. ein geschlossener basswürfel mit 60cm kantenlänge und einem guten 15" bass - oder ein großes basshorn oder eine entsprechend ausgeklügelte regelelektronik im verstärker, wie es bspw. bei backes & müller der fall ist. aber bevor sich irgendjemand mal sowas anhört, schreien 8 von 10 direkt "hifi voodoo" und verweigern sich im voraus.

in der akustik dreht sich alles um oktaven und obertöne - eine oktave ist eine verdopplung der frequenz. wenn wir jetzt 20khz als hörbare obergrenze festlegen - was ist die oktave über 20khz? 40khz. 40khz stellen hier sicher, dass der erste oberton von 20khz noch mit im signal ist. in der akustik sind 30hz und 60hz sowie 20khz und 40khz jeweils nur eine oktave auseinander.

zumal die sampling rate nicht das frequenzband festlegt, sondern eben genau das macht, was der name vermuten lässt: samples pro sekunde - information pro sekunde. wenn die sampling rate zu niedrig ist, treten artefakte auf - hier kommt dann "passiv" die begrenzung der frequenz her - alles über 20khz könnte mit 40khz sampling rate nicht "artefaktfrei" wiedergegeben werden. also sollte die sample rate ohnehin in einem bereich liegen, der sicherstellt, dass das signal komplett artefaktfrei ist. das wurde für die digitale CD vor 40 jahren mal bei 44,1khz festgelegt - das ist zwar im weitesten ausreichend - aber hier muss man auch ganz klar die beschränkungen der CD sehen - ob man das jetzt als den heiligen gral ansehen sollte - zweifelhaft.

The Nyquist–Shannon sampling theorem (Nyquist principle) states that perfect reconstruction of a signal is possible when the sampling frequency is greater than twice the maximum frequency of the signal being sampled. For example, if an audio signal has an upper limit of 20,000 Hz (the approximate upper limit of human hearing), a sampling frequency greater than 40,000 Hz (40 kHz) will avoid aliasing and allow theoretically perfect reconstruction.

Many authorities in the preservation of sound recordings, like the International Association of Sound and Audiovisual Archives (IASA), recommend sampling rates that encode audio outside range of human hearing range, i.e., rates well above 40 kHz. IASA document TC-04 states that higher sampling rates "may be advantageous for many content types. . . . The net effect of higher sampling rate and conversion technology improves the audio quality within the ideal range of human hearing. The unintended and undesirable artefacts inherent in a recording are also part of the sound document, whether they were inherent in the manufacture of the recording or have been subsequently added to the original signal by mishandling or poor storage. Both must be preserved with utmost accuracy. For some types of noise, sampling rates in excess of 48 kHz may be advantageous. For any higher sampling rates IASA recommends 96 kHz."
http://www.digitizationguidelines.gov/term.php?term=samplingrateaudio

ich verstehe den widestand gegen höhere bitrates und sampling rates nicht - niemand produziert in 44,1khz 16bit - das passiert alles weit jenseits davon und dann kommt das downsampling auf cd qualität. wieso nicht eine bitrate und sampling rate akzeptieren, die das nutzsignal so original, präzise und artefaktfrei wie möglich darstellt? 96khz 24bit sind jeweils nur ein schritt entfernt. hier wäre es mal wieder zeit für einen neuen breiten standard.

hier gibts nämlich noch einen haken: für die beste qualität muss dann wiedergabeseitig die sampling rate eingehalten werden, sprich eine 48khz aufnahme muss auch mit 48khz (oder einem vielfachen davon) wiedergegeben werden. das geht am pc über ASIO (quasi adaptive sync für DA wandler, hier wird die sampling und bitrate 1:1 an die quelldatei angeglichen) - aber das ist an einem pc im mischbetrieb quasi nicht praxistauglich - nur tauglich für reine musikwiedergabe aus einer quelle. also hört der gemeine nutzer am pc musik ohnehin ein wildes sammelsurium an gemischten sampling rates, die über den windows mixer interpoliert werden müssen, was letztendlich doch wieder wiedergabequalität kostet. wir fahren hier nämlich zwei systeme: 44,1khz und 48khz (und die jeweiligen vielfachen), die auch über upsampling nicht artefaktfrei miteinander gemischt werden können.

also ein kurzfazit könnte sein: wer high res am pc hört, sollte darauf achten, dass mit einem hochwertigen DAC über asio oder wasapi und nicht den windows mixer wiedergegeben wird. das heißt aber auch, dass nur jeweils eine audioquelle aktiv sein kann.

Marcel55 schrieb:
Ich merke einen deutlichen Unterschied zwischen 60Hz und 120Hz. Aber mit 120Hz reicht es dann auch, mehr brauche ich im Prinzip nicht. Ich bevorzuge dann auch 120Hz OLED vor 144+Hz LCD.

die aussage triffst du anhand welcher informationen? hast du schon einmal vor einem 360hz panel gesessen? was wäre mit einem 500hz oled panel mit 0,1ms schaltzeit? auch schonmal im voraus uninteressant, weil 120hz über 60hz schon so viel besser ist, dass eine weitere verbesserung unvorstellbar ist?

TFTs waren gegenüber röhre in sachen reaktionszeit und pixelschaltzeit so dermaßen unterlegen, dass viele pro-gamer noch jahrelang weiter auf röhren gespielt haben. moderne oled kommen das erste mal wieder an die bildklarheit von röhrenmonitoren ran, aber die 120hz sind noch ein gutes stück weg von "echtzeit". die "polling rate" mit 120hz ist noch zu niedrig. obs jetzt 500hz sein müssen, sei mal dahingestellt, aber 120hz ist definitiv noch nicht hoch genug und 500hz panels ziehen zwangsläufig auch andere qualitäten nach sich, bspw. schnellere pixelschaltzeit.
 
  • Gefällt mir
Reaktionen: .Sentinel., mk77er, INe5xIlium und eine weitere Person
.Sentinel. schrieb:
Naja- In gewisser Weise hat er ja recht. Zu gefühlt jedem Artikel, der von Neuigkeit XY berichtet, kannst Du die Uhr danach stellen, dass in kurzer Zeit der Kommentar kommt, dass man es nicht braucht, dass es vorher auch anders ging und ... und ... und ...

Das Problem ist, dass die Hersteller allen möglichen Nonsense bringen, aber nicht das was für die meisten sinnvoll wäre.

In Sachen HDR hängt der Monitor Markt ca. 5 Jahre dem TV Markt hinterher (falls das überhaupt reicht) und trotzdem werden Unsummen für vermeintlich gute HDR Specs verlangt. Es gibt auch kaum Monitore, die sich an irgendwelche Standards wie HGIG halten und Microsoft schläft mit Windows eh schon seit Jahren was das Thema angeht.

Es ist halt ein schlechter Witz, dass man Enthusiasten mit PC Gaming ansprechen will und dann nur Schrottdisplays vorgesetzt bekommt. Das fängt ja schon bei ner vernünftigen Ausleuchtung von Displays an.
Du kannst 1000€ für nen IPS hinlegen und er hat Glow und Lichthöfe ohne ende. Selbst die Polarisationsfolien die den Glow verringern würden lässt man seit Jahren einfach weg - in jeder Preisklasse.

Der ganze Markt ist ein Witz!
 
W0dan schrieb:
Der ganze Markt ist ein Witz!
Es wird halt mit technischen Daten viel Schindluder getrieben. Wie Du richtig sagst, lassen sich wichtige Kenngrößen zu einer Bewertung der Bildeigenschaften daraus garnicht bis kaum ablesen.

Wenn man allerdings sieht, wo wir in Sachen TFT- Technik herkommen und die extrem großen Einschnitte in der Bildqualität, die man zu Gunsten von Ergonomie und aus Handlinggründen beim Umstieg on CRT auf TFT in Kauf genommen hat, dann sieht man schon eine kontinuierlich positive Entwicklung.

Dennoch merkwürdig, dass es jetzt doch verhältnismäßig lange dauert, bis man z.B. in Sachen ECHTER, also 100% trennscharfer Bildwiederholrate wieder an die CRTs heranreicht....

Vollständig wird dann die Verwirrung, wenn die Hersteller selbst Grey to Grey unterschiedlich definieren. Da macht es schon einen Unterschied ob man Grey White Grey oder Grey Black Gray als Maßstab definiert.
Dazu gibt es ganz schlaue Hersteller, die dann das Grey anders definieren. Das liegt dann je nach Methodik schon mal bei 40% White wenn Grey Black Grey angegeben wird und bei 60% White wenn Grey White Grey angegeben wird. Da lohnt es sich dann doch tiefer ins Datenblatt einzusteigen.

Andere wiederum geben nur die Schaltzeiten der Steuerung an und preisen das dann als mögliche maximale Bildwiederholfrequenz an.

Ausnahmslos alle tricksen bei der Angabe aber damit, dass sie zwar die Bildwiederholrate erreichen, dies aber durch mal mehr oder weniger schlechtere Bildqualität erkaufen.
Und da müsste meiner Meinung nach ein für den Kunden transparenter Bewertungsmaßstab her, der ausnahmslos die Umschaltmuster von Black White Black im Schachbrettmuster und darauffolgend aller Primärfarben ebenso im Schachbrettmuster einzeln darstellt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge
Dot-Rock schrieb:
Bist es soweit ist, dass brauchbare 500 Hz Monitore auf dem Markt sind, wird sicher noch etwas Zeit vergehen.
Spulenfiepen ist nochmal ein ganz eigenes (spezielles) Thema.
Du machst dir ja auch keine Sorgen, dass deine jetzigen Reifen bei der Maximalgeschwindigkeit des neues Supersortwagens Probleme bekommen, weil sie aktuell bei deinem Passat ab 200 kmh komische Geräusche machen. :D
Das Problem wird real, sobald ich den Framelock rausnehme ODER wenn ich ein Panel mit 165/240/360/500Hz mit passendem Framelock vollständig befeuern möchte. Spulenfiepen entsteht durch sehr hohe FPS und die würde ich ja auch gerne berechnen lassen, wenn mein Monitor diese wirklich wiedergeben kann, aber da ich lieber meine Ruhe habe, kommt so ein Monitor für mich nicht in Frage, daher verstehe ich deinen merkwürdigen Vergleich nicht.
 
W0dan schrieb:
Hab ich nicht geschrieben. Lies nochmal genau... :rolleyes:

Das heißt du setzt eine Technologie wie Freesync oder Gsync voraus? Wenn diese Technik auch der 144hz Monitor beherrscht, dann gibt es auch dort kein schlechteres Bild als auf dem 60hz Monitor.
 
@Dot-Rock

Für die Paneltechnik spielt es keine Rolle, ob die 500 geschalteten Frames neue Inhalte haben oder jeder zweite schwarz ist. Ein 500 Hz TFT-Monitor mit Black-Flame-Intrusion nach der Nomenklatur, von der nach dir niemand abweiche, braucht ein 1000 Hz Panel.
Ayo34 schrieb:
[...] VSync ist so ziemlich die schlechteste Mechanik die es nur gibt in Sachen Inputlag. Kein kompetitiver Spieler benutzt VSync. [...]
Das InputLag wird bei Vsync+TripleBuffering nicht so entscheidend versdchlechtert. Die meisten, die an der Hexenverbrennung von Vsync teilnehmen, sehen nur die Nachteile, die Vsync mit DoubleBuffering hat - wobei auch das nicht InputLag, sondern Mikroruckler sind. Aber TripleBuffering kann man ja auch 25 Jahre nach seiner Einführung immernoch nur in OpenGL über den Treiber befehlen, bei DX ist man von der Gnade der Game-Programmierer abhängig.
 
  • Gefällt mir
Reaktionen: Miuwa
MountWalker schrieb:
@Dot-Rock
Das InputLag wird bei Vsync+TripleBuffering nicht so entscheidend versdchlechtert. Die meisten, die an der Hexenverbrennung von Vsync teilnehmen, sehen nur die Nachteile, die Vsync mit DoubleBuffering hat - wobei auch das nicht InputLag, sondern Mikroruckler sind. Aber TripleBuffering kann man ja auch 25 Jahre nach seiner Einführung immernoch nur in OpenGL über den Treiber befehlen, bei DX ist man von der Gnade der Game-Programmierer abhängig.

Wie erklärst du Dir dann mit VSync eine Gesamtlatenz von um die 40ms in Valorant im Gegensatz zu 12ms bei einem 360hz Monitor? Mit GSync ist man bei ca 15ms. Ist also sehr nahe dran. Im kompetitiven Bereich ist das sehr entscheidend. (Latenz: Mausklick -> Aktion auf Monitor bei mir)

Das ist einfach eine deutlich höhere Latenz und hat erstmal nichts mit Mikrorucklern zu tun.
 
Ghosthunt schrieb:
Also langsam wird es Absurd mit den Hz (und Auflösungen über 4k).

Das Menschliche Auge und Gehirn unterliegen natürlichen Grenzen. 90 Hertz kann man noch gut wahrnehmen, danach nimmt die Sensibilität bei den meisten ab. Ob am Ende noch 120 oder 180 Hertz wahrgenommen werden können, sei schlicht nicht bekannt. Spätestens 200 Hertz/Fps fühlten sich jedoch an wie Bewegungen im echten Leben.
Menschliche Gehirne könnten Objekte nur mit 7 bis 13 Bildern pro Sekunde nachverfolgen ("Motion-Tracking"), wie EEGs bewiesen haben.

Ich frage mich immer, woher Leute immer auf solche Aussagen kommen.
Aber es soll angeblich auch Menschen geben, die bis heute an eine flache Erde glauben.

Aus persönlicher Erfahrung kann ich garantieren, dass selbst 165 Hz im Vergleich zu 90 Hz noch klar wahrnehmbar sind. Aus Unwissenheit würde ich vermuten, dass man auch 1000 Hz im Vergleich zu 500 Hz wahrnehmen kann. Hier stelle ich mir VR mit 1000 Hz oder große Bildschirme auf geringer Distanz vor.
Und große Bildschirme auf geringer Distanz machen auch 8k sinnvoller als 4k. Hier kommt es auf die PPI und Distanz zum Bildschirm an.

Je geringer die Distanz, desto sinnvoller sind mehr Hertz und mehr PPI / Auflösung.

@Hardware69
Brauchen und haben wollen macht den größten Unterschied.
"Man braucht" keine farbigen Bildschirme, Schwarz-Weiß würde auch reichen, aber es ist trotzdem besser.
"Man braucht" keine 240 Hz, man kann auch mit 60 Hz, aber trotzdem sind 240 Hz nicht nur besser, sondern bieten sogar einen Vorteil gegenüber anderen. (je nach Spiel)
Usw...

Selbst wenn ich nur im Internet scrolle oder im Büro arbeite, sind mir in meinem Fall 165 Hz lieber als 60 Hz.
Das sehe und spüre ich, ganz ohne Zweifel. Den Unterschied kann ich innerhalb 1-3 Sekunden sehen / spüren. Darum würde ich jederzeit wetten.
 
  • Gefällt mir
Reaktionen: mk77er und Bright0001
Ghosthunt schrieb:
Also langsam wird es Absurd mit den Hz (und Auflösungen über 4k).
Vor 20 Jahren war es auch absurd, dass wir in einem Spielerechner 32 GiB RAM verbauen werden.
In 20 Jahren denken wir uns dann, wie beschränkt wir damals waren, dass die meisten freiwillig 60 hz Displays genutzt haben.
 
  • Gefällt mir
Reaktionen: Bright0001 und INe5xIlium
Dot-Rock schrieb:
Ich glaube nicht, dass das so auch für PC Monitore gilt. Black Frame Insertion ist, wenn ich mich jetzt nicht arg irre, ein Feature, dass ein paar aktuelle Monitore optional bieten. Ein 360 Hz Monitor sollte auch wirklich 360 verschiedene echte Frames pro Sekunde anzeigen können.
Das Backlight Scanning kann vom lcd unabhängig angesteuert/ gepulst werden und erzeugt die Dunkelphasen, es werden keine schwarzen Frames vom lcd selbst eingefügt.
Natürlich muss die Flimmerfrequenz mit der Bildwiederholfrequenz synchronisiert sein und zu dieser passen, also z.B. 60hz Flimmerfrequenz + 60hz Panelfrequenz bei 60fps.
120hz Filmmerfrequenz bei 60hz Panelfrequenz sind auch möglich, ergibt aber Doppelkonturen.
Einige Monitore bieten vrr-Flicker, wo die Flimmerfrequenz dynamisch der Panelfrequenz angepasst wird,

Ob ein 360hz Monitor jedoch "echte" 360fps anzeigen kann, hängt maßgelich von seiner Pixelresponse-Time ab und darf daher angezweifelt werden.
Die hier von BOE vorgestellte Backplane lässt aber 500hz ansteuerungstechnisch zu und kann ggfls. vielleicht auch für (qd)-oleds eingesetzt werden, deren reale Pixelschaltzeiten mit ca. (0.1) bzw. 1ms ausreichend kurz sind.

Dot-Rock schrieb:
Du kannst theoretisch auch einen 360 Hz Monitor mit schrecklichem Motion Blur ect. und einem Input-Lag der größer ist, als der eines guten 240 Hz Monitors haben.
Es wird sogar noch lustiger, panasonics neue oled tvs der LZ -Reihe sollen über einen besonders geringen Inputlag von ca. 2 ms im "60 hz Refresh Mode" verfügen und fiele somit bei 120fps Zuspielung höher aus.
bei ca. 4:10

MountWalker schrieb:
High-Hz-Panels haben den Zweck, ein deutlich smotheres Bild darzustellen, indem sie mit komplett schwarzen Zwischenframes arbeiten
Nein
1. Siehe oben, das Panel selbst fügt kein Schwarzbild ein
2. "komplett schwarze frames" verwendet man sowieso nicht, da das viel zu stark flimmern würde, der Begriff "bfi/ black frame insertion" ist irreführend und eigentlich falsch, es handelt sich um Dunkelphasensteuerung bzw. Rolling Scan.
Dabei wird nur ein Teil des Bildes vertikal verlaufend abgedunkelt
Tvs mit "echter" bfi, also kompletter Abdunkelung des Bildes, sind z.B. lg oleds bis einschließlich c9 (2019) gewesen, da oled prinzipbedingt kein Backlight beinhaltet und hier tatsächlich nur schwarze Frames eigefügt werden konnten, diese bfi war wirklich unbrauchbar.

3. Eingefügte Dunkelphasen erhöhen nicht die Geschmeidiigkeit der Bewegungen, sondern die Bewegtbildschärfe.
Für ein flüssigeres Bewegtbild benötigt es entweder mehr fps oder ein crt-ähnlichen Bildaufbau, bei welchem die Zeilen durch das dynamische Leuchtverhalten des Phosphors weicher ineinander übergehen.

MountWalker schrieb:
Bei dem, wie TFTs mit Hz bezeichnet werden, weil sie die Schwarz-Frames als Frames mitzählen, kann man die Angaben durchaus halbieren.
Das gilt eher für tv -Hersteller, die das Backlight Blinking zur höheren hz Angabe aufaddieren, bei Monitoren wäre mir das Vorgehen neu.
MountWalker schrieb:
200 Hz sind also schonmal sinnvoll, weil es den 100-Hz-Röhrenmonitor, der unter kopfschmerzfreien Langzeit-PClern sehr beliebt war, repliziert.
Wie bereits beschrieben entfällt nicht ein Teil der Panelfrequenz auf eine Schwarzbildeinfügung.
Aber das mal außen vor, kann selbst ein 240hz Panel auch mit lediglich 60hz rolling scan (bzw. umgangssprachlich bfi) ausgestattet sein, war z.B. beim sony w905 so, selbst überprüft.

120hz rolling scan/ bfi flimmern weniger störend, resultieren aber bei 60fps in Doppelkonturen bei Bewegung.
War das bei 100hz crts eigentlich auch so, müsste ja eigtl.?

USB-Kabeljau schrieb:
Nope.
Tatsächlich brauchen wir ca. 1000Hz, damit auch das Motion-Blur realistische Dimensionen erreicht.

Es gibt natürlich Notlösungen wie Strobing, aber dann hat man eben wieder Flimmern.
Wobei das mit 120hz Flimmerfrequenz bei 120fps Zuspielung nur wenige störend wahrnehmen.

USB-Kabeljau schrieb:
30fps waren noch nie flüssig.
Zu snes Zeiten waren 50/60 fps üblich.
Ayo34 schrieb:
Definitiv ist ein Bild mit 60FPS und 144Hz smoother als 60FPS auf 60Hz! Die Bilder werden einfach gleichmäßiger auf dem Bildschirm wiedergegeben.
Heute nutzt man eigetlich vrr, ggfls. hat (sollte) aber ein 144hz Monitor den geringeren Inputlag, was fürs Spielgefühl entscheidend sein kann.
Dot-Rock schrieb:
kann mir nicht vorstellen, dass jedes TFT-Panel per se "Black Frame Insertion" nutzt und man die Hz-Angabe deswegen generell halbieren muss. Und selbst wenn man ein Panel hat, dass diese Technik nutzt, muss das, soweit ich weiß, nicht gleich bedeuten, dass z. B. bei einem 500 Hz TFT Monitor 250 Frames pro Sekunde schwarz sind. Bei TV Geräten mag das vielleicht was anderes sein.

Aber ich lass mich gerne überzeugen. Hast du eine Quelle, die das etwas genauer beschreibt?
Das ist schlichtweg Unsinn, außerdem kann man das (falls vorhandene) Strobing Backlight selbst de-/ aktivieren.
Es wird kein Schwarzbild vom Panel selbst eingefügt, sondern das Backlight gepulst und das stets optional.
PTS schrieb:
Falsch, ich selbst merke doch auch einen Unterschied zwischen 120 und 200hz. Und wenn ich das sogar bemerke, dann wird es auch einer bei 500hz bemerken.

Es geht ja nicht nur um die Augen/Gehirn sondern auch um den Inputlag beim drücken der Tasten!!! Das vergessen viele.
Perzeptiv sind die Zuwächse im niedrigen Bereich meist deutlich höher, daraus lässt sich kaum eine weitere, ähnlich relevante Steigerung für höhere Bereiche extrapolieren.
Inputlag ist nun Mal hier nicht angegeben und auch nicht direkt das Thema, da boe hier nur eine Backplane entwickelt und den Monitor nur symbolisch vorgestellt hat.
Der ist dann je nach Modell gesondert auf Inputlag zu überprüfen.
Ayo34 schrieb:
60fps auf 60hz überträgt eben normal nicht 1:1. Auch werden keine fehlenden Frames ersetzt. Es wird einfach solange ein Bild angezeigt bis ein neues Bild vorhanden ist. Der einzige Unterschied ist, dass das neue Bild schneller angezeigt wird auf 144hz, weil sich der Monitor eben häufiger aktualisiert.
60fps sind eindeutig definiert, welche fehlenden Frames?
Ein 144 hz Monitor muss nicht zwingend ggu. dem 60hz Panel bei der Anzeige im Vorteil sein, es hängt von den Pixelschaltzeiten und dem Inputlag ab.
Ein oled oder gar qd-oled Panel schaltet die Pixel so zeitig um, dass 144hz für die 60fps Darstellung nicht unbedingt einen Unterschied bedeuten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dot-Rock
Fatal3ty schrieb:
Für mich reine Verschwendung des Rohstoff...
Welcher Rohstoff wird dadurch denn stärker verwendet? Ist es nicht besser, wenn man aus den Materialien etwas möglichst gutes macht? Ein schlechter 30Hz Monitor würde doch in vielen Bereichen die gleichen Rohstoffe verwenden.
Ergänzung ()

Ich finde der Beitrag von @duskstalker fasst viele Dinge zusammen, die (soweit ich es überblicken kann) wahrscheinlich allgemein anerkannt sind.
duskstalker schrieb:
also hört der gemeine nutzer am pc musik ohnehin ein wildes sammelsurium an gemischten sampling rates, die über den windows mixer interpoliert werden müssen, was letztendlich doch wieder wiedergabequalität kostet. wir fahren hier nämlich zwei systeme: 44,1khz und 48khz (und die jeweiligen vielfachen), die auch über upsampling nicht artefaktfrei miteinander gemischt werden können.
Bei diesem Beitrag hätte ich gedacht, dass man vielleicht "mit vertretbarem Aufwand" hinzufügen kann? Wenn man weit genug jenseits der praxistauglichen Frequenzen interpolieren würde, dann müsste es doch relativ gut gehen oder fängt man sich etwas wie Schwebefrequenzen ein? Spätestens im MHz Bereich, hätte ich gedacht, dass es geht.
Und ich glaube, man kann eine Sinc Interpolation durchführen, ohne dass man zwischendurch das gemeinsame Vielfache der Frequenzen berechnen muss.

Übertragen auf Monitore würde ich aber daraus ziehen, dass man mit mehr Pixeln Bilder skalieren kann, ohne dass minimales Vergrößern oder Verkleinern zu Unschärfe führt und genug Hz sorgt dafür, dass man 29.5Hz und 96Hz Material auf einem Monitor gemeinsam abspielen kann, ohne dass es ruckelt.
 
Zuletzt bearbeitet:
@autopilot Sind Äpfel und birnen nicht beides kernobst und ein rosengewächs?
Auch dein Hirn schafft nicht mehr wie ca. 40 Bilder pro Sekunde zu verarbeiten egal ob mit 144hz oder 500hz..
 
Ayo34 schrieb:
Wie erklärst du Dir dann mit VSync eine Gesamtlatenz von um die 40ms in Valorant im Gegensatz zu 12ms bei einem 360hz Monitor? Mit GSync ist man bei ca 15ms. Ist also sehr nahe dran. Im kompetitiven Bereich ist das sehr entscheidend. (Latenz: Mausklick -> Aktion auf Monitor bei mir)
[...]
Vsync inklusive TripleBuffering, was mit John Carmacks Quake II mal eingeführt wurde für kompetitives Spielen, sorgt dafür, dass die Grafikkarte aufgrund zweier Backbuffer sobald ein Frame fertig gerendert hat diesen Frame auch sofort für den Monitor bereit hat und solange es noch nicht fertig ist, hat man ja noch das letzte fertige Frame im anderen Framebuffer. Wenn du mit Triple Buffering noch zu viele ms hast, dann liegt das eventuell daran, dass der Abstand zwischen zwei Framerates bei Framerate X eben soundso viele ms beträgt.

Was sind die Alternativen? Entweder FrameRate-Limiter, die technisch keinen Lag-Vorteil bringen können, oder das Zulassen von zerschnittenen Frames - was für dein Gehirn aufwendiger zurechtzurechnen ist, als wenige Millisekunden Lag mehr zu haben. Der einzige Vorteil eines Framerate-Limiters ggü. Vsync, sofern man TripleBuffering benutzt, liegt darin, dass TripleBuffering VRAM für den dritten Frame braucht, also bspw. 1920 * 1080 * 24 b = 49766400 b = 6220800 B = (aufgerundet) 6 MiB.
 
Zuletzt bearbeitet:
Zurück
Oben