News BOE: 500-Hz-Monitore dank schnellerer Metalloxid-TFTs

.Sentinel. schrieb:
Ausnahmslos alle tricksen bei der Angabe aber damit, dass sie zwar die Bildwiederholrate erreichen, dies aber durch mal mehr oder weniger schlechtere Bildqualität erkaufen.
Und da müsste meiner Meinung nach ein für den Kunden transparenter Bewertungsmaßstab her, der ausnahmslos die Umschaltmuster von Black White Black im Schachbrettmuster und darauffolgend aller Primärfarben ebenso im Schachbrettmuster einzeln darstellt.
Für die Bewegtbildschärfe ist die mprt (motion picture resolution time) entscheidend, die gibt kein Hersteller an.
https://blurbusters.com/gtg-versus-mprt-frequently-asked-questions-about-display-pixel-response/
feidl74 schrieb:
@autopilot Sind Äpfel und birnen nicht beides kernobst und ein rosengewächs?
Auch dein Hirn schafft nicht mehr wie ca. 40 Bilder pro Sekunde zu verarbeiten egal ob mit 144hz oder 500hz..
Die Bewegtbildschärfe nimmt mit höherer fps+ hz Zahl def. sichtbar zu, Grund ist das SaH (sample and hold) Verfahren der heutigen Paneltechnik.


Für die Bewegtbildschärfe eines crts würde man mit heutigen Panels 1000hz+fps benötigen, wobei 500 m.M.n. die Bewegung ausreichend scharf darstellen.
https://blurbusters.com/gtg-versus-mprt-frequently-asked-questions-about-display-pixel-response/
 
  • Gefällt mir
Reaktionen: Dot-Rock und Lendi
MountWalker schrieb:
Was sind die Alternativen? Entweder FrameRate-Limiter, die technisch keinen Lag-Vorteil bringen können, oder das Zulassen von zerschnittenen Frames - was für dein Gehirn aufwendiger zurechtzurechnen ist, als wenige Millisekunden Lag mehr zu haben. Der einzige Vorteil eines Framerate-Limiters ggü. Vsync, sofern man TripleBuffering benutzt, liegt darin, dass TripleBuffering VRAM für den dritten Frame braucht, also bspw. 1920 * 1080 * 24 b = 49766400 b = 6220800 B = (aufgerundet) 6 MiB.

Theorie und Praxis... die Messwerte habe ich dir genannt und da schneidet eben am besten ab, wenn man diese Optionen deaktiviert. Kannst mir auch gerne mal einen Pro-Player nennen, der deinen theoretischen Ansatz verfolgt. Ich kenne sehr viele und die spielen mit max. FPS.

Zerrissene Bilder hört sich auch so schlimm an, aber bei 360hz und 500+ Frames ist da nichts sichtbar und es ist einfach smooth.
 
Ayo34 schrieb:
[...] die Messwerte habe ich dir genannt und da schneidet eben am besten ab, wenn man diese Optionen deaktiviert.[...]
Messwerte sind nie irgendwas ohne Interpretation und wenn in deinem Mess-Setup nur DoubleBuffering verwendet wird, wird die Framerate so stark gedrückt, dass der Abstand zwischen zwei Frames schonmal sehr lang sein kann. Ein Mikroruckler von "MinFPS=30", bei Vsynch müssen wir ja in ganzen Bildern der Ausgabefrequenz rechnen, sind 1/30=0,033 Sekunden, also 33 Millisekunden. Wo misst du den deine "Aktion am Monitor"? Im Frontbuffer?
 
  • Gefällt mir
Reaktionen: Miuwa
hamju63 schrieb:
Ich nehme an, Du hast noch nie einen 144 Hz Monitor im Einsatz gehabt?

Hab das vielen ungläubigen mal vorgeführt.
Alle beigeistert vom Switch von 60 auf 120, bzw 144.

Ich persönlich sehe von 120 bis 144 aber nur einen Unterschied im Promillebereich.
 
kA ob ich "behindert" bin, aber ich merke nicht Mal nen unterschied zwischen 45 und 60 FPS geschweige den Hertz, erst darunter empfinde ich es als zäh.

Finde solche Technologiesprünge aber trotzdem interessant.
 
Bin ich eigentlich der letzte Gamer auf diesem Planeten, dem 60fps reichen?? 😇
 
Suspektan schrieb:
Zu snes Zeiten waren 50/60 fps üblich.
Dann probiere mal aus: Starte neues Spiel in Mario World, gehe ins rechte Level, nimm den Schildkrötenpanzer auf, kicke den in die Reihe von Koopas, renne hinterher und bewundere die nicht vorhandenen 50 fps. Dein Versuch wird, korrekt durchgeführt, mit einem Extraleben belohnt.
 
Gibt es einen Anwendungsbereich, bei dem man 500 Hz benötigt?
Mir würde da absolut nichts einfallen. Aber was weiß denn ich mit meinem 144 Hz Monitor denn schon? :heilig:
 
  • Gefällt mir
Reaktionen: Vindoriel
Ahhhh...,
endlich Moorhuhn ausreizen bis zum letzten 😜.
 
  • Gefällt mir
Reaktionen: Vindoriel
ikarusx3 schrieb:
Das kann so pauschal nicht gesagt werden. Bei eingeschaltetem VSync stimmt das, dann hast du aber ggf eine deutlich spürbare Latenz weil der Rechner mit dem fertigen Frame wartet bis der Monitor bereit zur Darstellung ist.
Ich hätte ehrlich gesagt nicht gedacht, dass es heutzutage noch Leute gibt, die allen Ernstes ohne VSync (oder anderes Sync) zocken.
Ich meine auch, dass heutzutage eigentlich alle Games so gemacht sind, dass die zusätzliche Latenz durch VSync ziemlich minimal ist. Das war damals definitiv anders. "Deutlich spürbar" ist das heute nicht mal bei 60Hz.

Ohne Sync hat man Tearing.
Und auch wenn ein Teil des Bildes dann mit geringerer Latenz angezeigt wird, wird der zerrissene Rest dann eben doch mit zusätzlicher Latenz angezeigt. Verstehe nicht, wie man sich freiwillig sowas geben kann.

Wenn man wirklich kompetitiv unterwegs ist, wird man ohnehin nicht auf 60Hz zocken.
Und dann macht das bisschen mehr Latenz noch weniger aus. Und mit VSync und locked Framerate ist die immerhin konstant.
Ohne Sync schwankt die Latenz.
 
USB-Kabeljau schrieb:
Wenn man wirklich kompetitiv unterwegs ist, wird man ohnehin nicht auf 60Hz zocken.
Und dann macht das bisschen mehr Latenz noch weniger aus. Und mit VSync und locked Framerate ist die immerhin konstant.
Ohne Sync schwankt die Latenz.

Und das hast du dir gerade ausgedacht oder kennst du einen Pro-Player der das so macht wie du beschrieben? Ein einziger Name würde mir schon reichen.
 
duskstalker schrieb:
wenn die sampling rate zu niedrig ist, treten artefakte auf - hier kommt dann "passiv" die begrenzung der frequenz her - alles über 20khz könnte mit 40khz sampling rate nicht "artefaktfrei" wiedergegeben werden.

...

ich verstehe den widestand gegen höhere bitrates und sampling rates nicht - niemand produziert in 44,1khz 16bit - das passiert alles weit jenseits davon und dann kommt das downsampling auf cd qualität. wieso nicht eine bitrate und sampling rate akzeptieren, die das nutzsignal so original, präzise und artefaktfrei wie möglich darstellt? 96khz 24bit sind jeweils nur ein schritt entfernt. hier wäre es mal wieder zeit für einen neuen breiten standard.
Tatsächlich sind 44,1kHz beim Produzieren immer noch sehr weit verbreitet und neben 48kHz (für Film) der Standard.
Und lange Zeit hieß es "Bloß nicht die Samplerate konvertieren!", weil es damals fast nur schlechte Konverter gab, die jede Menge Aliasing erzeugt haben.
(Wie du ja selbst feststellst, ist die Echtzeit-Konvertierung selbst heutzutage häufig nicht frei von Artefakten.)

Und mit 40kHz Samplerate können Frequenzen über 20kHz nicht nur nicht artefaktfrei wiedergegeben. Sie können gar nicht wiedergegeben werden.
Darunter ist jedoch eine Artefakt-freie Wiedergabe fast uneingeschränkt möglich. Lediglich ein schmales Band knapp unterhalb von 20kHz fällt weg, da dort der Anti-Aliasing-Filter ansetzt. Aber darunter ist dann alles perfekt clean.
Genau das sagt ja das Nyquist-Shannon-Abtasttheorem aus, das du auch selbst zitierst.

Wieso man nicht auf höhere Raten wechselt?
Weil man's einfach nicht braucht.
Selbst wenn man extrem gute Ohren hat und über 20kHz hören kann, profitiert Musik davon überhaupt nicht. Gut abgemischte Songs haben so oder so einen Rolloff nach oben hin.
Und mehr als 16Bit braucht man auch nicht. Das Dither-Rauschen liegt damit bereits bei ca. -90dB.

Ja ... man kann auch bei -90dB noch was hören, wenn man die Boxen entsprechend aufdreht (ist ja logisch).
Aber es ergibt musikalisch keinen Sinn, einen Song mit einer dermaßen hohen Dynamik zu produzieren.
 
Ich fände einen Artikel auf CB Mal schon der auf die Technikgrundlagen von PC's eingeht. Vielleicht als Reise wo jede Woche ein Thema erklärt wird.

Es ist ja erschreckend wie viele den Unterschied der Bildwiederholfrequenz des Monitors und den FPS noch nicht verstanden haben. :D
 
@USB-Kabeljau : Bei der Bearbeitung im Studio werden höhere Auflösungen (z.B. 192 kHz und 24 Bit) verwendet, um Ungenauigkeiten bei den Berechnungen klein zu halten, so dass es nicht bzw. kaum zu Artefakten kommt. Erst beim Mastering für den verwendeten Tonträger wird auf das passende Format runtergerechnet (hier 44,1 kHz / 16 Bit bei CD).
 
@Suspektan das veranlasst das menschliche gehirn trotzdem, nicht, mehr wie 40 bilder pro sekunde zu verarbeiten. alles andere saust einfach durch, salopp geschrieben^^
 
feidl74 schrieb:
nicht, mehr wie 40 bilder pro sekunde zu verarbeiten
Ohne jetzt den Wert in Frage stellen zu wollen (vorerst), welche Themen relevanz hat das? Gibt es dann deiner Meinung nach eine maximal sinnvolle Refreshrate/FPS kombination und wo liegt die?
 
Vindoriel schrieb:
@USB-Kabeljau : Bei der Bearbeitung im Studio werden höhere Auflösungen (z.B. 192 kHz und 24 Bit) verwendet, um Ungenauigkeiten bei den Berechnungen klein zu halten, so dass es nicht bzw. kaum zu Artefakten kommt. Erst beim Mastering für den verwendeten Tonträger wird auf das passende Format runtergerechnet (hier 44,1 kHz / 16 Bit bei CD).
Also zumindest unter Produzenten sind 44,1kHz immer noch am verbreitetsten. Plugins, die von einer höheren Samplerate profitieren, haben eh Oversampling mit drin.

Mag sein, dass das in Mixing/Mastering-Studios anders ist.
Würde ich jetzt aber nicht beschwören.
 
  • Gefällt mir
Reaktionen: ComputerJunge
144hz top, stellt fast jeden zufrieden;
240hz auch gerne, für competetive gaming hauptsächlich;
360hz fast schon unsinnig, aber wer hat der kann;
500hz braucht niemand und hat auch niemand dannach gefragt.
 
Stormfirebird schrieb:
Ohne jetzt den Wert in Frage stellen zu wollen (vorerst), welche Themen relevanz hat das? Gibt es dann deiner Meinung nach eine maximal sinnvolle Refreshrate/FPS kombination und wo liegt die?
zumindest muss man nicht immer die neuesten hz zahlen mitmachen^^. kundenfang mit tollen marketinggags ala 8000hz pollingrate bei mäusen usw.. ich spiele nach wie vor auf einem 60 hz 4k monitor und alle die bisher darauf gezockt haben, fanden das bild sehr gut(qualität etc).
 
Zuletzt bearbeitet:
Zurück
Oben