News BOE: 500-Hz-Monitore dank schnellerer Metalloxid-TFTs

Topflappen schrieb:
Um 15 Jahre alte Spiele damit zu befeuern, und mit 500Hz zu genießen, sollte gerade so gehen.

Joa, versuch das mal mit Crysis.
Hallo CPU Limit. :)

Da darfst schon eher 20 Jahre zurück gehen.
 
W0dan schrieb:
-Komplettzitat entfernt-
Danke, sehr guter Beitrag, der das wichtigste sehr gut zusammen fasst. Endlich mal jemand der das Thema durchdrungen hat 👍(Falls sich jemand fragt ob das Ironie sein soll: Nein, ernst gemeint!)
 
Zuletzt bearbeitet von einem Moderator:
wifi hero schrieb:
Mich würde interessieren ob es dann noch sync braucht? Also hab ich z.B. bei 500hz mit um die 100fps überhaupt noch wahrnehmbares tearing?
Bereits bei 240Hz muss man schnell hin und her wackeln um an vertikalen Kanten kleine Bildrisse zu erzwingen
also bei 500Hz unmöglich aber seitdem Sync durch den offenen Standard quasi kostenlos ist bringt der Vorteil
von mehr Hz = weniger Tearing ohne Sync kaum etwas und ich wette die Industrie schafft es genauso wie bei
240 und 360Hz auch bei 500Hz den Leuten Monitore mit Nvdia G-Sync Modul für teures Geld unterzujubeln.

Wobei da mal Etwas war mit adaptive Overdrive wodurch sich Overshoot der Panelfrequenz anpassen lässt !?
 
Es gibt vielleicht Menschen die da noch einen Unterschied sehen zwischen 360 hz oder mehr aber das ist die absolute Minderheit, also ich brauch es nicht. Aber schön das die Entwicklung weiter geht, Stillstand ist auch nie gut ausser beim Ausstoß von CO2 fürs Kilma 😉.
 
BlackhandTV schrieb:
wurde auch Zeit, Kappa :D
:daumen:

Jupie 500 Hz ich wünsche mir lieber mehr Auflösung. Aber anscheinend sind mehr Hz leichter herzustellen als mehr Pixel.

Wer bei 60 Hz nichts trifft, trifft auch bei 500 Hz nichts.
Beim Zocken merke ich zwischen 60 und 144 Hz fast keinen Unterschied. Beim Scrollen von Text sind 144 Hz eine wahre freude und deutlich angenehmer.
 
Zuletzt bearbeitet:
Silfar schrieb:
Du bemerkst das in jedem Fall, weniger müde Augen sind nur eines der Beispiele.
Auch der Sprung 144 zu 165 ist einfach sehr viel flüssiger.
Die Ermüdung der Augen hat absolut nichts mit der Bildfrequenz zu tun.

Mit besonders hohen Wiederholungsraten werden doch die schwächen der übrigen Hardware kaschiert, nichts anderes. Klar kann das menschliche Auge auch Veränderungen wahrnehmen in Bereichen weit über 100Hz. Sonst könnte man ja auch nie einen Blitz sehen.

Aber bei Spielen geht es ja um flüssige Bewegungen. Hier ist entscheidend wie gleichmäßig die Bilder von der Grafikkarte geliefert werden können. Schon 30 FPS werden als flüssig wahrgenommen wenn sie ohne Schwankungen laufen, wenn die Framerate permanent zwischen 200 und 120 hin und herspringt kann man es wahrnehmen. Dieser Effekt wird durch hohe Herzzahlen gemindert und das Bild wirkt flüssiger.

Hohe Wiederholungsraten braucht man dann da, wo besonders schnelle Bewegungen nötig sind, besonders in eSports Titeln. Aber hier wäre das Limit im Bereich der menschlichen Reaktionsfähigkeit. Aber auch hier sind konstante Frames wichtiger als immer höhere Herzzahlen.

Diese Diskussionen gab es vor 20 Jahren noch nicht als 30FPS normal waren. Da liefen Spiele auch flüssig. Auch bei Konsolen führt man solche Diskussionen in der Regel nicht.
 
Silfar schrieb:
Du bemerkst das in jedem Fall, weniger müde Augen sind nur eines der Beispiele.
-Irgendwie wird auch unterschätzt an wie viel man sich gewöhnt. Bei CRTs kam man irgendwie auch mit dem Flimmern klar, was auch bei 120Hz irgendwie noch da war.
-Mein 4K Monitor lief eine Zeit auf 30Hz, deshalb habe ich mir eine Grafikkarte gekauft, weil daran konnte man sich nicht gewöhnen. Und auch wenn man nur mit viel weniger Hz Objekte zuverläsig tracken kann. Wenn sie scharf abgebildet sind, sieht man bei Kameraschwenks das Ruckeln. Das hat man bei verschwommenen Bildern früher nicht sehen können.

Und selbst wenn es für das Auge nichts mehr bringt, dann hat man trotzdem einen Vorteil davon. Wenn 50Hz Material auf 60Hz umgerechnet wird, geht das einfach nicht besonders gut. Man hat entweder tendenziell unschärfere Zwischenbilder oder es ruckelt in der Zeit. Bei 500Hz könnte man einfach Frames verdoppeln oder weglassen und es wäre recht flüssig. Dann vielleicht noch Zwischenbilder berechnen und es kann sich wirklich keiner mehr beschweren.
Wie mit den Grafiken. Man kann ja mit 10Punkt Schriften gut klarkommen, wenn man es will. Werden die aber auf 12Punkte skaliert, dann ist es einfach unscharf.
Sind da von Anfang an mehr Punkte vorhanden, ist das kein Problem und warum sollte man sich diesen Problemen hingeben?


Wir fahren ja auch keine 24PS Autos, weil das Ausreicht. Der Zeitvorteil wäre tatsächlich oft gar nicht so groß, wenn man damit nur ein paar Kilometer zum Einkaufen fährt. Aber am Ende will sich das dann doch keiner antun. Gäbe es Leute, die das kaufen wollen würden, dann würde das auch von irgendeinem Billighersteler für 100€ weniger angeboten werden.
Vor allen Dingen, wenn der Fortschritt erstmal keinen Nachteil zu haben scheint, dann frage ich mich, warum sich so viele darüber aufregen. Ich bin auf 4K umgestiegen mit 150% Skalierung und muss sagen, dass ich mich wirklich frage, warum es nicht einfach 5K mit 200% Skalierung gibt. Oft sind alte programme einfach unscharf, aber auf die bessere Textdarstellung in allen anderen Programmen würde ich nicht mehr verzichten wollen.
Ergänzung ()

Palomino schrieb:
Die Ermüdung der Augen hat absolut nichts mit der Bildfrequenz zu tun.
Vielleicht sind es nicht nur die Augen, sondern auch der Rest vom Körper? Wenn die Maus sich nur noch mit 30Hz bewegt, strengt es auf alle Fälle merkbar mehr an. Das ist ziemlich spürbar, wenn man auf dem Hauptmonitor 60Hz hat. Dann möchte man den Zweitmonitor am liebsten gar nicht mehr anfassen.
Ergänzung ()

Palomino schrieb:
Diese Diskussionen gab es vor 20 Jahren noch nicht als 30FPS normal waren. Da liefen Spiele auch flüssig. Auch bei Konsolen führt man solche Diskussionen in der Regel nicht.
Da hat man sich über "Slowdowns", "schlechtes Ansprechen" und darüber, dass es keinen Spaß macht, aufgeregt.
Bei den Konsolen wird einem der Wert einfach nicht angezeigt und durch Optimierungen haben die Entwickler meistens dafür gesorgt, dass es das Spielerlebnis nicht zu sehr einschränkt. Am Ende hat man für die Konsole auf der einen Seite weniger gezahlt und hat auf der anderen Seite keine Alternative. Beim PC kann man etwas daran ändern, deshalb wird es thematisiert.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Ich würde ja umsteigen. Aber Monitore mit guten Farbeigenschaften und Qualität kombiniert mit >60Hz sind super rar!
Weshalb ich alles noch mit 1200p@60Hz IPS von 2010 zocke. Jetzt mit der 6700XT habe ich mich an schön hohe Frameraten gewöhnt 😅... 4k120 wäre top, aber dann bricht alles ein... und aus 120-144FPs werden nur noch 40-60 ankommen.

Notlösung wäre (wegen der ppi) ein WQHD auf 24“, am liebsten aber 16:10 ;p
 
Ghosthunt schrieb:
Also langsam wird es Absurd mit den Hz (und Auflösungen über 4k).

Das Menschliche Auge und Gehirn unterliegen natürlichen Grenzen. 90 Hertz kann man noch gut wahrnehmen, danach nimmt die Sensibilität bei den meisten ab. Ob am Ende noch 120 oder 180 Hertz wahrgenommen werden können, sei schlicht nicht bekannt. Spätestens 200 Hertz/Fps fühlten sich jedoch an wie Bewegungen im echten Leben.
Menschliche Gehirne könnten Objekte nur mit 7 bis 13 Bildern pro Sekunde nachverfolgen ("Motion-Tracking"), wie EEGs bewiesen haben.

Und dann noch so viel Zuspruch!
Klar ist es bekannt und Absurd wird nur das manche es nicht begreifen das man Unterschiede wahrnehmen kann.

Monitore über 360Hz sind für den Pro Player Bereich und nicht für irgendwelche Casuals die einmal in der Woche zocken, für die macht es keinen Sinn. Aber im Bereich 144-240Hz würde auch der 55 Jährige Dieter einen Unterschied wahrnehmen, wenn er es dann auch will!

Das 240Hz auch bei Casuals Sinn machen sieht man in dem Video:

 
  • Gefällt mir
Reaktionen: autopilot und USB-Kabeljau
Vitali.Metzger schrieb:
Es gibt doch sogar welche die nicht mal einen Unterschied von 60 auf 144 Hz sehen. Die Hersteller sind doch bald an einem Punkt angelangt, bei dem ihre Technik komplett ausgereizt ist. Deswegen kommen die jetzt mit dem 8K oder 500Hz Mumpitz um die Ecke. Da die wissen das der Laie nur noch mit hohen Zahlen geködert werden kann.

Hat man vor 10 Jahren auch bei 144hz und 4k gesagt... niemand ist gezwungen irgendwas zu kaufen!
 
  • Gefällt mir
Reaktionen: autopilot und Rush
Wer eine hohe Auflösung, tolle Farben und die insgesamt "beste" Bildqualität möchte, für den gibt es doch schon viele tolle Möglichkeiten.
Kein Grund eine technische Innovation für eine ganz andere Zielgruppe mit ignorantem Stammtischgelaber voll zu spammen. Wie schön wäre es, wenn man hier tatsächlich sachlich mit denen über das Thema diskutieren könnte, für die ein Monitor mit einer hohen Bildwiederholfrequenz tatsächlich interessant ist.
Das wäre genauso, als würde ich bei der nächsten News zu einem 32" 8K Monitor mit HDR 90000 sinnlose Kommentare abgeben wie: "Brauch kein Mensch, mehr als 2K kann das Auge eh nicht wahrnehmen! Die sollen sich lieber mal auf Monitore mit mehr Hz konzentrieren!"

Der meiner Meinung nach wichtigste Punkt, wenn es um "mehr Hz" geht, der hier anscheinend total außen vorgelassen wird, ist der theoretisch geringere Input-Lag. Denn den Zeitunterschied zwischen Mausbewegung und Darstellung auf dem Monitor kann der Mensch sehr wohl auch im unteren Millisekundenbereich erkennen.



Eine Darstellung mit 500 Hz hat erstmal eine theoretische Latenz von 2ms. Natürlich ist der Monitor nicht der Einzige Faktor, der den Input-Lag beeinflusst. Doch solange es keine geeigneten Anzeigegeräte gibt, werden auch die anderen Hersteller und Entwickler keinen Sinn darin sehen, auf niedrigere Latenzen hinzuarbeiten.
Ich wage mal zu behaupten, dass der entscheidende Grund, warum viele Leute kaum mehr einen Unterscheid zwischen 240 Hz oder 360 Hz sehen, der ist, dass die Differenz bei aktuellen Systemen mit insgesamt vielleicht 10ms bis 20ms Input-Lag einfach untergeht.
Ob man jetzt 13ms oder 14,5ms Input Lag hat, ist kaum zu unterscheiden. Hätte das System (ohne Monitor) aber nur eine 1ms Latenz, wäre der Unterschied zwischen 240 Hz (4,17ms) und 500 Hz (2ms) deutlich größer (der echte Input-Lag eines Monitor variiert, und errechnet sich nicht nur durch den Hz-Wert).

Wie flüssig oder "schön" das Bild dann aussieht, ist nochmal was ganz anderes (Ein Spiel kann sich mit einem guten 120 Hz Monitor und den richtigen Einstellungen deutlich flüssiger anfühlen, als ein "schlechtes" 360 Hz Setup).

Aus meiner Sicht geht es also gar nicht darum, dass man jetzt unbedingt den neusten Monitor mit 500 Hz+ braucht, sonder darum, dass es einen kleinen Schritt weiter in Richtung "Ultra Low Latency Systeme" geht.
Und für die, die weniger Wert auf Input-Lag und den kompetitiven Vorteil in E-Sport Spielen legen, weil sie lieber das Lieblings Rollenspiel mit maximalen Einstellungen genießen möchte, wird es sicher auch noch viele andere interessante Monitor-Innovation geben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mk77er, autopilot, USB-Kabeljau und 3 andere
Ghosthunt schrieb:
Also langsam wird es Absurd mit den Hz (und Auflösungen über 4k).

Das Menschliche Auge und Gehirn unterliegen natürlichen Grenzen. 90 Hertz kann man noch gut wahrnehmen, danach nimmt die Sensibilität bei den meisten ab. Ob am Ende noch 120 oder 180 Hertz wahrgenommen werden können, sei schlicht nicht bekannt. Spätestens 200 Hertz/Fps fühlten sich jedoch an wie Bewegungen im echten Leben.
Menschliche Gehirne könnten Objekte nur mit 7 bis 13 Bildern pro Sekunde nachverfolgen ("Motion-Tracking"), wie EEGs bewiesen haben.
Also ich gib dir Recht das es glaub ich keinen merkbaren Unterschied macht ob 200 oder 500Hz.
Aber 7-13bilder pro Sekunde, was wurde da getestet? Ich mein das sind 7-13fps da laagt alles. Oder bin ich gerade doof?
 
Hier haben mal wieder einige den Punkt gefunden wo der Fortschritt gestoppt werden soll, weil sie den Unterschied nicht erkennen können oder es schlichtweg nicht wollen.

Damals hatte man noch mit 20FPS gespielt und gemeint alles über 30FPS wäre unnötig weil das Auge nicht mehr wahrnehmen würde.

Heutzutage würde ich kein Smartphone, Fernseher oder Notebook mit weniger als 120Hz kaufen und da ist immer noch Luft nach oben.
Muss man es haben? Nein, aber die viel angenehmere Darstellung und direktere Steuerung sind es mir Wert.
Spiele mit 30FPS cap werden auch nur in Ausnahmefällen gespielt.

Sollen die doch bis 2000Hz forschen, niemand wird gezwungen es zu kaufen.
Hauptsache es geht vorwärts.
 
  • Gefällt mir
Reaktionen: autopilot, USB-Kabeljau und INe5xIlium
Ghosthunt schrieb:
Menschliche Gehirne könnten Objekte nur mit 7 bis 13 Bildern pro Sekunde nachverfolgen ("Motion-Tracking"), wie EEGs bewiesen haben.
Weil dort auch die Reaktionszeit eine Rolle spielt. Und die verfälscht das Ergebnis.
Also wie gut dass Gehirn Informationen aufnehmen kann, kannst du gar nicht wirklich messen, da bei einer Messung immer die Reaktionszeit dabei ist.
 
Zuletzt bearbeitet:
Ich persönlich bemerke schon einen Unterschied, ob der G9 mit 120 oder 240Hz läuft. Die Mausbewegung auf dem Dekstop ist bereits wesentlich smoother. Das gleiche gilt auch in einem FPS Shooter. Da müssen nicht zwangsläufig 240fps anstehen.
 
  • Gefällt mir
Reaktionen: autopilot
wern001 schrieb:
Beim Zocken merke ich zwischen 60 und 144 Hz fast keinen Unterschied.
Ohne den 2. relevanten Faktor FPS ergibt diese Aussage keinen Sinn
denn 60FPS sehen auf 144Hz fast genauso ruckelig aus wie auf 60Hz
und mit FreeSync/G-Sync läuft ein 144Hz Monitor bei 60FPS mit 60Hz.
 
wifi hero schrieb:
Mich würde interessieren ob es dann noch sync braucht?
Auf einem 100Hz CRT hat mich das schon ziemlich genervt. 20% von dem Effekt würde ich trotzdem nicht gerne sehen müssen. Die Frage ist, ob die Zeiten dann noch unbedingt dynamisch angepasst werden müssen oder ob es vielleicht OK ist, wenn man ein Bild mal doppelt anzeigt.
Tearing ist ein Effekt, den man auf einer sehr trägen Aufnahme sieht. Diese winzigen Ruckler auf 500Hz vielleicht nicht mehr. Aber wenn man es günstig ausbügeln könnte, warum nicht. Die Synchronisation müsste ja auch viel besser funktoinieren, wenn der Monitor den Schwankungen der Grafikkarte praktisch perfekt folgen kann.
 
Looniversity schrieb:
Mehr als FullHD ist wohl mit den aktuellen Kabeln/Standards nicht drin. 500 4k Bilder pro Sekunde wird lustig. Ich seh schon die "mein Monitor für 5000 Euro geht nicht recht, das Kabel von Alibaba für 3,50€ ist aber neu und in Ordnung!" Threads kommen.:)
Die Kabel sind da glaube ich nicht das Problem. Man kann doch mehrere Kabel zum Monitor führen. Im Profisegment war das lange schon gang und gäbe. Und ich glaube sogar, bei ein paar Consumer 8k TVs muss man das sogar jetzt schon machen, weil ein einziges Kabel nicht mehr reicht. War das nicht bei einem 8k Beitrag von Linus? Aber nicht mehr sicher.

DisplayPort 1.4 (1. März 2016):[15]
  • Dank verlustbehafteter Video-Kompression ausreichend für 7.680 × 4.320 Pixel
DisplayPort 1.3 (15. September 2014) mit 810 MHz Symbolrate (HBR3):
  • 1 Leitung: 810 MByte/s (6,48 GBit/s): ausreichend für 2.560 × 1.600 Pixel
  • 2 Leitungen: 1620 MByte/s (12,96 GBit/s): ausreichend für 3.840 × 2.160 Pixel
  • 4 Leitungen: 3240 MByte/s (25,92 GBit/s): ausreichend für 5.120 × 2.880 Pixel
DisplayPort 1.2 (August 2009) mit 540 MHz Symbolrate (HBR2):
  • 1 Leitung: 540 MByte/s (4,32 GBit/s): ausreichend für 1.600 × 1.200 oder 1.920 × 1.200 Pixel
  • 2 Leitungen: 1080 MByte/s (8,64 GBit/s): ausreichend für 3.072 × 1.920 oder 2.560 × 1.600 Pixel
  • 4 Leitungen: 2160 MByte/s (17,28 GBit/s): ausreichend für 3.840 × 2.400 oder 4.096 × 2.560 Pixel
https://de.wikipedia.org/wiki/DisplayPort
 
Zuletzt bearbeitet:
INe5xIlium schrieb:
Wir fahren ja auch keine 24PS Autos, weil das Ausreicht.
Wenn es in dem Rahmen wäre stimmt das schon aber momentan haben wir das Gefühl wir fahren mit 240 PS durch die Gegend und dann kommt jemand mit 2.400 PS auf den Markt. Da fragt man sich schon wozu das gut sein soll.

Aber wie gesagt, wer meint das haben zu wollen und bereit ist zu zahlen, warum nicht?
 
Es gibt aber einige Effekte bei denen man deutlich merkt das etwas nicht "flüssig" ist.

Objekte die sich sehr schnell in/durch das Bild bewegen.
Man nimmt deutlich wahr das das Objekt durch das Bild "springt" weil einfach Lücken zwischen der Darstellung des Objekts sind. Dies sieht man.
Dies betrifft dann auch einen schlichten Mauszeiger den man schnell bewegt, das einprägendste Beispiel wäre aber ein kleiner Ball der in einer Sekunde durch das Bild hüpft.

Oder ein schneller 180° Turn in einem Shooter, der weit entfernte Horizont "springt" ebenso leicht bemerkbar in (ggf großen) Schritten durch das Bild.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: autopilot und INe5xIlium
Zurück
Oben