News PC-Monitore: Der nächste Schritt lautet 280 Hz

BorstiNumberOne schrieb:
Das Feature heißt ja eigentlich ganz simpel "Zwischenbildberechnung" (bei Samsung Motion Plus, bei Philips Natural Motion, etc.)
TruMotion bei LG, Motionflow bei Sony....

Zur ganzen Diskussion mit den unterschiedlichen Frameraten. Man muß sich vor Augen führen, daß die ganze Arie damals schlichtweg technische Limitierungen waren. Bei den 24 Bilder/sek für die Kamera wurde noch künstlich ein "Schwarzbild" eingefügt, alle analogen Projektorenbesitzer erinnern sich. Bei 25/50 und 30/60 war das verwendete Stromnetz schuld, damit die künstliche Beleuchtung in der gleichen Frequenz wie die Filmrate im Studio hat, um Flimmern zu vermeiden. Ebenso war der Interlace-Modus ein Kompromiss aufgrund der maximal möglichen Sendeleistung damals. Das brauchen wir heute alles eigentlich nicht mehr. Und ich wäre sogar eher für 50 und 60 FPS bei Filmen. Wer selbst filmt, am besten in RAW, 10-12 Bit und 6k oder 8k, weiß, was da für eine enorme Datenmenge unkomprimiert erzeugt wird. Dank NVMe SSDs an sich auch kein Problem, wenn die Kameras das mal könnten, und die Dinger nicht zu klein wären. 1-2TB sind da nichts.

Von dem Unvermögen der Flachbildschirmpanels, mal entsprechend große Farbräume oder Wiederholungen anzuzeigen mal ganz zu schweigen. Die Kristalle in den LCDs schalten nun mal nur in einem gewissen Abstand, und es wird mit Tricks ohne Ende gearbeitet (Überspannung und Co.), um eine schnellere Reaktionszeit herauszukitzeln. Quittiert wird das alles mit Ghosting und Schlierenbildung und sonstwas im "overdrive mode".

Sprich, alle Bildraten sind nicht deshalb entstanden, weil sie uns optisch genügen, sondern weil die Technik das schlichtweg kaum mitmacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BorstiNumberOne
downforze schrieb:
Ich weiß nicht, was mit "cinematralisch" gemeint sein soll. Für mich bedeutet das einfach nur ruckelig und 48 fps sind flüssig und nicht "Soap"-arti
Eben- Denn nur durch eine bessere Technik beschneidet man ja den Regisseur nicht in seinem "Art- Style", wie z.B. Filmkörnung, Schärfefilter usw.

LG
Zero
 
Also bislang reicht mit 144Hz auf meinem 24" komplett aus aber prima Entwicklung sollte ich mal umsteigen bekomme ich die nachgeworfen. Ich durfte mal bei 1440p über die Schulter schauen und irgendwie hat mir der Aha Effekt gefehlt aber muss wohl für Leute sein die 27" und aufwärts spielen. Ich sitze 30cm vom Bildschirm weg und ich würde ohnehin Augenkrebs bekommen^^
 
Chillaholic schrieb:
Das ist total abhängig von der Entfernung zum Monitor und nicht pauschal beantwortbar.
Die Pixeldichte auf 24" ist halt 91.79 zu 81.59 bei 27" auf FHD und das ist spürbar weniger.

Unter 27" 1440p@144Hz würd ich nix neues mehr anschaffen, vor allem da man etwas länger was vom Monitor hat.

Scheinst nur die Hälfte gelesen zu haben, deswgeen gehe ich nicht weiter drauf ein. Jeder das worauf er Bock hat würde ich sage. Für mich kommt 1440p/4k erstmal nicht in Frage, habe sogar bewusst wieder gedowngraded.
 
6kbyte schrieb:
Scheinst nur die Hälfte gelesen zu haben, deswgeen gehe ich nicht weiter drauf ein.
Erst zitierst du mich und hinterlässt dann so nen mega langen Roman, der nichts als deine persönliche Meinung widerspiegelt (der ich in vielen Punkten übrigens wiedersprechen möchte). Dann erdreistst du dich mich erneut zu zitieren und absichtlich nicht drauf einzugehen weil ich deinen mega langen Roman angeblich nicht gelesen habe? Okay Boomer! Wir sind da nunmal unterschiedlicher Ansichten, FHD ist für mich outdated, FOV zerzerrt den Blickwinkel und ist kein Ersatz für ne höhere Auflösung. Wenn du dich nicht mit mir unterhalten möchtest, bitte ich dich auch mich nicht mehr zu zitieren.
 
Zuletzt bearbeitet:
Ich bin von 23" Full-HD, 60Hz, 93dpi auf 27" WQHD, 144Hz, 109dpi gewechselt und der Unterschied ist deutlich wahrzunehmen. Momentan ist mMn der sweet spot beim Gaming bei 1440p 144Hz, das ist ein guter Kompromiss zwischen Auflösung und Leistung. Aber ihr könnt mich gerne korrigieren.

Full-HD, 24" 92dpi ---> 1660S/Ti, RX590 ---> 250€
WQHD, 27" 109dpi ---> 2070S, 5700XT ---> 500€
4K-UHD, 32" 138dpi ---> 2080S, 2080Ti ---> 700-1100€
 
*Palio* schrieb:
Aber ihr könnt mich gerne korrigieren.

Full-HD, 24" 92dpi ---> 1660S/Ti, RX590 ---> 250€ 190€(RX590) 250€(1660S)
WQHD, 27" 109dpi ---> 2070S, 5700XT ---> 500€ 400-440€(5700XT) 510-600€(2070S)
4K-UHD, 32" 138dpi ---> 2080S, 2080Ti ---> 700-1100€
;)
Ich muss sagen ich komme mit den Monitoren auf der Arbeit eigentlich ziemlich gut klar, die haben 2560x1080 auf 34" = 81.72dpi, ich hatte aber auch privat schon einen 27" mit 1920x1080 mit der gleichen dpi^^
Aktuell sieht es etwas besser aus mit 2560x1440 auf 31.5" = 93dpi
 
Zuletzt bearbeitet:
KlaraElfer
Zitat:

Eine Playstation 4 als Mauspad, damit ist klar warum du dir nichts von 240 oder mehr Hertz versprichst.^^

Spaß beiseite, es gibt ganz einfache Tests die verdeutlichen wie stark der Profit aus mehr Hertz ist.

Die Diskussion ist doch eigentlich unnötig hier.
Je mehr Auflösung oder Bildwiederholrate desto besser. 8 K auf 24 Zoll und 600 Hertz dürften dann in etwa das Ende des Sinnvollen sein.

Ab dem Zeitpunkt dürfte dann Text, den man in einem Fenster mit der Maus hin und herschiebt, nicht mehr verschwommen sein.



ist ne Xbox One X läuft auf 120Hz, bis der Pc fertig ist. Hatte schon mal einen Pc mit nem I7 - 6700k und ner MSI GTX 1080 und nem ASUS Rog Swift 144Hz also ich weiss wie es ist.

Jetzt kommt ne RTX 2070 Super und ne i7 - 9700k zum Einsatz. Also ich brauche keine 240Hz und höher für mich Persönlich völlig übertrieben nimmt das Auge auch nicht mehr wirklich wahr, glaube auch nicht das da wirklich unterschied zum 144Hz bzw Oc mit 166Hz ist.

Glaube auch nicht das du mit 240Hz oder 280Hz schneller bist, irgendwann ist auch mit der Reaktinszeit von der Physik am spielen bzw am Bildschirm Ende.
 
@ZeroZerp
Mit Flimmerkiste meinte ich abwertend 60Hz Monitore, da diese einfach zu langsam sind, so dass der Vergleich zu 120 und mehr wie "Flimmern" wirkt. ("Diashow", ähnliche Anwendung). Was ich ansprechen wollt sind ja eben so Sachen wie Texte Scrollen, Fenster verschieben etc. Mach das mal den halben Tag, irgendwann reibst du dir die Augen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Nah, doch nicht bei TFTs. Und verschaut den ganzen Tag Diashows. Die meisten Leuten Lesen und Schreiben am Computer, und da ist nicht so viel Bewegung drin. Wenn Du den ganzen Tag codest oder irgendwelche Server bedienst, ist auch nicht viel Bewegung drin. Wichtig ist dann eher der Kontrast richtig wählen (eher grau und schwarz als weißer Hintergrund).
 
Falls jemanden flüssige Video-Frames interessieren,
bedenkt dass 240Hz ein Vielfaches der Bluray-Framerate mit 24Hz
und zugleich ein Vielfaches der YT-Framerate mit 60Hz ist.
Einige Animes laufen mit 30Hz, welche somit auch ruckelfrei dargestellt werden.
 
24p bleibt auch mit 240 rucklig. Es ist relativ egal ob ein und das selbe Bild lange gezeigt wird oder 10mal das selbe. Das Resultate ist das Selbe.
Wie gesagt sind FPS und Hz 2 Paar Schuhe. Der 240hz Monitor refresht halt 10 mal während er die 10 mal das Selbe Bild zeigt.

Die Bluray arbeitet nicht mit 24hz sondern liefert 24fps. Hz macht der TV/Monitor
 
Schon Bill Gates sagte: "60 Hertz sind genug für jeden"
 
Spatha ROG G752 schrieb:
[Spaß beiseite, es gibt ganz einfache Tests die verdeutlichen wie stark der Profit aus mehr Hertz ist.
Ja- Die zum Teil schon zeigen, dass es bereits teils bereits ab 75Hz mit 75FPS zu einem Ratespiel mit einer Prise Wahrscheinlichkeitsrechnung wird.
Zudem ist bei keinem dieser Tests technisch sichergestellt, dass die Hardware auch entsprechende Anforderungen vollumfänglich erfüllt (siehe z.B. den von mir geposteten Flickertest weiter vorne).
So funktioniert kein wissenschaftliches Arbeiten.

Die Diskussion ist doch eigentlich unnötig hier.
Je mehr Auflösung oder Bildwiederholrate desto besser. 8 K auf 24 Zoll und 600 Hertz dürften dann in etwa das Ende des Sinnvollen sein.
Je mehr desto besser stimmt eben nicht, weil Du auch noch technische und biologische Aspekte miteinbeziehen musst. Wenn das beste Adlerauge ab 100-110Hz technisch sauber dargestellten Hz und FPS keinen Unterschied/Ruckeln/Flicker mehr erkennt, dann ist alles darüberhinaus schlicht unnötiger Aufwand, Energieverschwendung, ökonomisch und ökologisch schädlich.

Den Spruch kann man leider garnicht oft genug wiederholen: Nicht alles was technisch machbar ist, ist in der Praxis dann auch sinnvoll...

Und dass wir technisch noch ein gutes Stück entfernt sind, überhaupt erst Raten wir 144FPS darzustellen zeigt z.B. das hier:
1576746924308.png


Oder hier:

Man führt hier dadurch, dass das Display eben keine sauber getrennten 144Hz liefert in Sachen Bildfehler zusätzlich inverses Ghosting ein. Man versucht also mit dem Teufel den Belzebub auszutreiben, nur um eine höhere Marketingzahl hinter die Hz schreiben zu können.

Da waren wir schon mal viel weiter- Und das ist es, was mich stört:

Also ich brauche keine 240Hz und höher für mich Persönlich völlig übertrieben nimmt das Auge auch nicht mehr wirklich wahr, glaube auch nicht das da wirklich unterschied zum 144Hz bzw Oc mit 166Hz ist.
Eben, weil es wissenschaftlich dafür nicht den geringsten Anhaltspunkt gibt.

Glaube auch nicht das du mit 240Hz oder 280Hz schneller bist, irgendwann ist auch mit der Reaktinszeit von der Physik am spielen bzw am Bildschirm Ende.
Siehe oben.

An der allgemeinen Diskussion stört mich eben, dass viele einen verfälschten Blickwinkel einnehmen, der ihnen aber von der Industrie geradezu aufgezwungen wird.

Nämlich, dass man z.B. 144Hz oder FPS bräuchte, um eine entsprechende "Smoothness", oder Reaktionszeit oder wie auch immer hinzubekommen.

Diese Einstellung hat sich einzig und allein durch das offenbar funktionierende Marketing der Monitorhersteller/Grafikkartenhersteller gefestigt.
Es wird einfach hingenommen, dass man mit 144Hz in Wahrheit vielleicht nur 90-100 sauber getrennte FPS hinbekommt. Und dennoch wird dann unkritisch dann 280Hz als der heiße Scheiß in die Welt hinausgepredigt...

Also liebe Hardwarehersteller, nehmt die Leute nicht weiter auf den Arm. Entwickelt Monitore, die die Hertzzahlen wirklich verdienen, durch die sie sich in Techsheets schmücken. Von solch einer Basis aus kann man dann weiterentwickeln, da erst dann auch wieder eine Vergleichbarkeit herrscht.

Aber eine Krankheit durch die andere auszutreiben und das dann als technischen Fortschritt verkaufen ist nicht wünschenswert.

LG
Zero
 
Zuletzt bearbeitet:
Das kannst theoretisieren wie du willst, ich habe auch gedacht, dass ich das Downgrade von 240hz auf 144hz nicht wahr nehmen kann.
Natürlich ist es wumpe ob man 100fps auf 144hz oder 240hz spielt aber fakt ist, dass ICH ohne Sync kein Tearing mehr gesehen hab und es auf dem Desktop ein Tick anhenehmer ist. Spielt man games mit ca. 180 bis 200fps sind auch diese schärfer als auf einen 144hz.
 
Zurück
Oben