News 1000 Hz: TCL CSOT zeigt Monitor mit höchster Bildwiederholrate

supertramp schrieb:
1000hz, beeindruckend aber irgendwie suche ich einen Sinn dahinter. 120hz zu 60hz wird man wohl noch unterscheiden können, aber alles darüber?

Ist im Artikel angedeutet: Schaerfe bewegter Objekte. Wenn das Auge sich mit dem bewegten Objekt mitbewegt, und das Bild die ganze Zeit leuchtet, dann ergibt sich dadurch, dass das Objekt in Einzelschritten verschoben wird, eine Unschaerfe; je hoeher die Wiederholrate, desto geringer. Abhilfe schafft also eine hoehere Bildwiederholrate, oder alternativ, dass das Bild nur kurze Zeit aufleuchtet (dafuer braucht man dann 70-80Hz oder so, damit das nicht als Flimmern wahrgenommen wird; deswegen hatten die CRTs damals oft 72Hz Bildwiederholrate).

Inwieweit die gigantischen Bildwiederholraten aktueller Gamingschirme wirklich mehr bringen als nur Umsatz bei den Herstellern der Komponenten, darueber wird hier wohl noch viel diskutiert werden, so wie in Hifi-Foren ueber die Wichtigkeit von teuren Kabeln aus sauerstofffreiem Kupfer fuer die Digitaluebertragung von Musik.
 
Nette Machbarkeitsstudie, in der Realität hat es aber keinen Nutzen
 
  • Gefällt mir
Reaktionen: Schmarall
lazsniper schrieb:
super fürs kompetitive zocken in 480p und 1000fps :lol: :lol: :lol:

nein danke, oled 240 hz 4k - und das auch genießen.
Es gibt Frame Generation und Black Frame Insertion, und schon Brauch die GPU nur noch 250 FPS erzeugen, weil zu jedem Frame dann 2 BFI Zyklen plus 1 FG dazu kommt. Wer weiß was denen noch einfällt.
 
  • Gefällt mir
Reaktionen: HageBen und lazsniper
Wie sieht es denn da mit der Alterung aus?
Schaun wir mal wieviel 1000Hz Monitore es in 3 Jahren gibt.
...und wie sich diese in den Tests schlagen die zweifelsfrei kommen werden.
 
Ostfriese schrieb:
Die "guten alten" Röhrenmonitore sind allesamt in der Praxis zu 99,9% letztlich komplette Scheiße gegenüber den Flachmännern. Eine bessere Bewegtdarstellung ist im Gesamtkonzept komplett zu ignorieren, es sei denn, man legt absolut primär Wert darauf. Ich habe genug Erfahrungen mit guten bis sehr guten CRT-Bildmeistern ihrer Zeit, die im heutigen Alltag in sehr vielen Sachen der Bilddarstellung niemals mit selbst mittelprächtigen LCDs mithalten können. Retro in allen Ehren, aber nicht im Alltag.*
...
Mein TV ist ein 55cm Panasonic Röhrenfernseher. Ich habe ihn vor ca. 30 Jahren von meinem ersten Gehalt gekauft. Ich wollte ihn schon häufig ersetzen, gerade wenn vor einer anstehenden Fußball WM, die Werbung für neue TV's sehr verlockend war.
Aber ich habe intern ein Versprechen mit meinem TV ausgehandelt: "Solange du läufst, behalte ich dich!"
Ja, bei Fussballspielen ist es schwierig die Ergebniseinblendung zu entschlüsseln. Oder auch eingeblendeten Text zu lesen.
Sky hat mich diverse Male bedrängt meinen veralteten Receiver zu tauschen. Aber ich habe immer abgelehnt, weil es ja keinen Scart-Anschluss mehr gibt.
Du magst ja recht haben, dass Röhrenmonitore im Vergleich zu LED komplett Scheiße sind, aber es gibt tatsächlich noch Menschen, die damit zufrieden sind, was diese TV's auch heute noch leisten.

P.S. Weiss hier jemand wie alt Röhrenfernseher werden können?:)
 
  • Gefällt mir
Reaktionen: Boimler und HerrFornit
Mimir schrieb:
nachdem man das Flimmern los geworden war eben mit der Realität konfrontiert, dass 60 oder 100 Hz eigentlich viel zu wenig sind, wenn man nicht durch den flimmertrick die Anzeigezeiten eines Bildes minimieren kann…
Möchte hier noch kurz anmerken das mit Tricks die aktuellen Monitore das gleiche verhalten simulieren.
Black Frame Insertion oder Backlight Strobing genannt, kommt auch in ULMB zum Einsatz, funktioniert genau so das nach jedem angezeigten Frame Der ganze Monitor kurz schwarz geschalten wird bevor das nächste Frame angezeigt wird.
Dadurch erhöht sich die Motion clarity extrem, reduziert aber die Helligkeit.

Salamimander schrieb:
Ich hänge bei 120hz fest. Darüber gibt es kein 10Bit HDR mehr bei meiner Auflösung :(
Ich auch :(

Lars_SHG schrieb:
Ja ernsthaft!
Das Ziel ist es das irgendwann mal 1000Hz Monitore Standard sind so wie heute 60Hz Monitore.
Dürfte in 20-30 Jahren vielleicht sogar eintreffen.

Whitehorse1979 schrieb:
Aber vielleicht bin ich ja kein Mensch oder irgendwie abnormal.
Kein Mensch ist Normal!
Wir sind alle einzigartig, etwas als "normal" zu definieren bedeutet ja auch das es Abweichungen unter und Ober der Normalität gibt.

Abbildung 5. Prozentuale Verteilung der Sehschärfe der getesteten Büroangestellten.
SEN060F5.jpg

https://www.iloencyclopaedia.org/de/part-i-47946/sensory-systems/item/461-vision-and-work
 
  • Gefällt mir
Reaktionen: Mimir
Kann mir einer erzählen was er will aber das halte ich einfach nur für Geldmacherei.
 
  • Gefällt mir
Reaktionen: Fatal3ty
Ostfriese schrieb:
Eine bessere Bewegtdarstellung ist im Gesamtkonzept komplett zu ignorieren

Das ist auch nur deine subjektive Meinung, also stilisiere das hier bitte nicht zu einer allgemeingültigen Aussage.

Es gibt durchaus Leute, denen besonders eine gute Bewegtbilddarstellung wichtig ist.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
Ja nett, aber woher kommen die Bilder, die angezeigt werden sollen?

Das ist für Spezialgeräte cool (Medizin, Forschung, ...) aber nicht für den Hausgebrauch.
 
@Schmarall
Die Bilder können künstlich erzeugt werden. Stichwort: "Frame Generation"
Es ist eine relativ neue Methode, die vorher undenkbar war und kann in Zukunft noch große technologische Sprünge machen.

Bei 1000 Hz Displays, kann man so viele künstliche Bilder erzeugen, bis alles scharf wird.
Die 120 Hz Displays bringt man heute schon ohne Probleme ans Limit. 240 Hz können mit Frame Generation ebenfalls ausgereizt werden.


Wie viel FPS und Hz braucht es, damit alles auch bei schnelleren Umdrehungen absolut scharf bleibt? Die Technologie muss immer schneller als das Auge sein.
Bei einer Drehung sollte das Bild nicht verschwimmen, wenn man einen Punkt fokussiert.
Mit VR Brillen ist der Effekt viel größer.
Und sobald Eye-Tracking in VR Brillen marktreif sein wird und die Bildschärfe innerhalb des Augenfokus gehalten werden kann, können die FPS erneut vervielfacht werden, weil ein kleinerer Teil dargestellt werden muss und alles drumherum mit Frame Generation nur grob und schlechter ausgelöst werden muss.

Ich glaube, 1000 FPS mit 1000 Hz sind überhaupt nicht unrealistisch.
 
Zuletzt bearbeitet von einem Moderator:
also die ungleichmäßige Ausleuchtung auf dem 1000hz screen bild ist schon echt übel... 😅
 
Das wird ein Spaß für die Händler, wenn die Geräte zwei- oder dreimal zurückgehen, bevor man eins ohne Spulenfiepen hat.
 
BReTT PiTT schrieb:
Wobei ich da auch nix gegen 500hz hätte, da man schon in dem ein oder anderen Game, je nach Grafikkarte natürlich, über 240 Fps kommt. 500hz auf 4k wäre dann wohl der Sweetspot für die nächsten Jahre. Und man soll ja doch noch wohl einen Unterschied merken zwischen 240hz und 500hz. Bei 500hz vs 1000hz bin ich doch eher skeptisch.

8k wird sicher auch in den nächsten paar Jahren mal ein Thema werden. Aber 4k ist bei Monitoren bis 32 Zoll schon wirklich ausreichend von der Pixeldichte. Da brauchts nicht wirklich 8k. Zumindest nicht zum zocken
LG hätte da was für dich :-)

Das Panel kann 4k mit 240Hz oder 1080p mit 480Hz. Finde ich ehrlich gesagt ziemlich spannend. So muss man sich nicht entscheiden, wobei mir 240Hz wahrscheinlich bis an den Rest des Lebens ausreichen würden. Das kommende 42" 240Hz Panel hat wohl leider keine zwei Modi (nur das ist relevant für mich, kleiner möchte ich nicht mehr für den Hauptbildschirm). Ach, und ansonsten gibt es natürlich auch noch 360Hz QD-OLED und bald auch 480Hz WQHD WOLED-Panels...

LG

Micha
 
Gibts eigentlich von irgendwo her schon infos über eine höhere auflösung als immer mehr hz? Ich wäre ja mit 240/360 absolut fein wenn ich dafür bei 48 Zoll endlich mal 8K kaufen könnte. Finde aber dazu weiter nix.

Ist das Technisch nicht möglich oder woran hängt es da? 4K gibts ja gefühlt schon ewig auf dem markt.

Freu mich falls jemand da Insider infos hätte
 
IT-Nadja schrieb:
Die Bilder können künstlich erzeugt werden. Stichwort: "Frame Generation"
Es ist eine relativ neue Methode, die vorher undenkbar war und kann in Zukunft noch große technologische Sprünge machen.
Jaein...
Frame Interpolation ist eine Technologie die Fernseher bereits seit rund 15 Jahren einsetzen.
Das Problem an der ganzen Geschichte und wieso das am PC selten eingesetzt wird ist der Input Lag.
Bei Interpolation benötigst du 2 Bilder und berechnest daraus ein Mittelbild. Das heisst bei 60Hz/fps wird also ein Frame gerendert, dauert 16ms, danach wird ein zweites frame gerendert wieder 16ms, danach wird ein Zwischenbild berechnet.... was schneller als 16ms gehen muss. Und dann erst werden alle 3 Frames angezeigt. D.h du hast mindestens 16ms längeren input Lag als Ohne.
Wenn du das nun bei 30fps versuchen willst. wären das über 33ms....

Da aber immer versucht wird die Latenz so tief wie möglich zu halten, über alle komponenten, verwendet so gut wie keiner diese Technologie beim zocken.
1716039222662.png

https://developer.nvidia.com/blog/understanding-and-measuring-pc-latency/

Darum verwendet nVidia und AMD auch Frame Extrapolation. Da wird das existierende Frame verwendet um mit Motion Vectors von der Game Engine her ein möglichst Wahrscheinliches Zukunftsbild zu erstellen.
Dadurch muss nicht auf ein zweites Frame gewartet werden was die Latenz wesentlich reduziert.

1716039477037.png

(auch wenn AMD da das auf Ihrer folie noch falsch definiert hat...)



Ich hab mal kurz eine Grafik gemacht wie das bei 240fps -> 960fps interpoliert mit dem Inputlag aussehen würde.

1716040947154.png

Wo wir bei 60fps ja sowieso 16.6ms auf das nächste Frame warten müssen, ist dieser Wert bei 240fps nur noch 4.16ms logischerweise 4x schneller.
Wenn man nun bei 240FPS Interpolation zwischen Frame 1 und Frame 2 machen würde, würde das also mindestens 4.16ms + Interpolations Dauer verzögern. Was immernoch wesentlich schneller ist als 60fps und beinahe an 120fps rankommt.

Das Problem an der Geschichte ist aber das wir kaum auf 240FPS kommen. Die meisten die Frame Generation nutzen haben das um die 30-60 FPS rum. Und wenn man es bei 90-120 FPS anschaltet wird für ein 4k extrapoliertes Frame so viel Zeit benötigt das es selten einen 2 Fachen Performanceboost erbringen kann.

Es wäre aber durchaus möglich 1'000Hz Monitore zu befeuern... mit 240Hz Input könnten man die Frame Interpolation sogar auf den Monitor auslagern. Somit wäre auch der Anschluss kein Problem mehr.
 
  • Gefällt mir
Reaktionen: HageBen und latexdoll
Ich denke es wird nicht bei 1000hz aufhören.
Es wird immer echte und scheinbare postive Gründe geben, das weiter zu treiben mit der Hertzzahl.

Sehr wahrscheinlich das auch irgendwann dann 8khz Monitore auftauchen und es aussergewöhnliche Menschen gibt , die einen himmelweitzen Unterschied zwischen 1 und 8 khz sehen/bemerken.

Warten wir es mal ab und hoffen das, die Schnittenstellen der Datenmengen mithalten. hust
 
Celinna schrieb:
weil ich ja darauf hinwies wieso man bei LCD 1000Hz braucht um eben das auszugleichen die riesenschwäche die diese haben.
Tatsächlich bedeutet mehr Hz nicht automatisch weniger ms bei der Panel Reaktionszeit also egal ob
120, 240, 360, 480 oder 1000Hz wenn ein VA Panel verbaut ist, hat man am Ende trotzdem >5ms CTC.

Die Flüssigkristalle unterliegen physikalischen Gesetzen und LCD kann somit nie frei von Schlieren sein
aber durch technische Tricks wie Overdrive und Blur Reduction kann man unsere Wahrnehmung täuschen.

Hinzu kommt noch, daß mehr Hz bzw. eine schnellere Panel Rekationszeit bei LCD in der Regel bedeutet
eine sichtbar schlechtere Bildqualität in Bezug auf Kontrast, Schwarzwert, Farben und Blickwinkelstabilität.
 
  • Gefällt mir
Reaktionen: Haldi
Sunjy Kamikaze schrieb:
wenn ich dafür bei 48 Zoll endlich mal 8K kaufen könnte. Finde aber dazu weiter nix.

Ist das Technisch nicht möglich oder woran hängt es da? 4K gibts ja gefühlt schon ewig auf dem markt.
Niemand hält dich davon ab einen 8k Fernseher zu kaufen...
https://www.samsung.com/ch/tvs/8k-tv/
Das ist nur deine persönliche einschränkung das er 48" haben muss und nicht 55"
 
  • Gefällt mir
Reaktionen: Pro_Bro
Zurück
Oben