News 1000 Hz: TCL CSOT zeigt Monitor mit höchster Bildwiederholrate

supertramp schrieb:
1000hz, beeindruckend aber irgendwie suche ich einen Sinn dahinter. 120hz zu 60hz wird man wohl noch unterscheiden können, aber alles darüber?

Bei der "Blurbusters" Verlinkung draufklicken. Die kennen sich aus der Artikel ist durchaus lesenswert. Was ich rausgelesen habe ist dass wenn man von 120 auf 360/420 wechselt nochmal dieser "Wow" Effekt auftritt aber krasser als von 60-120fps.

Hat mich etwas Hellhörig gemacht weil auf den damaligen Top of the Line LCDs kam mir das nicht so krass vor, aber die beziehen sich auch speziell auf OLEDS. Bei Oleds soll das richtig gut sein. Werde mir demnächst einen 480Hz Oled besorgen und bin nun definitiv etwas gespannt. Gute Entwicklung. Gothic mit 1000Hz Mmmmmmh.
 
1000 Hz... einfach nur lächerlich!

Selbst ein Intel 80286 schafft mindestens 4000 Hz.

Also geht mir weg! :pcangry:

PS: Die Haltbarkeit des Bildschirms ist dann ab Kaufdatum ungefähr drei Tage länger, als die in der EU gesetzlich festgelegten zwei Jahre. Gute Strategie.

PPS: Ich weiß ja nicht... aber ein (zumeist quantitatives!) Mehr ist scheinbar immer noch ein supergeiles Verkaufsargument.

Macht aber auch Sinn in unserer Gesellschaft. Absolut.

Agbogbloshie freut sich wie immer schon......
 
mesohorny schrieb:
"suche RTX5090, um competitive auf 720p mit 1000fps zocken zu können"
Darunter ruckelt alles und ich sehe definitiv einen Unterschied.
naja, es gibt ja immer dieser "ubergamer", welche ungeachtet der biologischen einschränkungen welchen wir als menschen unterliegen, dennoch die 5gr unterschied bei ihrer maus spüren, die natürlich auch töne oberhalb von 17khz hören können und selbstverständlich den unterschied zw. 180hz und 240hz sehen können.
die wissenschaften und die biochemie sagen zwar was anderes, aber das gilt für diese leute natürlich nicht...also einfach ignorieren und schmunzeln wenn sich mal wieder jemand selbst disqualifiziert. :D
 
  • Gefällt mir
Reaktionen: Archetim und cbow
schade das hier soviele unwissende posten aber die können vielleicht nochwas lernen.

Wir gehen zurück ins Jahr 1999 dort gab es nur CRT Monitore, diese hatten ca um die 100Hz. Es war eine bestimmte Technik weshalb es kaum Unschärfe in der Bewegung(bewegtbild) gab, eben Röhre. Dann kamen irgendwann die ersten TFT Monitore auf also LCD Technik mit TN Panels und 60Hz.

Diese waren um Welten schlechter und sinds immernoch was damalige Röhrenmonitore im Stande zu leisten waren.

Jetzt aufpassen:
Um quasi aufdenselben Stand zu kommen wie vor knapp 30 Jahren was die guten Röhrenmonitore damals konnten braucht es laut Studien ca 1000Hz LCD Monitore um dieselbe Stufe zu erreichen.

Erst mit 1000Hz wird die Unschärfe bedingt durch LCD Technik negiert , wir haben quasi 30 Jahre was das angeht zurückgelegen, klar LCD haben andere Vorteile aber hier gings darum wieso wir bei LCD 1000Hz brauchen !
 
  • Gefällt mir
Reaktionen: VaninaIckx, DaBa, GenjuroKibagami und 6 andere
@Celinna,
vor 30 Jahren gab es aber auch schon n00bs. Welche Ausreden hatten die? :freak:

Spiel doch auf 100Hz-Röhre: 1337-pr0-g4m0r-style!

Fatal1ty hasst diesen Trick!
 
YY247 schrieb:
Den Unterschied zwischen 240hz und 120hz merkt man als Mensch noch recht gut. Alles drüber ist wird dann langsam echt schwierig
es wird nicht schwierig, sondern wissenschaftlich gesehen für uns unmöglich.
zumal man ja nicht wirklich die bildwiederholunterschiede wahrnimmt - das tut man schon bei wesentlich niedrigeren wiederholfrequenzen nicht mehr, sondern dass das panel selbst bei der darstellung und den wechseln (gtg, btb) flott ist und so ein klarer abgegrenztes und ruhiges (schlierenfreieres) bild wahrgenommen wird. das hat nur am rande etwas mit bildwiederholfrequenz zu tun.

was bring es mir wenn der monitor/tv hersteller bei gtg 1ms angibt und bei btb 3 ms, wenn das dann im labor z.b. mit 4,5ms und 8,1ms gemessen wird...das erstere entspräche bei einer zyklischen rotation einer wiederholfrequenz von ca 222hz respektive 123hz. sprich schwarz-weiss-schwarz wechsel kannst du an so einem pannel sowieso nicht mit mehr als 123hz darstellen; welchen zugewinn an darstellungsqualität erwartet man da dann jenseits der 200hz??
 
Verstehe nicht wieso sich alle auf 1000hz festbeißen. Ich bin mir sicher, dass man einen Unterschied sehen wird, solange das Panel dahinter auch in der Lage ist, das Bild innerhalb von 1ms komplett zu aktualisieren. Sonst wird es nur ein Rumgeschmiere, wie bei den Samsung VA Panels mit 240hz, wo Text kaum noch lesbar ist beim scrollen.

Der Grund wieso viele keinen Unterschied zwischen 120hz und 240hz sehen ist eben genau der. Die meisten Monitore haben eine höhere Aktualisierungsrate, aber das Panel kommt nicht mit. Dadurch wird es zwar trotzdem minimal flüssiger, aber zu erkennen ist nur ein Rumgeschmiere.
 
  • Gefällt mir
Reaktionen: ChrisMK72
Celinna schrieb:
schade das hier soviele unwissende posten aber die können vielleicht nochwas lernen.

Wir gehen zurück ins Jahr 1999 dort gab es nur CRT Monitore, diese hatten ca um die 100Hz. Es war eine bestimmte Technik weshalb es kaum Unschärfe in der Bewegung(bewegtbild) gab, eben Röhre. Dann kamen irgendwann die ersten TFT Monitore auf also LCD Technik mit TN Panels und 60Hz.

Diese waren um Welten schlechter und sinds immernoch was damalige Röhrenmonitore im Stande zu leisten waren.

Die "guten alten" Röhrenmonitore sind allesamt in der Praxis zu 99,9% letztlich komplette Scheiße gegenüber den Flachmännern. Eine bessere Bewegtdarstellung ist im Gesamtkonzept komplett zu ignorieren, es sei denn, man legt absolut primär Wert darauf. Ich habe genug Erfahrungen mit guten bis sehr guten CRT-Bildmeistern ihrer Zeit, die im heutigen Alltag in sehr vielen Sachen der Bilddarstellung niemals mit selbst mittelprächtigen LCDs mithalten können. Retro in allen Ehren, aber nicht im Alltag.*

Die "gute alte Zeit" ist eben wie so oft nur ein Mythos und in Sachen Computer sowieso...

*man stelle sich mal nur einen 65" CRT fürs Heimkino vor... absurd!

PS: Ich spreche den CRTs nicht ab, dass sie in Teildisziplinen überlegen sind. Aber im Gesamtkonzept sind sie heute einfach fast ausschließlich unbrauchbar. Ich hatte Anfang der 2000er auch noch einen von mir sehr geschätzten 22-Zoll-Monitor (Mitsubishi) - war super, damals. 20 Jahre später mit anderer Erfahrung, würde ich ihn nie mehr nutzen wollen, auch wenn ich durchaus Vorteile sehe in sehr wenigen Bereichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: OceanBlue72 und Archetim
YY247 schrieb:
Den Unterschied zwischen 240hz und 120hz merkt man als Mensch noch recht gut. Alles drüber ist wird dann langsam echt schwierig :D
Aber auch nur als junger Mensch - ich merke schon den Unterschied zwischen 90 und 120Hz nicht mehr so deutlich wie den von 60 auf 90Hz, aber ich bin natürlich auch ein (mittel)alter Sack :D
 
  • Gefällt mir
Reaktionen: Nefcairon und PulsarS
Ayo34 schrieb:
Wenn man dann einmal 144hz hatte, konnte man nicht mehr zurück zu 60hz und selbst 360hz merke ich jetzt auch
Interessant wie groß die Unterschiede da sind. Ich persönlich kann jenseits von 100 hz kaum noch einen Unterschied bemerken.
100 zu 144 kann ich nur noch mit marginaler Zuverlässigkeit unterscheiden. Zu 240hz hab ich definitiv nichts bemerkt.

Ich will nicht behaupten, dass es nicht möglich ist das zu sehen. Menschen sind schlicht unterschiedlich. Aber ich bemerke es definitiv nicht.
 
  • Gefällt mir
Reaktionen: tso und schneeland
schneeland schrieb:
Aber auch nur als junger Mensch - ich merke schon den Unterschied zwischen 90 und 120Hz nicht mehr so deutlich wie den von 60 auf 90Hz, aber ich bin natürlich auch ein (mittel)alter Sack :D
Ich hab meinen Monitor von 180 auf 120 Hz runtergedreht und merke null Unterschied.
Entweder bin ich ebenfalls zu alt oder kein Mensch, vielleicht auch beides.
 
  • Gefällt mir
Reaktionen: tso, cbow und schneeland
supertramp schrieb:
1000hz, beeindruckend aber irgendwie suche ich einen Sinn dahinter. 120hz zu 60hz wird man wohl noch unterscheiden können, aber alles darüber?
Bist du so ein Konsolero, den auch 24 Hz bei 24 FPS gereicht hat?

1000Hz ist hoffentlich nicht das Ende der Fahnenstange. Die Richtung ist aber richtig.
 
Ostfriese schrieb:
Die "guten alten" Röhrenmonitore sind allesamt in der Praxis zu 99,9% letztlich komplette Scheiße gegenüber den Flachmännern. Eine bessere Bewegtdarstellung ist im Gesamtkonzept komplett zu ignorieren, es sei denn, man legt absolut primär Wert darauf. Ich habe genug Erfahrungen mit guten bis sehr guten CRT-Bildmeistern ihrer Zeit, die im heutigen Alltag in sehr vielen Sachen der Bilddarstellung niemals mit selbst mittelprächtigen LCDs mithalten können. Retro in allen Ehren, aber nicht im Alltag.*

Die "gute alte Zeit" ist eben wie so oft nur ein Mythos und in Sachen Computer sowieso...

*man stelle sich mal nur einen 65" CRT fürs Heimkino vor... absurd!

PS: Ich spreche den CRTs nicht ab, dass sie in Teildisziplinen überlegen sind. Aber im Gesamtkonzept sind sie heute einfach fast ausschließlich unbrauchbar. Ich hatte Anfang der 2000er auch noch einen von mir sehr geschätzten 22-Zoll-Monitor (Mitsubishi) - war super, damals. 20 Jahre später mit anderer Erfahrung, würde ich ihn nie mehr nutzen wollen, auch wenn ich durchaus Vorteile sehe in sehr wenigen Bereichen.

ist schon richtig, die hatten viele andere Probleme, aber hier gings ja um das thema 1000Hz und unnötig, und nein isses eben nicht weil ich ja darauf hinwies wieso man bei LCD 1000Hz braucht um eben das auszugleichen die riesenschwäche die diese haben.
 
  • Gefällt mir
Reaktionen: DaBa, Qyxes und Snoop7676
Was bin ich froh keinen unterschied zu merken zwischen 60-144-240. Mein Desktop hat 2x 2160p60hz und mein altes notebook hatte 1080p144hz und mein aktuelles notebook hat 1440p240hz und ich merke nirgends einen unterschied. Daher ist es mir unbegreiflich wieso so viele sich an hohen hertzzahlen so aufpuschen.
BTT
Ich glaube bis wir die 1000hz wirklich kaufen können werden noch sehr viele zwischenschritte kommen, man will ja den kunden auf lange sicht das geld entnehmen
 
  • Gefällt mir
Reaktionen: BlackVally, Nefcairon und supertramp
Celinna schrieb:
ist schon richtig, die hatten viele andere Probleme, aber hier gings ja um das thema 1000Hz und unnötig, und nein isses eben nicht weil ich ja darauf hinwies wieso man bei LCD 1000Hz braucht um eben das auszugleichen die riesenschwäche die diese haben.

Das hat nichts mit LCD zu tun. Auf OLED hast du auch Unschärfe, einfach weil die Framerate zu gering ist und man durch das sample and hold Prinzip einen optischen Unschärfeffekt erzeugt.

Das ist einfach nur die Konsequenz daraus, dass man das Bild „nur“ 60, 120 oder 240 mal pro Sekunde wechselt bzw. dass jedes Bild 16, 8 oder 4 ms lang zu sehen ist. Je länger die Anzeigezeit, desto mehr Unschärfe entsteht im Auge, wenn du einen Bewegungsablauf auf dem Display mit dem Auge verfolgst. Da können die Schaltzeiten noch so perfekt sein (OLED), je länger ein Frame angezeigt wird, was sich eben aus der Framerate oder Bildwiederholrate automatisch ergibt, desto unschärfer wird ein Bewegungsablauf für das Auge.

Dass CRT bei der Bewegtbildschärfe einen Vorteil hatte lag nur daran, dass er flimmerte. CRTs nutzen nur einen Elektronenstrahl, der eine Phosphorschicht Zeile für Zeile zum leuchten bringt und sobald das Bild einmal abgetatstet wurde eine Austastphase hat in der das bild komplett schwarz ist, ehe dann wieder von oben nach unten das nächste Bild zeile für Zeile abgetastet wird.

Durch diese Schwarzphase verkürzt sich die effektive Anzeigezeit eines Bildes sehr deutlich. Man könnte also bei 60 FPS das Bild nur 1 ms lang anzeigen und die restlichen 15ms nur schwarzbild und man würde die Bewegtbildschärfe erreichen, die man bei 1000 Hz (=1 ms Anzeigezeit pro Bild) mit dem sample and hold prinzip erreicht.

Der Nachteil ist nur, dass 60 natürlich auch auf einem CRT nicht flüssiger sind als auf einem LCD oder OLED. Nur die Bewegtbildschärfe ist besser. Das heißt also rein im Bezug auf ruckelfreiheit würde man auch auf einem CRT trotzdem recht hohe frameraten von sagen wir mal bis zu 200 FPS brauchen, damit das Bild perfekt flüssig wird.

Der eigentliche Nachteil beim CRT ist aber das flimmern. Durch die austastphase ist das Bild nach jedem Bildwechsel eben komplett schwarz und leuchtet danach wieder. Das flimmern erzeugt eine sehr hohe Belastung für den Nutzer und kann zu Kopfschmerzen führen, weswegen man sowas heutzutage einfach nicht mehr will.

Im Endeffekt macht sich der CRT einfach nur einen optischen Trick zu nutze, um durch eine Verkürzung der Anzeigezeit eines Bildes (durch eine entsprechend lange schwarzphase) eine höhere Bewegtbildschärfe zu erreichen. Klar damals war das technisch bedingt durch CRT so und ging eh nicht anders. Das hat man sich nicht ausgesucht. Aber würde man es sich aussuchen können, dann muss man eben ganz klar sagen, dass man sich die höhere Bewegtbildschärfe eben nur durch störendes Flimmern erkaufen kann. Daher würde ich nicht sagen, dass CRT Technik besser war und moderne Technik ein Rückschritt ist. Nein, man hat einfach das Anzeigeprinzip gewechselt und wurde, nachdem man das Flimmern los geworden war eben mit der Realität konfrontiert, dass 60 oder 100 Hz eigentlich viel zu wenig sind, wenn man nicht durch den flimmertrick die Anzeigezeiten eines Bildes minimieren kann…

Das ganze ist also ganz grundlegend ein rein Optisches oder Physikalisches Problem des jeweiligen Anzeigeprinzips, das du völlig unabhägig der Technik hast. Wenn du ein Bild 16 ms lang bzw. „zu“ lange anzeigst, da wird das eben immer umscharf sein. Sowohl mit heutiger Technik als auch mit Technik die 100 Jahre in der Zukunft liegt.

Die Anzeigezeiten müssen eben verkürzt werden und das geht flimmerfrei selbst in der Theorie nur mit entsprechend hohen Bildwiederholraten von 1000+ Hz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ErbarmeHesse, DaBa, HageBen und 4 andere
cypeak schrieb:
naja, es gibt ja immer dieser "ubergamer", welche ungeachtet der biologischen einschränkungen welchen wir als menschen unterliegen, dennoch die 5gr unterschied bei ihrer maus spüren, die natürlich auch töne oberhalb von 17khz hören können und selbstverständlich den unterschied zw. 180hz und 240hz sehen können.
die wissenschaften und die biochemie sagen zwar was anderes, aber das gilt für diese leute natürlich nicht...also einfach ignorieren und schmunzeln wenn sich mal wieder jemand selbst disqualifiziert. :D
Es gibt auch immer wieder wen der sich für den Schlausten hält. Alle reden hier am Thema vorbei, da sich anscheinend niemand Mal den Blurbusters Text durchgelesen hat.
Worum es hier hauptsächlich geht, ist die Augenbewegungen die einen Objekt folgen. Da spielt Biologie keine Rolle sondern alleine die Physik. Wo der Monitor noch kein geändertes Pixel erstellt hat sehen wir nicht das erwartete Objekt, ergo Schlieren. Wie Überbelichtung bei Fotos. Darum muss man beim Blurbusters Test auch die Kamera bewegen, ist das Bild noch nicht da, ist das Pixel doppelt belichtet. Und rein rechnerisch scheint 1khz die zu knackende Grenze zu sein.

Ich kann mich noch gut an den Übergang von CRT zu LCD erinnern, ich spielte da gerne Autorennspiele, auf LCDs ist es selbst heute mit 144hz+ schwierig vorbeiragende Schilder zu lesen.. im echten Leben klappt das super, an CRT ging es auch. Und genau das ist der Punkt um den es geht, sehr schnelle Augenbewegungen zum fixieren eines Punktes, es hilft halt nichts das das Gehirn aus 24fps schon flüssige Bewegungen macht. Man muss den Objekt auch scharf folgen können. Geht bei den meisten Filmen deswegen übrigens auch nicht, weswegen es viele als normal betrachten.

Und kurz zu den anderen Punkten, bei Mäusen ist es nicht das Gewicht was man merkt, es ist die Startreibung und die Massenträgheit wenn man die Maus berührt und abrupt stoppt.

Bei Lautsprechern ist es so, das man zwar die mögliche Bandbreite nicht hört, aber kann der Lautsprecher nur das normale Spektrum, bricht er bauartbedingt meist schon vor den wahrnehmbaren Rändern von ca 50hz und 18khz schon ein, weil die Membran auch aus Massenträgheit nicht mehr will. Und den Unterschied kann man messen und hören. Man braucht keine 25khz hören aber der Audiophile hört bisweilen den nicht linearen Frequenzgang.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaBa, HageBen, ar4ch. und 7 andere
Selbst meine 4090 kann nicht einmal die 165Hz auf wqhd ausschöpfen. Aber gut die RTX11090 wird es dann evtl können
 
Ich hänge bei 120hz fest. Darüber gibt es kein 10Bit HDR mehr bei meiner Auflösung :(
 
Marcel55 schrieb:
Technisch auf jeden Fall interessant. Aber ich frage mich ob man den Unterschied zwischen 500Hz und 1000Hz wirklich merkt.

Ist wie bei Audioprodukten, nur weil man 50kHz wiedergeben kann, heißt es noch nicht dass man diese hören wird :D

Ich bin aktuell mit 120Hz ganz zufrieden, 60Hz geht für mich nicht mehr, den Unterschied merke ich ganz klar, wer weiß wenn irgendwann 1000Hz Standard sind wird man das gleiche bei 120Hz sagen. Von daher, macht mal.

Was 120hz angeht bin ich bei dir. Das passt bei vielen Programmen erstaunlich gut und bei Emulationen gibt es wenig Probleme. Ich selber habe einen älteren Asus ROG PG278QR mit TN-Display und würde den aktuell gegen kein neueres Modell tauschen. Es gibt (fast?) kein Modell mit weniger Input Lag. Selbst in Anwendungen ist dieses schnelle ansprechen von Grafiken sehr angenehm. Augen, Mausbewegung und auch Ohren sind für mein Empfinden synchron. Ich nutze übrigens Manjaro und Arch-Linux, das rennt wie Sau, selbst der Sound braucht nur 0,5ms, da braucht der Schall vom Lautsprecher zum Ohr länger. Ich steh auf sowas.
 
super fürs kompetitive zocken in 480p und 1000fps :lol: :lol: :lol:

nein danke, oled 240 hz 4k - und das auch genießen.
 
Zurück
Oben