News Prototyp: Erster Monitor mit nativen 480 Hz

Fragger911 schrieb:
welche Grafikkarte soll das in absehbarer Zeit stemmen können?
Zum Arbeiten auf dem Desktop sind selbst 144 Hz schon eine Genugtuung fürs Auge. Wer weiß wie sich 480 Hz auswirken. Endlich keine Spuren mehr vom Cursor, keine nachziehenden Fenster, ... Schön wärs.
 
@elefant, @BlubbsDE, @cor1: Bitte einmal selbst damit befassen! Ich schrieb nicht umsonnst "fast"

@Smagjus, @ottomann: Danke! Das erspart mir das Suchen und Erklären
 
Mit solchen Monitoren lassen sich Highspeed (paar hundert Fotos/Sekunde)-Videos akkurat wiedergeben. Vielleicht ist sowas für Industrialisierung 4.0 interessant?
 
@ Fliegenthema usw. : lol ! Ihr freaks ! Sehr amüsant hier ! ;) :lol:
 
@Diskussion

Denkt doch an die zukünftigen Cyborgs... mit ihren Augen-Implantaten müssen die früher oder später auch Nachrichten gucken können. Obwohl bis dahin gibt es sicherlich vernünftiges AR in den Dingern...vergisst es!
 
Selbst wenn kaum einer ein 480 Hz Monitor in den nächsten Jahren zu Hause stehen haben wird - die Technik wird damit weiter entwickelt und somit profitieren alle davon. Soll heißen, wenn die es hinbekommen, dass bei 480 Hz ein Monitor gut funktioniert (dafür braucht es ja entsprechend schnelle Panele, die dann trotzdem noch eine gute Farbraum-Abdeckung sowie einen ordentlichen Kontrast haben), dann profitieren die 144 Hz Monitore erst Recht davon - und wenn es am Ende nur der Preis ist.

Also nicht immer gleich schreiben "braucht ja eh keiner". Eigener Tellerrand und so ;)
 
Smagjus schrieb:
Weil die Nachteile, die durch asynchrone Bildwiederholraten entstehen mit steigender Bildwiederholrate des Monitors kleiner werden. Andersherum bringt Adaptive Sync bei 480Hz kaum noch einen Vorteil.

G-Sync wird primär verwendet, wenn die FPS zwischen 30 und 60 abfallen.
Bei normalen Monitoren -> Tearing oder Vsync Latenz
Bei G-Sync Monitoren -> Breites Grinsen auf deinem Gesicht

Welche Hertzrate der Monitor hat, ist dabei völlig wurscht.
 
ottoman schrieb:
Ihr scheint GSync/FreeSync nicht verstanden zu haben. Dabei beschreibt es selbst CB im entsprechenden Artikel sehr gut:

Quelle: https://www.computerbase.de/2013-12/nvidia-gsync-test/5/

Und bevor wieder das übliche "mimimi so viel FPS kann keine Grafikkarte darstellen" kommt... man braucht nicht so hohe FPS, um von vielen Hz einen Vorteil zu haben. Bitte versteht es doch endlich mal. Den Auszug aus dem CB Artikel muss ich alle 2 Monate posten.

Vielleicht doofe Frage, aber das heißt, man könnte dann endlich wieder Namen von vorbeilaufenden Spielern lesen, wie man das von Röhren gewohnt ist? Oder wie ist das gemeint?
 
Zuletzt bearbeitet von einem Moderator:
Warum nicht mal etwas entwickeln, das etwas mehr im Kundeninteresse liegt? Ein 4k-Monitor mit 120 oder 144 Hz wäre doch mal etwas feines :) Oder ein absoluter Traum, ein 5k 21:9 Curved Monitor (5120 x 2160) @ 144 Hz, da haben zumindest die Gamer und Content-Creator was von ;)
 
Das ganze wirkt für mich etwas unseriös, weil noch nicht mal angegeben ist, um was für einen Paneltyp es sich handelt. Sind es wie bei TFT-Monitoren (Sub)Pixel die das Licht einer Hintergrundbeleuchtung in einstellbarem Maße durchlassen oder eher wie bei OLEDs, wo die (Sub)Pixel selbst aktiv leuchten. Letzteres ist wahrscheinlicher, da sich LEDs prinzipiell deutlich schneller schalten lassen als LCDs. Ein Problem ist bei so hohen Aktualisierungsraten im Rahmen der Signalverarbeitung die 2 Megapixel (für FullHD) 480 mal pro Sekunde synchron mit neuen Bildinformationen anzusteuern und das idealerweise mit nur geringem Input-Lag.
 
@SaschaHa Das fällt dann bei der Entwicklung von dem Monitor quasi nebenbei mit an 😎
 
Zuletzt bearbeitet:
Simanova schrieb:
Welche Hertzrate der Monitor hat, ist dabei völlig wurscht.

Nein ist es nicht. Der Umstand der Techniken wie G-Sync oder Freesync überhaubt erst notwendig gemacht hat sind eben jene niedrige Herz. Genauer gesagt der Umstand, dass ein 60hz Monitor eben nur genau alls 16,67ms ein Bild ausgeben kann. Bei einem 480hz Monitor reden wir von einem Frame alle 2,08ms!

Das Zeitfenster ist zu gering um im normalen Anwendungsfalle in dieser Zeit mehr als ein Frame aus der GPU zu kitzeln -> kein Tearing mehr.

Und sollte das doch passieren und man noch V-Sync aktiviert hat, ist die erhöhte Latenz durch die geringere Wartezeit nur minimal. -> keine bzw. minimale Vsync Latenz.
 
Zuletzt bearbeitet:
Simanova schrieb:
Welche Hertzrate der Monitor hat, ist dabei völlig wurscht.
Nein. Wenn du einen non VRR Monitor mit 60 Hz hast, dann hast du alle 16,67ms ein neues Bild. rendert deine Grafikkarte jetzt so, dass z.B. 17,5ms nach dem letzten ausgegebenen Bild das nächste fertig ist, musst du noch ca. 15,2ms länger auf das Bild warten, als bei einem Monitor mit VRR. Das merkt man, zumal es immer variiert und das dann zu Rucklern führt, die es dann eben mit VRR nicht gibt.

Hat der Monitor aber z.B. 240 Hz, dann hast du alle 4,17ms ein Bild. Das heißt, im schlimmsten Fall muss du nicht ganz 4,17ms länger auf das Bild warten und nicht bis zu fast 16,67ms wie bei 60Hz. Also kurz gesagt, Faktor 4 Unterschied (im jeweiligen worst case). Somit sind diese von Asynchronität erzeugten Ruckler bei hoher Wiederholrate deutlich geringer.

lg Kinman
 
Gleich kommen wieder die Leute die meinen das menschliche Auge würde nur 23 Bilder Pro Sekunde verarbeiten können.:lol:
 
CS74ES schrieb:
Vielleicht doofe Frage, aber das heißt, man könnte dann endlich wieder Namen von vorbeilaufenden Spielern lesen, wie man das von Röhren gewohnt ist? Oder wie ist das gemeint?

Du meinst Motion Blur und da gibt es verschiedene Techniken, um das zu bekämpfen. Am einfachsten ist es, schwarze Bilder zwischen den Frames einzufügen, wofür man aber viel Hz benötigt. Hier ist mal ein guter Artikel zu dem Thema: http://www.blurbusters.com/faq/motion-blur-reduction/
 
Die Frage stellt sich mir mal wieder wofür man 480Hz brauch.
 
CloudConnected schrieb:
Die Frage stellt sich mir mal wieder wofür man 480Hz brauch.

denk mal nicht nur an alltags-gaming...
 
Zuletzt bearbeitet:
Zurück
Oben