News Nvidia G-Sync Pulsar: Neues Argument für kaum genutztes G-Sync-Modul

Also ohne jegliche Verbesserungstechnologie von Monitoren grundsätzlich schlecht reden zu wollen, aber wird‘s nicht langsam esoterisch? Der Gaming Opa in mir sagt, sowas hamwa früher mit Skill gelöst :D (nicht ganz ernst gemeint)
Scheint aber wirklich eine ganz nischige Geschichte zu werden.
 
  • Gefällt mir
Reaktionen: ChrisMK72, suessi22, Kadett_Pirx und 3 andere
estros schrieb:
Ihr mit euren Grabenkriegen.🙃
Macht das eigentlich Spaß sinnlos zu haten?

Und ich war nie böse auf NVIDIA, dass sie ein perfektes G-Sync exklusiv rausgebracht haben und später AMD ein weniger restriktives und dafür nicht perfekt funktionierendes FreeSync zu marktfähigen Konditionen.
Weil mit genau solchen BS Aussagen "Grabenkriege" eröffnet/angeschürt werden !! :stock:
Aber Hauptsache Du hast Spaß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Benji18 und Mcr-King
BloodGod schrieb:
Das größte Gegenargument bleibt halt bestehen, keine HDMI 2.1 Unterstützung!
Was hat ein Monitoranschluss mit diesem Standard zu tun? Wenn ein Monitor kein Hdmi 2.1 hat dann beaucht er das auch nicht mit Gsync Pulsar. Gsync generell funktioniert mit HDMI 2.1. Dein Kommentar ergibt keinen Sinn, außer ich übersehe irgendwas signifikantes.
 
  • Gefällt mir
Reaktionen: Mcr-King
Find ich gut, würde ich kaufen. Wenn damit sinnvoll syncflicker unterbunden werden kann, her damit!
 
Haldi schrieb:
Hatte vor Jahren mal einen Eizo Foris 240Hz Monitor.
Der hatte 120Hz refresh rate mit Black Frame Insertion somit "fake 240hz"
Ja den hatte ich auch. Habe mich auch immer gefragt warum sowas von den Graka Herstellern nicht nicht direkt implementiert wird.
 
Interessiert dieses Thema überhaupt aktuell?

Nach SLI / Crossfire bzw. G-Sync / Free Sync gibt es nun doch mit OLED einen neuen Hype Train, welchen jeder fahren muss, zumal man dann mit einem 24 / 27er Spitzenmonitor mit einer Größe analog der Jahrtausendwende nun endlich die dringlich benötigten 480 Herz in CS und Konsorten erreichen kann, mittels der man endlich zur Weltspitze aller Spieler aufschließen kann.

Leider kann man beim Thema OLED aber weder über NVIDIA noch AMD lästern ;)
Glücklicherweise hat man mit dem Einbrenneffekt aber wieder ein neues Diskussionsmaterial, bei welchem sich man wieder zoffen :D und alle anderen als dumm hinstellen kann.
 
Zuletzt bearbeitet:
DrFreaK666 schrieb:
Was hat das eine mit dem anderen zu tun? Mit allen anderen VESA Teilnehmern hätte man was für die Allgemeinheit machen können und nicht nur für Nvidia.
Ja, hätte man für FreeSync organisieren können. Es ist ja nicht nur nvidia, die zu sowas fähig sind.

Die Vergangenheit zeigt uns aber, dass es keiner gemacht hat und die Folge waren jede Menge halbherzige / halbfertig implementierte Monitore.

Es hatte wohl keiner für die Tests bezahlen wollen bei einem offenen Standard.
 
Nvidia versucht wieder mit nutzlosem Nepp den Leuten das Geld aus der Tasche zu ziehen.
 
  • Gefällt mir
Reaktionen: Benji18
Interessant ist das gewählte Spiel zur Veranschaulichung.
Wenn ich Gsync in Counter Strike 2 einschalte und die FPS limitiere, dann gibts ein Ruckelfest wie kein anderes.
Tearing ist in Cs sowieso kein Problem, es zereißt ja ohnehin nur der obere oder untere Bildschirmteil, beim Fadenkreuz wärs nen Argument, so aber eher nicht.

Ich würd ja soo gerne mal nen 240+Hz OLED ausprobieren, gucken ob damit diese Technik nicht ohnehin hinfällig/nutzlos wird.
 
marakuhja schrieb:
Das kann kaum sein, denn gerade OLEDs schalten um ein Vielfaches schneller (1/1000) als LCDs. Da wird jede Diode einzeln angesteuert.
Bei den wesentlich lahmeren LCDs mit 144 Hz reicht auch das aus, um nicht zu schlieren, denn 1/144 entspricht 6,9 ms. Folglich muss die Reaktionszeit bei allen möglichen Farbwechseln unter 6,9 ms liegen, sonst würde der Bildaufbau nicht hinterher kommen.
Da niemand einen Film mit 10 facher Geschwindigkeit schaut, was absurd unrealistische Bildveränderungen mit sich bringt, reicht auch ein moderner LCD. Wer einen echten Kackmonitor erwischt hat, kann Overdrive nutzen. Da werden die Kristalle mit mehr Spannung befeuert, drehen sich schneller und leuchten dann eventuell etwas zu hell. Einen Tod muss man sterben.
Wie oft noch? die Schaltzeiten sind irrelevant. Bei 60 FPS sieht man 16,6ms lang ein und das selbe Bild. Das sorgt in der Abfolge für Unschärfe. Ganz egal ob die einzelbilder perfekt scharf sind. Mit schlieren hat das überhaupt nichts zu tun.

Wenn du diese Unschärfe nicht siehst, hast du eine schlechte Wahrnehmung. Ich seh das hier selbst auf meinem 120 Hz OLED deutlich.

marakuhja schrieb:
Das ist eine optische Täuschung, die mit dem Auge zusammenhängt. Der Test dreht sich um die Ufos, die mit bestimmten fps ihre Position ändern. Ich sehe da in keinster Weise Ghosting, ob ich nun die Ufos verfolge oder in die Mitte starre. Das bedeutet, dass moderne Bildschirme durchaus in der Lage sind so schnell zu schalten, dass kein Ghosting entsteht. Am Auge selbst liegt es gewiss nicht, denn das kann Lichtblitze mit 1 / 500 s wahrnehmen.

Oh man… diese flimmernden Punkte im Ufo Test dienen als Referenzpunkt. Man man muss die Kamera mit dem Ufo mitbewegen. Sobald die Geschwindigkeit der Kamera und der Ufos übereinstimmen, sind die Punkte im Foto vertikal in einer Linie.

Lies dir doch einfach mal den Guide durch der auf der Testseite verlinkt ist. Die Punkte sind doch nicht aus Spaß so angeordnet…

Du diskutierst gerade über einen Test, den du gar nicht verstanden hast.

Du überschätzt hier maßlos dein Wissen, sorry.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MehlstaubtheCat, Quidproquo77, WeltalsWille und 3 andere
Dieser Hz-Wahn wird langsam richtig extrem. Und es wird anscheinend immer Experten geben, die auch bei 1000 Hz, die sie mit ihrer 1000 W - Grafikkarte "befeuern" nicht zufrieden sind. Es geht nur ums SPIELEN, Leute!
 
  • Gefällt mir
Reaktionen: Dito
DrFreaK666 schrieb:
An Nvidias Vorgehensweise war gar nichts gut.
Neue technologische Entwicklungen sind meist proprietär, einfach weil sie neu sind und somit nur in dem Ökosystem laufen, dass der Erfinder zur Verfügung hat, wobei das auch Teil der Entwicklung ist. Meist ist es auch anders gar nicht möglich, weil die Technik nicht auf vorhandene Schnittstellen aufbauen kann. So war das zum Beispiel bei G-Sync.

Da wurde jede Menge Geld versenkt, Technik entwickelt. Zu verlangen dieses Know How einfach dem Mitbewerber in die Hände zu geben. Naja. Muss man darüber eine Diskussion entfachen?
DrFreaK666 schrieb:
Nvidia ist Teil von VESA; denen kam es aber nicht in den Sinn, die Technik für AMD und Intel verfügbar zu machen.
Es gab zu dem Zeitpunkt keinen Standard, wenn man es genau nimmt, dauerte es 3 oder 4 Jahre bis der Vesa Standard und AMD auf dem Niveau von G-sync waren. Danach machte Nvidia den Weg für G-sync Compatible frei. Ohne Nvidias Entwicklung wäre es ungewiss ob wir die Technik heute überhaupt hätten.
DrFreaK666 schrieb:
Das kann man nur als Nvidia-Fan gutheißen
Es ist völlig belanglos ob Technologien herstellergebunden sind oder nicht. Es nutzt doch auch (fast) jeder Windows, dort kommt so eine Debatte aber nur selten auf, oder?
Trelor schrieb:
G-Sync und Freesync sind einfach nur Implementationen des VRR Vesa Standards, welcher so aus dem VRR feature von eDP übernommen wurde.
Das ist sachlich nicht korrekt. Der eDP Standard war nicht dazu in der Lage "on the fly" nur dann ein Bild auszugeben wenn die Grafikkarte fertig war. Das war an feste Bildraten (Videos mit fester Hz Rate gebunden um Strom zu sparen.)
Schau dir AMD´s Präsentation im Januar 2014 auf der CES an. Das ist eine Falschaussage.
Also nein, die Verschwörungstheorie Nvidia hätte nur eDP nehmen müssen und würde das gleiche können, ist eine schon vielfach widerlegte These.
Zudem ist "Freesync" AMD´s Treiberinterne Umsetzung und "G-sync" wesentlich komplexer und nicht das gleiche als der eDP Standard aus 2009. Ich verstehe nicht warum das nach so langer Zeit immer noch falsch dargestellt wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nutrix, eRacoon und H6-Mobs
DrFreaK666 schrieb:
Natürlich, weil Nvidia ein Mitglied von VESA ist, wie AMD und Intel auch. Wieso haben sie die Technologie nicht als Standard weitergebracht?
Weil sich alle nicht auf einen Standard damals einigen konnten. NVIDIA hat dann allen den Mittelfinger gezeigt und gsync auf eigene Faust rausgebracht. Erst nachdem man sah was NVIDIA da gemacht hat, kamen die aus der Hefe und es entstand freesync.
 
  • Gefällt mir
Reaktionen: nutrix
Mimir schrieb:
Wenn du diese Unschärfe nicht siehst, hast du eine schlechte Wahrnehmung. Ich seh das hier selbst auf meinem 120 Hz OLED deutlich.
Mir scheint eher, dass du dein Wissen maßlos überschätzt. Wenn die Kombination aus Reaktionszeit und Bildwiederholrate (Monitor und System) zueinander passt, hast du gar keine verdoppelten Streifen. Das schrieb ich bereits mehrmals ergebnislos.
Und ja, ich bin fähig mit dem Auge das Ufo nachzuverfolgen, sodass die reduzierte Anzahl an Streifen wahrgenommen wird.
Wenn ich bei 144 Hz diesen Effekt nicht wahrnehme, habe ich also eine schlechte Wahrnehmung.. ok. Immer noch besser als jedes Marketinggewäsch kritiklos hinzunehmen in fiktiven Situationen, die absolut praxisfern sind.
PS: Wenn du dein Auge "konzentrierst" siehst du auch gerade Punktzeilen. Bei entspanntem Aufe sind die Punkte in einem 45° Winkel. Es geht hier also nicht nur um die Technik, sondern auch um den Nutzer.
 
Zuletzt bearbeitet:
Stormfirebird schrieb:
OLED BFI im mittleren 100er Bereich würde mich tatsächlich sogar mehr reizen als jetzt irgendein Brocken mit 360- oder sogar 480Hz einfach weil man davon nur in wenigen Spielen profitiert wenn man entsprechende FPS halten kann.
Das ist bei mir noch eine offene Frage. Wenn man angenommen ein 480Hz Monitor hätte, das Spiel aber nur mit 60FPS läuft, hat man mit dem 60 FPS Spiel auf dem 480Hz Monitor weniger Motion Blur oder ist das gleich wie auf dem 60 Hz Monitor?
Soweit ich das Verstanden habe kommt das Motion Blur dadurch zustande, dass die Bildschirme das Bild Zeile für Zeile ausgeben. Bei 480Hz hätte man dann ja trotzdem den Vorteil, dass die Zeilen schneller geschaltet werden müssen.
Oder habe ich das komplett falsch verstanden?
 
Zuletzt bearbeitet: (Habe ich falsch verstanden.)
klpp schrieb:
Ja den hatte ich auch. Habe mich auch immer gefragt warum sowas von den Graka Herstellern nicht nicht direkt implementiert wird.
Magst übers Kabel und die Anschlüsse, welche am Limit ausgereizt sind, die halbe Bandbreite für schwarze Zwischenbilder vergeuden?
Mimir schrieb:
Wie oft noch? die Schaltzeiten sind irrelevant. Bei 60 FPS sieht man 16,6ms lang ein und das selbe Bild
Jein. Bei ner Schaltzeit von 0 ms ist bei 60 fps jedes frame 16,6 ms lange sichtbar. Dauerts hingegen erstmal 2 ms bis sich der Flüssigkristall korrekt ausgerichtet hat, bleiben nur noch 14,6 ms zum betrachten. Der Übergang zwischen zwei frames wird weicher / verschliffen, allerdings wird auch rund ein Achtel der Zeit nicht das korrekte angezeigt.
Jetzt kann man natürlich in den 2 ms die Hintergrundbeleuchtung ausschalten, damit man das falsche nicht sieht. Hat man halt wieder eine Flimmerkiste.
 
Zuletzt bearbeitet:
Ich hab ein G-Sync Monitor und das beste daran finde ich ist die größeren sync range von 1hz-144hz wo es bei Freesync meist nur von 48hz - 144hz geht selten mal ist 30 der untere Bereich.

Da es gerade seit neuster Zeit immer mal Games gibt, die durch Shader stuttering so runter dippen wird das auch immer mal ausgenutzt. Und beim Filme schauen in 24 FPS regelt der Monitor auch runter auf 24hz.
 
Freesync zeigt 24 fps einfach mit 48 Hz an.

Wenn ich mir vorstellen bei 1 fps = 1 Hz back light strobing 😵‍💫🤮 oder läuft die mit höher Frequenz?
 
marakuhja schrieb:
Mir scheint eher, dass du dein Wissen maßlos überschätzt. Wenn die Kombination aus Reaktionszeit und Bildwiederholrate (Monitor und System) zueinander passt, hast du gar keine verdoppelten Streifen.
Und ja, ich bin fähig mit dem Auge das Ufo nachzuverfolgen, sodass die reduzierte Anzahl an Streifen wahrgenommen wird.
Wenn ich bei 144 Hz diesen Effekt wahrnehme, jabe ich also eine schlechte Wahrnehmung.. ok. Immer noch besser als jedes Marketinggewäsch kritiklos hinzunehmen in fiktiven Situationen, die absolut praxisfern sind.

Du sagst, dass du keine Unschärfe hast. Das ist eben faktisch falsch. Das ist ohne Backlight Strobing oder BFI nicht möglich, wie dir jeder korrekt durchgeführte Test zeigen würde.
 
  • Gefällt mir
Reaktionen: MehlstaubtheCat, Stormfirebird und Baal Netbeck
Zurück
Oben