Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsG-Sync: Nvidia unterstützt nun auch Monitore mit Adaptive-Sync
Ja das stimmt.
Ich zokke selbst mit der 1080ti selten auf Ultra in WQHD.
Weil entweder die CPU oder die GPU limitieren.
Alles über 100fps wird langsam schwer, meine angepeilten 120fps halte ich in den wenigsten Games.
N Kumpel macht’s anders: alles auf Ultra, dafür halbsync 72fps und der hat „nur“ die 980ti
Diese 30-50fps mehr machen einen Riesen Unterschied
Adaptive Sync ist jetzt der "Standart" auf den AMD mit seinem FreeSync aufbaut richtig ?
Und Adaptiv VSync kann doch theroretisch jeder Monitor, ist ja nur eine Treibereinstellung bei NVIDIA-Karten.
Ich habe beispielsweise einen ASUS PB277Q. Könnte ich - wenn es dann laufen sollte - dieses neue Feature auch nutzen?
Vielleicht stehe ich gerade auch nur auf´m Schlauch ^^
Erstmal schön alle G-Sync-willigen Käufer abgeschöpft und wenn sich die G-Sync Monitore nicht mehr gut verkaufen und es momentan allgemein rel. schlecht läuft (Aktienkurs im Keller und performt deutlich schlechter als bei AMD) wird auch VESA AdaptiveSync ausgepackt. Aber nur für 12 Monitore wo es "einwandfrei" läuft. Und bei anderen gibt es Bildaussetzer etc. Natürlich.
So ein Saftladen. Selbst wenn ich noch gamen würde und AMD nichts passendes im Angebot hätte, würde ich eher 720p mit niedrigen Details in Kauf nehmen als eine Nvidia Karte zu kaufen...
Dennoch ist es eine gute Entwicklung. Wenn auch sehr spät. Da Intel jedoch demnächst ebenfalls mit AS-Unterstützung um die Ecke kommt, blieb NV so oder so keine andere reale Option mehr.
Warum? Dank des Gsync Scalers haben fast alle Gsync Monitore einen deutlich niedrigeren Input Lag. Der Scaler ist halt nicht nur pure Abzocke wie es alle gern denken. Ich würde erstmal ein paar Tests abwarten bevor hier wieder verbreitet wird Gsync wäre überflüssig.
Damit ist es spätestens jetzt amtlich, dass wir AMD für die Evolution der synchronisierten Bildschirme mit den Desktop Grafikkarten danken dürfen. Auch wenn G-Sync eher angekündigt wurde(Dez 2013 vs. Jan 2014).
Ebenso können wir auch INTEL dafür danken, da sie bei ihren zukünftigen Grafikkarten auch den ASync Support angekündigt hatten.
Könnte mir fast vorstellen, dass es sogar dann der ausschlaggebende Punkt war und nV keine wahl mehr hatte.
Willst du mir jetzt allen Ernstes eine GPU für Content Creator für schlappe 2,5k € als Lösung präsentieren?
Ich sage es mal so: Wenn die RTX Titan die Ergebnisse, die in WQHD erzielt wurden auch in 4K umsetzen könnte, dann wäre das interessant. So sehe ich nichts in 4K, was auch nur annähernd an 144Hz heranreichen könnte.
Hat lange genug gedauert. Wer sich aber in den letzten Wochen zu einer RTX oder 10er NV Karte noch einen teuren Gsync Moni gekauft wird sich ärgern. Leider gibts auch hier wieder ein aber bei UHD mit 144Hz.
Hab jetzt einige Artikel zu diesem Thema gelesen und so langsam den Verdacht dass nVidia jetzt einfach ihr FPGA Modul (aus den beiden Monitoren mit Lüftern) genommen hat, ein ASIC draus gemacht, und es nun G-Sync Ultimate getauft hat.
Ich hoffe (aus purem Eigennutz natürlich), dass sie nach einer Anfangs- bzw- Testphase auch Grakas bis runter zu Kepler dafür freigeben, halt alle die auch G-Sync supporten. Denn immerhin kann man mit sowas auch noch ganz passabel Zocken :-)
The GeForce® GTX 780 Ti is NVIDIA’s fastest single-GPU graphics card ever, delivering 25% more cores..
Ich Bezweifele, dass Wiederverkauf für mich ein Argument ist, da ich in meiner 20 jährigen "PC-Karriere" dieses Hardware-Element tatsächlich noch nie weiterverkauft habe, sondern "genutzt bis zum Exitus".
Könnte wie ich aktuell sehe das Ding vermutlich sogar zurückschicken, da es wegen der Weihnachtszeit eine verlängerte Widerufsfrist gab.
Nein, ich bin mit dem Monitor an sich sehr zufrieden, und wegen den 150 Euro oder was es sein mag mache ich mich nicht Nass.
G-Sync wird mit einer nVidia-Karte auf absehbare Zeit immer die beste Lösung sein, da ein Flackern, Flimmern oder Pumpen des Bilds ausgeschlossen sind. Solche Probleme können bei AdaptiveSync je nach Monitor auftreten. Deswegen testet nVidia ja fleißig.
Dazu kommt bei G-Sync die höhere Range bis runter zu 30Hz und G-Sync hat in der Regel auch geringere Latenzen und geringeren Inputlag gegenüber anderen Sync-Techniken.
Es wird in der Tat sehr interessant ab 15.01. mal anhand von User Praxiserfahrungen zu schauen, wie viele Adaptive-/FreeSync Monitore in der freien Wildbahn nun tatsächlich fehlerfrei mit nVidia Karten harmonieren... oder dies eben auch nicht tun und inwiefern nVidia da mit den Treibern noch wird nachbessern können bzw. vor allem auch wollen.
Einfacher und übersichtlicher wird es für nVidia-besitzende und Monitorkauf-willige Konsumenten jedenfalls nicht unbedingt, da man sehr genau wird recherchieren müssen, ob bestimmte AdaptiveSync-/FreeSync-Modelle Zicken machen oder nicht, wobei dann die üblichen Probleme auftreten werden, dass manche User angeblich null Probleme haben und wieder andere behaupten, Dauerprobleme zu haben... und dann angeblich nur die Monitore ab einer bestimmten Revision/Herstellungsmonat fehlerfrei laufen... blablabla... in den Foren wird es jedenfalls sicher nicht langweilig .
Ja und was bringt einem der FreeSync Kleber auf dem Monitor? Genau nur eine riesige Auswahl an Schrottmonitoren, welche für den günstigen Preis und der FreeSync Unterstützung hochgelobt werden und in Wahrheit null fürs Gaming taugen.
Als Benutzer sollte man doch in der Lage sein zu unterscheiden welcher Monitor sich fürs Gaming eignet und welcher nicht. Dafür gibt es diverse Tests - nur weil irgendwo Freesync oder Gaming steht heißt es nicht das es ein guter Gaming Monitor ist.
Naja, das war ein sehr gutes "Zugpferd" bei den RX 480/580 usw. Modellen.
Graka mit 2GB mehr an Vram + FreeSync Monitor = Deutlich günstiger als GTX 1060 6gb und ein GSync Monitor.
Und bei einem Budget Rechner mit einem 60Hz Panel ist das einfach unschlagbar gewesen.
Wenn man einen 144hz Monitor hat, ist das nicht so ausschlaggebend (MEINE MEINUNG!!).