Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsCyberpunk 2077: Mod bringt Unterstützung für AMD FSR 2.0
Auch ohne Bildsynchronisation hat man keine Ruckler also gibt es keine Ruckler zu verhindern.
Lediglich mit klassischen V-Sync gibt es Ruckler bzw. Drops wenn man weniger FPS als Hz hat.
30FPS bleiben 30FPS und ruckeln immer wegen der geringen Framerate also auch mit G-Sync
Tearing ist zwar kein Ruckeln i.S.v. frameskipping, aber ich empfinde das Spielgeschehen dann dennoch nicht als flüssig.
Warum wird hier immer nur von g-sync gesprochen, wenn vrr allgemein gilt?
Mal sehen, ob fsr 2.0 von den Entwicklern auch für Konsolen nachgereicht wird, für die api der ps5 müsste extra angepasst werden, wird aber inoffiziell unterstützt.
Dass die fixe Zeit, die in jedem Frame für den Algorithmus gebraucht wird, zu hoch ist, als dass man damit am Ende noch einen FPS Gewinn erzielen könnte.
Je nachdem, in welchen FPS Bereichen man sich bewegt, können diese sogar runter gehen.
Hängt vielleicht von vielen Faktoren ab, cpu, framebuffer, gewünschte max. Fps
Fakt ist nur, dass fsr seine Rechenzeit benötigt und die nicht endlos minimiert werden kann, wo nun das Limit so liegt, dazu müsste man mal verschiedene Beispielsysteme mit games und fps durchtesten.
Da die Bildrisse bei 60Hz recht groß sind und bei 144Hz auch noch an allen vertikalen Kanten stören
kann man es als unsauber bezeichnen aber Ruckeln ist es eigentlich nicht weil der Frametime Graph
gleich ist zu dem mit G-Sync und konstante FPS mit V-Sync ruckeln auch nicht aber haben Input Lag.
Ich denke die meisten Leute sagen G-Sync weil es am coolsten klingt und weil es zuerst am Markt war.
FreeSync und G-Sync kompatibel basieren auf VESA Adaptive Sync aber bei HDMI 2.1 "Übertragungen"
heißt das auf einmal VRR. Wenn bei Display Port 1.4 auf einmal VESA Adaptive Sync 2 steht dann
funfact: Auf LG TV Geräten mit HDMI 2.1 steht glaube im OSD mit Nvidia Grafikkarte G-Sync statt VRR.
Was steht dann mit einer AMD Grafikkarte da ? VRR, FreeSync oder vielleicht auch G-Sync ? Zu lustig
Hängt vielleicht von vielen Faktoren ab, cpu, framebuffer, gewünschte max. Fps
Fakt ist nur, dass fsr seine Rechenzeit benötigt und die nicht endlos minimiert werden kann, wo nun das Limit so liegt, dazu müsste man mal verschiedene Beispielsysteme mit games und fps durchtesten.
Wahrscheinlich wird die Frage erst interessant, wenn anspruchslose f2p-Titel o.ä. anfange fsr 2.0 zu implementieren.
Bei sowas wie Cyberpunk kann ich mir scher vorstellen, dass man mit einem halbwegs realistischen Setup tatsächlich an einen Punkt gelangen kann, an dem die Rechenzeit für das Upscaling größer wird als Unterschied bei der Rechenzeit zum Bild rendern.
Das wird man eher in Fällen haben, wo man FSR nur in einem relativ schwachen Modus betreibt, die Renderauflösung also gar nicht soo viel niedriger ist, und man gleichzeitig rechtviele FPS hat.
Und das wären dann ja Fälle, in denen man FSR sowieso nicht nutzen würde - jedenfalls nicht zum Performance verbessern.
Vermutlich freesync, weil das offizielle hdmi 2.1 vrr wird noch immer nicht von den amd gpus unterstützt.
Fun-fact: die olle xbox one konnte schon hdmi vrr (unabhängig von freesync), angekûndigt hatte amd hdmi vrr schon vor über drei Jahren damals noch für die rx 5000 serie
Genug ot
Da die Bildrisse bei 60Hz recht groß sind und bei 144Hz auch noch an allen vertikalen Kanten stören
kann man es als unsauber bezeichnen aber Ruckeln ist es eigentlich nicht weil der Frametime Graph
gleich ist zu dem mit G-Sync und konstante FPS mit V-Sync ruckeln auch nicht aber haben Input Lag.
Kann den Spielfluss aber genauso sehr stören wie Ruckeln.
Bei Strategie/Aufbauspielen wie Anno die Kamera über die Karte bewegen, bei mäßigen FPS und einem 60 Hz-Monitor sah früher ohne VSync immer katastrophal aus, das Bild war komplett zerfetzt.
Ich persönlich finde allerdings, dass das mit dem Input Lag bei Vsync bei 144 Hz klar geht und auf der anderen Seite ohne VSync das Tearing da kaum noch auffällt. Benötige VRR da also nicht wirklich. Allerdings spiele ich auch keine schnellen Shooter.
Ja, ab 120Hz ist V-Sync gut spielbar aber der Mainstream schafft leider nicht immer 120FPS und dann wirds kritisch
weil V-Sync mit weniger FPS als Hz ist echt übel. Dafür muss man Nvidia schon loben, dass die es verbessert hatten
allerdings waren die G-Sync Preise damals heftig und es gab nicht mal einen Frame Limiter im Treiber um innerhalb
der G-Sync Range zu bleiben falls man mehr FPS als Hz hat. Wer weiß wie viele Leute das damals nicht wussten.
Hängt vielleicht von vielen Faktoren ab, cpu, framebuffer, gewünschte max. Fps
Fakt ist nur, dass fsr seine Rechenzeit benötigt und die nicht endlos minimiert werden kann, wo nun das Limit so liegt, dazu müsste man mal verschiedene Beispielsysteme mit games und fps durchtesten.
AMD selbst gibt als Minimum eine GTX1070 an. Ich glaube damit sinken die FPS nicht.
Wenn man es übertreibt und eine GTX1050 nimmt, dann braucht man sich nicht wundern.
Wenn man ein Spiel kauft und der PC die minimalen Systemanforderungen nicht erfüllt, dann braucht man auch keine spielbaren FPS erwarten
funfact: Auf LG TV Geräten mit HDMI 2.1 steht glaube im OSD mit Nvidia Grafikkarte G-Sync statt VRR.
Was steht dann mit einer AMD Grafikkarte da ? VRR, FreeSync oder vielleicht auch G-Sync ? Zu lustig
VRR & G-Sync oder alternativ Freesync Premium, um genau zu sein..
Zum Thema: Hoffe, dass es FSR 2.0 auch noch "offiziell" ins Spiel schafft, vielleicht schaue ich es mir dann eines Tages, wenn es für 10 Euro in einem Sale landet, auch tatsächlich an..
G-Sync behebt lediglich Tearing also Bildrisse bei Bewegung und verringert den Input Lag gegenüber V-Sync
aber am Ruckeln durch eine zu geringe Framerate, wozu ich 30FPS definitiv zähle, kann G-Sync Nichts ändern.
Statt Geld in ein G-Sync Modul zu verschwenden, sollte man lieber in eine stärkere Grafikkarte investieren.
Das ist mir klar. War vielleicht falsch ausgedrückt.
Aber das Tearing bei so niedrigen FPS ist brutal. Absolut monströs.
Aber ab 30 fps FÜHLT sich das Bild, wenn es nicht zerrupft ist, flüssig an. (Zumindest für mich)
Natürlich nicht wie >60 oder >100 fps, aber zumindest ist es keine Diashow, sondern ein Bewegtbild.
Etwas besser als Kino halt.
Für mich persönlich liegt die Grenze, ab dem ich Spiele idR als flüssig empfinde, bei ca. 40 FPS. Das hängt natürlich immer vom Inhalt ab. Aufbauspiele wie Anno, wo man in der Vogelperspektive auf seine Insel glotzt - da braucht man nur beim Gleiten über die Karte ein bisschen FPS, ansonsten reichen 30 da gut aus.
Spiele, in denen man einen Charakter in 1st oder 2nd person steuert und ggf. auch mal schnelle Manöver oder schnelle Kameraschwenks macht, da machen 30 vs. 60 FPS einen riesen Unterschied.
Aber unabhängig vom Spiel fühlt sich die Steuerung bei hohen FPS und hohen Monitor-Refresh-Raten einfach immer viel besser, direkter an.
Neeeee 30fps sind Bei CP zu wenig, so Richtung 40fps ist es Spielbar.
Vor allem die Fahrzeug Steuerung leidet bei niedriger Wiederholrate.
1070/980ti OC genügen für FHD bei für mittlere bis hohe Details.
@Beitrag, eine 1080er machte beim CP77 Benchmark hier auch CB etwa 25fps in Ultra Preset. In FHD 40fps.
Einige Einstellungen können auf Mittel ohne optische Einbußen zurück gedreht werden. Also halbwegs Spielbar ist es mit der Karte in WQHD.
Gefühlt gibt es für mich bei CP bei ca 45FPS so eine Grenze ab der es sich plötzlich deutlich flüssiger anfühlt. Aber 2-3FPS weniger reichen aus und es fühlt sich komplett anders an.
Da hast du entweder das Nvidia Marketing zu Ernst genommen oder verwechselst Etwas.
G-Sync ist eine Bildsynchronisation also werden die Hz des Monitors an die FPS angepasst.
Das ist nötig um Tearing zu vermeiden denn ohne Bildsynchronisation gibt es eben Bildrisse.
Auch ohne Bildsynchronisation hat man keine Ruckler also gibt es keine Ruckler zu verhindern.
Lediglich mit klassischen V-Sync gibt es Ruckler bzw. Drops wenn man weniger FPS als Hz hat.
30FPS bleiben 30FPS und ruckeln immer wegen der geringen Framerate also auch mit G-Sync.
Gsync ist nicht dafür da, Tearing zu verhindern, sondern Ruckeln. Tearing hast du, wenn deine GraKa mehr Bilder liefert, als dein Monitor anzuzeigen imstande ist. Dafür ist Gsync aber nicht zuständig.
Wenn du Gsync an hast und keinen fps limiter benutzt und die FPS über die Anzahl deines Monitors liegen, wirst du trotzdem Tearing haben.
Gsync ist nur wichtig wenn die Frames unter HZ deines Monitors fallen. 30 FPS mit Gsync laufen synchron und ruckeln nur insofern, dass das Bild nicht weich erscheint, weil nicht genug FPS gerendert werden.
Gsync verhindert also kein Tearing, sondern ruckeln. Du wirst dennoch einen FPS Limiter oder Adaptive Vsync benutzen müssen.
Gsync ist nicht dafür da, Tearing zu verhindern, sondern Ruckeln. Tearing hast du, wenn deine GraKa mehr Bilder liefert, als dein Monitor anzuzeigen imstande ist. Dafür ist Gsync aber nicht zuständig.
Wenn du Gsync an hast und keinen fps limiter benutzt und die FPS über die Anzahl deines Monitors liegen, wirst du trotzdem Tearing haben.
Gsync ist nur wichtig wenn die Frames unter HZ deines Monitors fallen. 30 FPS mit Gsync laufen synchron und ruckeln nur insofern, dass das Bild nicht weich erscheint, weil nicht genug FPS gerendert werden.
Gsync verhindert also kein Tearing, sondern ruckeln. Du wirst dennoch einen FPS Limiter oder Adaptive Vsync benutzen müssen.
Nein. Tearing hast du, wenn Bildausgabe und Monitor Refresh nicht synchronisiert sind. Ob du dabei mehr oder weniger Bilder ausgibst, als der Monitor insgesamt kann, ist völlig egal.
Auch 40fps auf nem 60Hz Screen gibt Tearing, zum Beispiel.
Der Monitor aktualisiert das Panel mit fixer Rate. Sagen wir alle 16.6ms auf nem 60Hz Screen.
Sobald ein Bild nicht genau vor dem Screen Refresh ausgegeben wird, gibts Tearing, einfach weil der Monitor dann aktualisiert, während sich das Bild ändert. Dabei ist egal ob die Bilder selbst mehr oder weniger als 16.6ms auseinander liegen. Ergo Bildrate unter/über Refresh ist egal. Einzig die fehlende Synchronisation sorgt für Tearing.
Genau deswegen hilft ja VSync dagegen. Nicht weil es unterhalb der Aktualisierungsrate deckelt, sondern weil es die Bildausgabe auf einen gemeinsamen Teiler der Aktualisierungsrate synchronisiert. Deshalb hat VSync auch zB die Teiler 60/30/15 auf nem 60Hz Screen, nur auf diese Teiler kann es synchronisieren.
Gsync und Freesync bzw VRR/VESA AS setzen an der gleichen Stelle an, aber umgehen fixe Teiler indem sie die Aktualisierungsrate des Monitors an die Bildrate anpassen, statt anders herum.