Ohne DLSS/FSR hätten die Entwickler dir das Medium Preset als neues Ultra verkauft. Einfach ein niedriges Preset wählen und man kann sein gewohntes "nativ" weiter spielen und sich vorstellen, dass es in einer upscalingfreien Welt als Episch Plus gelabelt worden wäre. Es ist eine rein entwicklerpolitische Entscheidung und nicht etwa gottgegeben, was als "gut optimiert" gilt.habla2k schrieb:Die Belege sind nahezu alle Spieletests der letzten Zeit in denen ohne DLSS quasi gar keine flüssigen FPS mehr möglich waren...
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia Reflex 2 im Detail: So senkt Frame Warp die Latenz in allen Szenarien
Sehr gut, dass diese Idee Realität wird. Hatte FG mal kurz in Cyberpunk probiert (150 zu 300 FPS) und man sah auch einen kleinen Unterschied in schnellen Bewegungen, aber es fühlte sich ohne FG einfach besser an. Wenn Reflex 2 das beheben kann seh ich da endlich echtes Potential für FG. Würde mich auch nicht überraschen wenn AMD mal wieder nichts gemacht hat und nachziehen muss.
- Registriert
- Dez. 2015
- Beiträge
- 275
Ich mach das jetzt schon und spiele EFT z.B. gar nicht erst selber, sondern schaue mir lieber die Streams von DenzelZockt an.Axxid schrieb:Noch ein paar Jahre und die KI “predicted” das ganze Spiel von alleine und ich muss garnicht mehr selber spielen. Aber die Framerate wird geil!
"Alexa, let's Play"!Axxid schrieb:Noch ein paar Jahre und die KI “predicted” das ganze Spiel von alleine und ich muss garnicht mehr selber spielen. Aber die Framerate wird geil!
Hab jetzt noch das Video von Linus rausgesucht, Reflex 2 enspricht ziemlich der Demo von Asynchronous Reprojection von vor 2 Jahren, bloß mit aufgemotzter Bilderzeugung.
Nur ein Raten meinerstes, ich schätze DLSS 4 Multiframegeneration wird nach einem gerendeten Bild ein zusätzliches Bild mithilfe von Asynchronous Reprojection erstellen, danach entwerder ein 2tes Bild Asynchronous Reprojection erstellen, danch auf den 2ten richtigen Frame warten und ein Bild interpolieren oder direkt auf den 2ten richtigen Frame warten und mit dem Interpoliertne Frame und Asynchronous Reprojection einen Frame erstellen.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Nur ein Raten meinerstes, ich schätze DLSS 4 Multiframegeneration wird nach einem gerendeten Bild ein zusätzliches Bild mithilfe von Asynchronous Reprojection erstellen, danach entwerder ein 2tes Bild Asynchronous Reprojection erstellen, danch auf den 2ten richtigen Frame warten und ein Bild interpolieren oder direkt auf den 2ten richtigen Frame warten und mit dem Interpoliertne Frame und Asynchronous Reprojection einen Frame erstellen.
raPid-81
Cadet 4th Year
- Registriert
- Juli 2023
- Beiträge
- 127
Ayo34 schrieb:OLED Monitor mit 500hz -> 2ms + 0,1ms
RTX5090 + Reflex 2 -> 3ms
Maus mit 8000hz -> 0,125ms
Der menschliche Klich 0,5-1ms
Schon irgendwie geil!
Der Klick soll nur 0,5-1ms dauern? Waaait a (milli)second, gibt's dazu was handfestes?
Und außerdem müsstest Du noch den "Brainlag" addieren, der liegt irgendwo zwischen 150-350ms. Dagegen sind alle relevanten Werte bei der Berechnung eines Frames winzig.
Etwas mehr Kontext?
240 FPS -> 4,16ms per Frame
120 FPS -> 8,3ms per Frame
90 FPS -> 11,1ms per Frame
60 FPS -> 16,6ms per Frame
30 FPS -> 33,3ms per Frame
Nehmen wir ein Beispiel: Du zockst mit 60 nativen FPS ein beliebiges Spiel. Jedes Frame benötigt 16,6ms zur Berechnung auf der CPU/GPU und Anzeige auf Deinem Monitor. Falls irgendein Adaptive Sync Feature aktiv ist dauert es bis zur Ausgabe auf Deinem 60hz Bildschirm zwischen 0 - 16,6ms (je nachdem ob das vorherige Frame am Anfang oder Ende seiner Displayzeit ist).
Heißt wir sind hier bei mindestens 16,6 - 33,3ms (Render und Display Input Lag) + 150-350ms (Brain Lag).
Tatsächlich wäre der Render und Display Input Lag ohne Reflex 1 aber bereits deutlich höher. Siehe hier:
Ich nehme das DLSS Quality Preset -> 72 FPS average. Daraus werden dann:
Aha! 44,8ms Display und Render Input Lag nativ bei 72 FPS. Reflex 1 reduziert das bereits auf ungefähr den erwarteten Maximalwert. Warum dieser und nicht zwischen minimalem und maximalem Wert? Weil die restliche PC Latenz noch dazu kommt.
Jetzt nehmen wir die Frame Generation dazu. Die hinzugefügte Latenz beläuft sich in diesem Beispiel ziemlich genau auf die durch Reflex 1 verringerte Latenz:
Man kann also sagen dass Frame Generation, in diesem Beispiel, ~10ms Input Lag erzeugt. Das variiert natürlich je nach "echten" FPS. Sieht man z.B. bei "Ultra Performance":
Hier kann Reflex 1 den Frame-Gen Input Lag nicht mehr ausgleichen.
Je höher die echten FPS, desto weniger "bringt" Frame Generation (und desto weniger kann Reflex 1 den Input Lag ausgleichen), da "echte" Frames ab ca. 100 FPS so schnell berechnet werden wie es dauert ein "Fake Frame" zu erzeugen, auf das 2. Frame zu warten, und dann alles hintereinander auszugeben.
Wenn man aber in ein CPU Limit läuft, dann wird es richtig wild bei der Analyse, daher lasse ich das Szenario mal weg.
Falls Nvidia es geschafft hat die ~10ms pro "Fake Frame" auf ~3ms zu drücken, dann sehe ich kein Problem darin einfach 3 "Fake Frames" zu generieren und die zwischen die beiden "echten" Frames zu schieben. Das an sich erzeugt ja keinen zusätzlichen Input Lag.
Der Input Lag steigt aber natürlich trotzdem an weil das Display "länger" braucht um alles darzustellen, und damit der Brain Lag verzögert wird.
2 echte Frames (bei 60 FPS, wie oben beschrieben): 2x16,6ms = 33,3ms (Render) + 0-16,6ms (Adaptive Sync Wartezeit) = 33,3 - 49,9ms
2 echte Frames + 1 FG Fake Frame: 2x16,6ms = 33,3ms (Render) + 10ms (Fake Frame Gen) + 2x0-16,6ms (Adaptive Sync Wartezeit) = 43,3 - 76,6ms
2 echte Frame + 3 MFG Fake Frames: 2x16,6ms = 33,3ms (Render) + 10ms (Fake Frame Gen) + 4x0-16,6ms (Adaptive Sync Wartezeit) = 43,3 - 109,7ms
Reflex 1 reduziert den Input Lag in diesem Beispiel um ca. 10ms. Reflex 2 noch mal um ca. 5ms laut den bisherigen Infos.
Somit ergibt sich:
60 FPS (echt) - 33,3 - 49,9ms Input Lag
~120 FPS (Frame Gen 1) - 43,3 - 76,6ms (ohne Reflex) - 33,3 - 66,6ms (Reflex 1) - 28,3 - 61,6ms (Reflex 2)
~240 FPS (MFG 3) - 43,3 - 109,7ms (ohne Reflex) - 33,3 - 99,7ms (Reflex 1) - 28,3 - 94,7ms (Reflex 2)
Wenn Nvidia also bei MFG ein richtig gutes Frame Pacing hinbekommen hat, dann ist man gar nicht so weit weg vom "native" Input Lag (ohne Reflex natürlich). Für Competitive Titel ist das natürlich Unsinn, da zählen NUR echte Frames, aber für gemächliche Titel? Im schlechtesten Fall erhält man aus 60 FPS -> 240 FPS mit einem Input Lag der immer noch weit geringer ist als der allgemeine Brain Lag. Absolut krasse Entwicklung meiner Meinung nach.
Muss man aber natürlich erst mal live erleben (und sich die bestimmt kommenenden Tests durchlesen).
Und JETZT bin ich gespannt auf das weitere "Geschwurbel" rund um die "Fake Frames" die den Input-Lag aus der Hölle herauf beschwören. Und auf die weiteren Argumente gegen den Reflex 2 "Cheat".
Edit: Ich habe einen Fehler gemacht und nicht die Refresh Rate des Monitors bedacht. Daher habe ich den 120hz Monitor zu einem 60hz Monitor gemacht, dann stimmt der Rest wieder (16,6ms pro Frame).
Bei einem 120hz Monitor sind es nur noch 8,3ms pro Frame und die Anzeige Latenz verringert sich bereits drastisch, je mehr generierte Frames dazu kommen desto größer der Unterschied. Bei einem 240hz Monitor sind es dann nur noch ~4ms pro Frame.
Somit ergibt sich für einen 120hz Monitor:
60 FPS (echt) - 33,3 - 49,9ms Input Lag
~120 FPS (Frame Gen 1) - 43,3 - 59,9ms (ohne Reflex) - 33,3 - 49,9ms (Reflex 1) - 28,3 - 44,9ms (Reflex 2)
~240 FPS (MFG 3) - 43,3 - 76,6ms (ohne Reflex) - 33,3 - 66,6ms (Reflex 1) - 28,3 - 61,6ms (Reflex 2)
Und für einen 240hz Monitor dann noch mal weniger.
Zuletzt bearbeitet:
- Registriert
- Feb. 2019
- Beiträge
- 5.904
Der "Brain Lag" zählt nicht. Den hat man in der Realität auch. Es geht darum, dass es sich wie in der Realität anführt und da ist es annähernd 0ms.
Klar das die meisten keinen Unterschied sehen zwischen 5ms und 10ms. Aber wenn du mal Fortnite mit 20ms und mal mit 80ms gespielt hast, merkt man einen sehr großen Unterschied und das hat auch nichts damit zu tun, dass die menschliche Reaktionszeit bei über 200ms beträgt.
Klar das die meisten keinen Unterschied sehen zwischen 5ms und 10ms. Aber wenn du mal Fortnite mit 20ms und mal mit 80ms gespielt hast, merkt man einen sehr großen Unterschied und das hat auch nichts damit zu tun, dass die menschliche Reaktionszeit bei über 200ms beträgt.
raPid-81
Cadet 4th Year
- Registriert
- Juli 2023
- Beiträge
- 127
Ayo34 schrieb:Der "Brain Lag" zählt nicht. Den hat man in der Realität auch. Es geht darum, dass es sich wie in der Realität anführt und da ist es annähernd 0ms.
Doch, der zählt, allein um die ganzen Millisekunden Diskussionen mal in Relation zu bringen.
Ayo34 schrieb:Klar das die meisten keinen Unterschied sehen zwischen 5ms und 10ms.
Ist auch nicht möglich.
Ayo34 schrieb:Aber wenn du mal Fortnite mit 20ms und mal mit 80ms gespielt hast, merkt man einen sehr großen Unterschied und das hat auch nichts damit zu tun, dass die menschliche Reaktionszeit bei über 200ms beträgt.
Ich komme aus Analog Modem Zeiten. Ich weiss sehr genau welchen Vorteil z.B. ein frühes DSL Fastpath hatte.
Aber da sprechen wir noch mal zusätzlich (also auf den ganzen PC Input Lag oben drauf!) von 40-160ms (Roundtrip Time ist ja nicht Ping, somit wird ein abgefeuerter Schuss zwar "nur" mit dem PC Input Lag angezeigt, registriert und als Hit confirmed aber erst nach einem Roundtrip zum Server und zurück).
Außerdem sagte ich ja: für Competitive ist MFG (und Frame Gen an sich) ungeeignet. Reflex 2 dagegen ist eine weitere Latenzverringerung die, sofern nicht übermäßige negative Effekte auftreten, sicher jeder E-Sport Pro gerne mitnimmt.
Warum sollte die Latenz mit steigender Anzahl der generierten Zwischenbilder überhaupt steigen? Unabhängig davon wie viele Zwischenbilder berechnet werden sollen, muss nur ein Frame zurückgehalten werden. Die Latenz müsste sogar mit steigender Anzahl von Zwischenbildern sinken, weil das erste Zwischenbild früher ausgegeben werden muss.raPid-81 schrieb:Und JETZT bin ich gespannt auf das weitere "Geschwurbel" rund um die "Fake Frames" die den Input-Lag aus der Hölle herauf beschwören.
Looniversity
Lt. Commander
- Registriert
- Jan. 2020
- Beiträge
- 1.739
Selbst im Best-case Marketing-Video sieht das doch aus wie Grütze. Die wissen schon, warum der Boden ein sehr homogenes Muster/Farben hat, und trotzdem hat die Hand und Waffe ein "Glow-Halo" um sich herum. Und der Käse soll 2000 Euro kosten. Völlig irre.
Wie ich immer sage: Ich erinnere mich daran, dass Grafikkarten dafür abgewertet wurden, dass der 16x Anisotropische Filter leicht geflimmert hat, weil das Betrug an den Framerates auf Kosten der Grafik ist. Und jetzt sind diese Bildfehler ein "Feature".
Wie ich immer sage: Ich erinnere mich daran, dass Grafikkarten dafür abgewertet wurden, dass der 16x Anisotropische Filter leicht geflimmert hat, weil das Betrug an den Framerates auf Kosten der Grafik ist. Und jetzt sind diese Bildfehler ein "Feature".
raPid-81
Cadet 4th Year
- Registriert
- Juli 2023
- Beiträge
- 127
Nolag schrieb:Warum sollte die Latenz mit steigender Anzahl der generierten Zwischenbilder überhaupt steigen? Unabhängig davon wie viele Zwischenbilder berechnet werden sollen, muss nur ein Frame zurückgehalten werden. Die Latenz müsste sogar mit steigender Anzahl von Zwischenbildern sinken, weil das erste Zwischenbild früher ausgegeben werden muss.
Lies noch mal meinen Beitrag, ich habe das erklärt. Bei aktivem Adaptive Sync (was man ja heutzutage als Grafik Enthusiast einschaltet) muss die GPU auf den Monitor warten. Heißt je mehr generierte Frames zwischen die beiden echten Frames geschoben werden, desto länger dauert es bis zur Ausgabe des 2. echten Frames.
Sieht man z.B. hier:
Ein 60hz Monitor baut das Bild alle 16,6ms neu auf. 2 echte Frames = 33,3ms, plus jedes weitere Frame (egal ob echt oder generiert) addieren 16,6ms da drauf. Je höher die Refresh Rate des Monitors, desto niedriger der zusätzlich generierte Input Lag (wenn man dann auch die maximalen Hertz des Monitors erreicht).
Edit: Natürlich erübrigt sich das alles wenn man einen 240hz Monitor hat und mit MFG 4x (also 3 zusätzlich generierte Frames pro echtem Frame) auch 240 FPS erreicht. Dann dauert ein Frame auf dem Monitor nur 4,2ms. Dazu müsste man ca. 60 FPS nativ erreichen und hätte einen Input Lag von ungefähr den hier gezeigten ~57ms. Ohne MFG 4x hätte man dann eben genau die ca. 60 FPS und ~45ms Input Lag (mit Reflex dann ~35ms Input Lag).
Also vereinfacht:
60 native FPS mit 35-45ms Input Lag (Reflex 1 aktiviert / deaktiviert)
240 MFG 4x FPS mit ~57ms Input Lag (Reflex 1/2 aktiviert)
Die 20ms Unterschied beim Input Lag finde ich bei dem Vergleich absolut verschmerzbar. Frame Generation sollte man also weiterhin nicht unter 50-60 FPS einschalten, sonst wird es mies. Hat man aber die 60 FPS nativ erreicht kann man seinen 240hz OLED dann mit MFG 4x richtig befeuern und merkt bei langsameren Titeln / Single Player Games keinen großen Unterschied. Oder man schaltet MFG runter auf 1 oder 2 generierte Frames, je nachdem welche max Refresh Rate der Monitor halt hat.
Zuletzt bearbeitet:
Looniversity
Lt. Commander
- Registriert
- Jan. 2020
- Beiträge
- 1.739
Prefire klärtSinatra81 schrieb:Weiß die KI ja nicht, wann der Camper hinterm Baum oder der Ecke vorkommt. 🤷🏻♂️
Das ergibt im Zusammenhang mit Adaptive Sync nicht wirklich Sinn, denn Adaptive Sync produziert kein Backpressure. Addieren können sich die Zeiten der Zwischenbilder da nicht. Das ergibt dann höchstens Tearing, wenn man die Sync-Range verlässt.raPid-81 schrieb:Ein 60hz Monitor baut das Bild alle 16,6ms neu auf. 2 echte Frames = 33,3ms, plus jedes weitere Frame (egal ob echt oder generiert) addieren 16,6ms da drauf.
Genau, man braucht halt einen Adapive Sync Monitor, der auch die Bildrate, die sich durch die zusätzlichen Zwischenbilder erreichen lässt, unterstützt.raPid-81 schrieb:Edit: Natürlich erübrigt sich das alles wenn man einen 240hz Monitor hat und mit MFG 4x (also 3 zusätzlich generierte Frames pro echtem Frame) auch 240 FPS erreicht. Dann dauert ein Frame auf dem Monitor nur 4,2ms. Dazu müsste man ca. 60 FPS nativ erreichen und hätte einen Input Lag von ungefähr den hier gezeigten ~57ms. Ohne MFG 4x hätte man dann eben genau die ca. 60 FPS und ~45ms Input Lag (mit Reflex dann ~35ms Input Lag).
raPid-81
Cadet 4th Year
- Registriert
- Juli 2023
- Beiträge
- 127
Nolag schrieb:Das ergibt im Zusammenhang mit Adaptive Sync nicht wirklich Sinn, denn Adaptive Sync produziert kein Backpressure. Addieren können sich die Zeiten der Zwischenbilder da nicht. Das ergibt dann höchstens Tearing, wenn man die Sync-Range verlässt.
Wenn man alle generierten Frames auf dem Monitor darstellen möchte, dann addieren sich die Frame Times natürlich doch! Deswegen sollte man MFG dann auch so einstellen dass die Target FPS ungefähr die max Refresh Rate des Monitors erreicht. Ansonsten verschenkt man Leistung, Energie oder Input Lag.
Wobei Du ggf. Recht hast wenn Nvidia das Frame Pacing absolut perfekt im Zusammenspiel mit Adaptive Sync hinbekommen hat. Dann würde die Grafikkarte ja nicht mehr Frames liefern als der Monitor maximal ausgeben kann.
Da wäre dann die Frage was passiert wenn ich einen 120hz Monitor mit MFG 4x - 240 FPS befeuere. Reduziert die Grafikkarte dann automatisch die "echten" Frames damit (mit MFG 4x) 120 FPS rauskommen? Oder schaltet MFG dann automatisch runter? Müsste man testen...
Was passiert denn, wenn im Randbereich bei einer Kameradrehung dann aber plötzlich ein Mitspieler auftaucht? Das kann durch predictive rendering ja nicht vorhergesehen werden.
Stattdessen erhält man dann doch einen Frame der falsche Informationen beinhaltet.
Nämlich, dass dort angeblich nur die weitere Umgebung sichtbar ist und kein Mitspieler.
Ich stelle mir in der Praxis sehr schwierig vor, besonders im kompetitiven Gameplay.
Stattdessen erhält man dann doch einen Frame der falsche Informationen beinhaltet.
Nämlich, dass dort angeblich nur die weitere Umgebung sichtbar ist und kein Mitspieler.
Ich stelle mir in der Praxis sehr schwierig vor, besonders im kompetitiven Gameplay.
raPid-81
Cadet 4th Year
- Registriert
- Juli 2023
- Beiträge
- 127
@fortknox Ich glaube ihr habt eine falsche Vorstellung davon wie viel Zeit vergeht zwischen 2 Frames. Wir reden hier von <50 Millisekunden! Da kann kein Gegner plötzlich auftauchen, höchstens ein paar Pixel von "ihm" im Randbereich und um Objekte. Hier ein Beispiel:
Der weisse Bereich wird interpoliert. Wenn man sich schneller dreht natürlich mehr, da ist dann die Frage ob man ab einer gewissen Drehgeschwindigkeit überhaupt noch früh genug "sieht" dass ein paar Gegner-Pixel am Rand auftauchen...
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Der weisse Bereich wird interpoliert. Wenn man sich schneller dreht natürlich mehr, da ist dann die Frage ob man ab einer gewissen Drehgeschwindigkeit überhaupt noch früh genug "sieht" dass ein paar Gegner-Pixel am Rand auftauchen...
Addieren können sich die Zeiten nur, wenn V-Sync aktiv ist und man so viele Frames auch puffern kann. Ich würde Frame Generation nie mit V-Sync verwenden. Es macht ja auch keinen Sinn Frame Generation zu aktivieren, wenn man die 60 fps eh ohne Frame Generation bereits erreicht und lediglich einen 60Hz Monitor besitzt.raPid-81 schrieb:Wenn man alle generierten Frames auf dem Monitor darstellen möchte, dann addieren sich die Frame Times natürlich doch!
Ich weiß nicht ob Nvidia das wirklich versucht. Das Problem lässt sich meist dadurch lösen, dass man selbst ein Frame Limit einstellt, damit die Maximalfrequenz nicht überschritten werden kann.raPid-81 schrieb:Wobei Du ggf. Recht hast wenn Nvidia das Frame Pacing absolut perfekt im Zusammenspiel mit Adaptive Sync hinbekommen hat. Dann würde die Grafikkarte ja nicht mehr Frames liefern als der Monitor maximal ausgeben kann.
Mit deaktiviertem V-Sync werden die vollen 240 fps erzeugt und es gibt dann halt einfach Tearing auf dem 120Hz Monitor. Mit aktiviertem V-Sync ergibt sich Rückstau in den Renderer und das Game generiert dann bei MFG 4x nur noch 30 echte Frames. Die Latenz dürfte dann schon unangenehm werden. Framegeneration funktioniert halt dann am besten, wenn man innerhalb der Sync Range der Monitors bleibt und V-Sync deaktiviert lässt.raPid-81 schrieb:Da wäre dann die Frage was passiert wenn ich einen 120hz Monitor mit MFG 4x - 240 FPS befeuere. Reduziert die Grafikkarte dann automatisch die "echten" Frames damit (mit MFG 4x) 120 FPS rauskommen? Oder schaltet MFG dann automatisch runter? Müsste man testen...
raPid-81
Cadet 4th Year
- Registriert
- Juli 2023
- Beiträge
- 127
Nolag schrieb:Mit deaktiviertem V-Sync werden die vollen 240 fps erzeugt und es gibt dann halt einfach Tearing auf dem 120Hz Monitor. Mit aktiviertem V-Sync ergibt sich Rückstau in den Renderer und das Game generiert dann bei MFG 4x nur noch 30 echte Frames. Die Latenz dürfte dann schon unangenehm werden. Framegeneration funktioniert halt dann am besten, wenn man innerhalb der Sync Range der Monitors bleibt und V-Sync deaktiviert lässt.
Sicher? Ich hab mich hier dran orientiert:
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/
Ob das für "Frame Gen" auch noch gilt - keine Ahnung, hab nur eine Ampere Karte.
Da der zweite Frame ja schon berechnet ist, kann man ganz leicht ausrechnen, wie vielen "Zwischenframes" sinnvoll sind. So könnten auch 0 "Zwischenframes" rauskommen.raPid-81 schrieb:Oder schaltet MFG dann automatisch runter? Müsste man testen...
Diese einfache Mathematik kriegen die bei nVidia schon hin, da bin ich mir sicher.
Das wäre vollkommen hirnverbrannt. MFG 4x wird eher als max gesetzt, auch da bin ich mir sicher.Nolag schrieb:Mit aktiviertem V-Sync ergibt sich Rückstau in den Renderer und das Game generiert dann bei MFG 4x nur noch 30 echte Frames.
Viel schadiger ist doch, dass wir Reflex (ohne Time Warp), was ja an sich banale Logik ist, zwanzig Jahre zu spät bekommen. Hätte eigentlich schon in Glide stecken müssen.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 113
- Aufrufe
- 8.868
- Antworten
- 118
- Aufrufe
- 27.002