Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsPreise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Kann mir das mal jemand mit Frame Generation erklären an dem Beispiel:
Angenommen ich spiele mit nur 10 Fps einen Online-Shooter und es kommt ein Gegner um die Ecke, dann sehe ich ihn nach 0.1 Sek.
Jetzt mit FG bekomme ich 40 Fps, aber im Bezug auf die Sicht des Gegners bleibt es gleich bei 0.1 Sek richtig?
Diese künstlichen Zwischen-Frames können also nur das "Vorhergesehene" berechnen? Und dann wäre in dem Beispiel alles flüssiger, aber dann ruckelt / zappelt plötzlich ein Gegner rein? 😂
2. Auf einem Bildschirm der 240hz kann, sieht es natürlich in Bewegung auch viel besser aus, wenn er mit 240 Bildern gefüttert wird, so die CPU halt auch 60 FPS schafft, es wohl meist der Fall sein dürfte mit einem 9800x3D oder ähnlichem ... sofern man nicht zu komplexe Addons hat oder gerade in einer echt vollen Stadt landen möchte, etc
edit: Aber die Art von Games, wo die Input Latenz relativ egal ist, die dürfte recht selten sein. Da bleibt dann in der Regel nur der Zweite Punkt übrig. Aber für MSFS und andere vergleichbare Sims ist es echt toll. Hmm, City Skylines ist bestimmt auch ein guter Kandidat für
Eben doch? FG soll schneller und effizienter arbeiten. Schneller = längerer Balken.
Aber Aluhutgeschwurbel trifft hier auf mehr Anklang, wenn es um Nvidia geht. Wo kämen wir denn hin, wenn wir mal eingestehen würden, dass diverse Softwarefeatures eben auch Hardware benötigen.
"Wir haben neuronale Netzwerke in programmierbare Shader integriert, um neuronale Shader zu erstellen. RTX Neural Shader werden das nächste Jahrzehnt der Grafikinnovationen vorantreiben. Mit ihnen können Texturen um das bis zu 7-Fache komprimiert werden, wodurch enorme Mengen an Grafikspeicher gespart werden. Und sie können verwendet werden, um Texturen in Kinoqualität und noch fortschrittlichere Lichteffekte in Spielen zu erstellen." Mimimimi 16 GB Vram reich nicht mimimimi
Im Ernst, Speicher kann nur durch mehr Speicher ersetzt werden. Jede softwareseitige Einsparung reiht sich in die normale Entwicklung ein und wird genutzt um mehr in den Speicher zu bekommen, nicht um weniger Speicher zu verbauen.
NV kann tolle Software, keine Frage. Aber zaubern können sie auch nicht also wird nie das eine Ding kommrn und wir gehen zurück auf 1GiB VRAM.
"🎼Ich weiss, 🎶es wird einmal kein Wunder geschehen...🎵"
da passiert auf absehbare zeit nichts mehr; wir als gamer haben gezeigt dass wir bereit sind preissteigerungen mitzumachen die vor 10 jahren noch unvorstellbar waren; entsprechend gibt es garkeinen preisdruck innerhalb eines portfolios, denn wenn zwischen den karten derart viel luft ist und die konsumenten am oberen ende bereit sind 2k+ auszugeben, warum sollte eine 5080 unter 1000€ oder eine 5070 unter 500€ liegen?
Wieso blenden lassen (ok, manche Reaktionen klingen so, als hätten sie rein auf die nackten Zahlen reagiert)?
Technologisch ist es doch der absolut richtige Weg, um auch in Zukunft die Effizienz und somit Leistung zu steigern, vorausgesetzt, das Endergebnis (in diesem Fall) für den Spieler ist durchgehend flüssig bei bester Bildqualität. Durch die KI Lösung kann man sich endlich aus dem Hamsterrad und der Jagd nach immer mehr Rohleistung (hallo Taktraten Junkie Intel) befreien, die zum Teil eh nur von immer kleineren Fertigungsgrößen stammte.
Was NVIDIA nun tatsächlich wird beweisen müssen, ist die angesprochene qualitative Umsetzung in JEDEM entsprechenden Spiel, damit die Technologie da ist, um zu bleiben und nicht einfach nur einen Kompromiss für Spieleentwickler anbietet.
Natürlich macht es jetzt weniger Sinn, Diagramme miteinander zu vergleichen aber das ist ja mehr unser Denkfehler, weil wir irgendwelche Zahlen zur Einschätzung haben wollen. Am Ende zählt nur, ob ein Spiel durchgehend flüssig bei bester Bildqualität läuft. Wenn DLSS 4 das liefert, selbst wenn die Rohleistung der Karte nur die Hälfte meiner 1070 wäre, dann immer her damit!
Kurze Frage: ich hab vor einigen Monaten mein System zusammengebaut und eine RTX 4070 Ti Super um ca. 850€ gekauft. Denkt ihr die RTX 5070 Ti wird spürbar besser sein als meine 4070 Ti Super? Abgesehen davon, dass ich nicht davon ausgehe, dass die angegebenen Preise zum Launch der Wahrheit entsprechen, frage ich mich ob ich besser hätte warten sollen?
Naja, wer heutzutage nur auf die Rohleistung schaut, heizt wahrscheinlich auch noch mit Holz und fährt einen Golf 2
MFG in Zusammenspiel mit Reflex 2 wird richtig geil und uns wunderschöne Bilder mit vollem Raytracing verzögerungsfrei auf die Bildschirme zaubern! Da kann die alte Generation Nvidia sowie die "Konkurrenz" AMD leider einpacken. Sowas nennt man technischen Fortschritt, und man kann nur hoffen, dass AMD es irgendwie schafft, nachzuziehen, da richtige Konkurrenz wichtig ist. Nach der Vorstellung der RTX 9070 sieht das ja eher mau aus
Die einzigen Benchmarks die überhaupt irgendeinen Wert haben, denn wer spielt schon mit DLSS4 wenn er 80 "Frames" hat aber den Input Lag von 20, absolut niemand der ein gutes Spielgefühl haben will.
FPS nicht gleich Input-Latency. Und DLSS allein hat so gut wie keinen Input-Lag. Da reden wir wenn überhaupt über 2? 3? Millisekunden? ....
CB hat ausführlich begründet warum man MIT und ohne aktivierten Upscaling-Methoden testet. Und solange du keine Frame Generation aktivierst, brauchen wir nicht über Input-Lag reden. Lohnt nicht.
Was für eine Farce.... die vergleichen nicht ernsthaft die FPS von alt mit neu und nehmen bei der neuen Karte die Multi Frame Generation mit rein wo einfach mal 3x Fake Bilder eingefügt werden. Was hat das bitte mit Rohleistung zu tun? Bin auf Vergleiche gespannt, wo DLSS 3 mit DLSS 4 ohne diese Multi Fram Gen Zeugs gebaut wird... oder kann man das bei DLSS 4 garnicht deaktivieren und das ist automatisch dabei?
Wie ich die Zeit vermisse, wo ich einfach ein Spiel starte und schaue, wie gut es läuft ohne vorher 5 YT-Videos zu schauen, was die besten Settings für das Spielt mit welcher GPU sind. Es nervt so hart und dann sieht es teilweise noch aus wie hingerotzt. Dann schaue ich mir Spiele wie Witcher 3, Days Gone und so an, da ist alles da.... Atmosphäre, Optik und eine super Perfomance. Warum schaffen das bitte neue Spiele nicht mehr?!
Kann mir das mal jemand mit Frame Generation erklären an dem Beispiel:
Angenommen ich spiele mit nur 10 Fps einen Online-Shooter und es kommt ein Gegner um die Ecke, dann sehe ich ihn nach 0.1 Sek.
Jetzt mit FG bekomme ich 40 Fps, aber im Bezug auf die Sicht des Gegners bleibt es gleich bei 0.1 Sek richtig?
Diese künstlichen Zwischen-Frames können also nur das "Vorhergesehene" berechnen? Und dann wäre in dem Beispiel alles flüssiger, aber dann ruckelt / zappelt plötzlich ein Gegner rein? 😂
Du hast 1 Render-Anfangsframe (nA) und ein Render-Endframe(nE). Es werden nun anhand der AI bis zu 3 n-Frames generiert die die Unterscheidung zwischen nA und nE interpolieren. Durch AI sind es nun im Vergleich zu früher (wohl in der gleichen Zeit) bis zu 3 Bilder machbar
Na ja mal abwarten, aber eher die erwartbare Evolution statt Revolution. Die Fake Frames sind nicht so toll wie viele glauben und z.B bei VR wegen der Latenz komplett wertlos.
Dieser Kontext soll sich im Vergleich zu unserer aller Fachsimpelei ohne die NDA zu verletzen dann exakt woraus bilden?
Du möchtest quasi eine CB-seitige Meinung zu den Pre-Release-Informationen haben. Ja und genau das ist diese eine News für sich genommen gerade nicht. Wo ist jetzt letzte Problem daran?