News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

-=:Cpt.Nemo:=- schrieb:
Wer wirtklich NVidia ungeprüft glaubt, das die 5070 die Perormance einer 4090 hat, muß ziemlich gaga im Kopf sein.
Nicht nur Nvidia, auch AMD, Intel, Knorr, Nestle oder Politikern... die wollen sich nur vermarkten.
 
  • Gefällt mir
Reaktionen: Pisaro und Sennox
Für knapp 7 Euro gibt es

Screenshot 2025-01-07 142126.png


Ich denke schon, dass MFG auch auf anderen Karten laufen könnte wenn NV Das wollte wenn ein Einzelner? Sowas zustande bringen kann.
 
  • Gefällt mir
Reaktionen: dernettehans, Sennox und Simanova
theGoD schrieb:
Und wahrscheinlich kannst du das Video was du "gesehen hast" jetzt nicht mehr finden...
Doch. Extra für Dich.

 
Kann mir das mal jemand mit Frame Generation erklären an dem Beispiel:
Angenommen ich spiele mit nur 10 Fps einen Online-Shooter und es kommt ein Gegner um die Ecke, dann sehe ich ihn nach 0.1 Sek.
Jetzt mit FG bekomme ich 40 Fps, aber im Bezug auf die Sicht des Gegners bleibt es gleich bei 0.1 Sek richtig?

Diese künstlichen Zwischen-Frames können also nur das "Vorhergesehene" berechnen? Und dann wäre in dem Beispiel alles flüssiger, aber dann ruckelt / zappelt plötzlich ein Gegner rein? 😂
 
Bin auf "echte" Benchmarks ohne DLSS gespannt.
Dass eine 5070ti bei den Daten eine 4090 real schlagen kann möchte ich doch arg bezweifeln...
 
  • Gefällt mir
Reaktionen: Fyrex und Apocalypse
SavageSkull schrieb:
Wenn das Gameplay doch einfach ist und 60FPS reichen, warum dann überhaupt Fake Frames einschalten?
1. Meine CPU erreicht oft nur 30 FPS :D

2. Auf einem Bildschirm der 240hz kann, sieht es natürlich in Bewegung auch viel besser aus, wenn er mit 240 Bildern gefüttert wird, so die CPU halt auch 60 FPS schafft, es wohl meist der Fall sein dürfte mit einem 9800x3D oder ähnlichem ... sofern man nicht zu komplexe Addons hat oder gerade in einer echt vollen Stadt landen möchte, etc

edit: Aber die Art von Games, wo die Input Latenz relativ egal ist, die dürfte recht selten sein. Da bleibt dann in der Regel nur der Zweite Punkt übrig. Aber für MSFS und andere vergleichbare Sims ist es echt toll. Hmm, City Skylines ist bestimmt auch ein guter Kandidat für :D
 
Capthowdy schrieb:
Die machen aber den FPS Balken kein Stück lääääänger. ;)
Eben doch? FG soll schneller und effizienter arbeiten. Schneller = längerer Balken.
Aber Aluhutgeschwurbel trifft hier auf mehr Anklang, wenn es um Nvidia geht. Wo kämen wir denn hin, wenn wir mal eingestehen würden, dass diverse Softwarefeatures eben auch Hardware benötigen.
 
Erst vor einem halben Jahr ne 4080 Super gekauft, wird man wohl dann nur noch schwer verkaufen können?
Hat die 50er derie eigent lich PciE 5.0?
 
  • Gefällt mir
Reaktionen: Sly123
scootiewolff22 schrieb:
"Wir haben neuronale Netzwerke in programmierbare Shader integriert, um neuronale Shader zu erstellen. RTX Neural Shader werden das nächste Jahrzehnt der Grafikinnovationen vorantreiben. Mit ihnen können Texturen um das bis zu 7-Fache komprimiert werden, wodurch enorme Mengen an Grafikspeicher gespart werden. Und sie können verwendet werden, um Texturen in Kinoqualität und noch fortschrittlichere Lichteffekte in Spielen zu erstellen." Mimimimi 16 GB Vram reich nicht mimimimi
Nach DS solls das jetzt richten :)?

Im Ernst, Speicher kann nur durch mehr Speicher ersetzt werden. Jede softwareseitige Einsparung reiht sich in die normale Entwicklung ein und wird genutzt um mehr in den Speicher zu bekommen, nicht um weniger Speicher zu verbauen.

NV kann tolle Software, keine Frage. Aber zaubern können sie auch nicht also wird nie das eine Ding kommrn und wir gehen zurück auf 1GiB VRAM.
"🎼Ich weiss, 🎶es wird einmal kein Wunder geschehen...🎵"
 
  • Gefällt mir
Reaktionen: Ghostfacekalle und edenjung
Mac_Leod schrieb:
Was muss eigentlich passieren, damit der Mark belebt wird?
da passiert auf absehbare zeit nichts mehr; wir als gamer haben gezeigt dass wir bereit sind preissteigerungen mitzumachen die vor 10 jahren noch unvorstellbar waren; entsprechend gibt es garkeinen preisdruck innerhalb eines portfolios, denn wenn zwischen den karten derart viel luft ist und die konsumenten am oberen ende bereit sind 2k+ auszugeben, warum sollte eine 5080 unter 1000€ oder eine 5070 unter 500€ liegen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Leeway, edenjung und Fyrex
Robo-Man schrieb:
Wie die Leute sich von den pseudoangaben mit DLSS 4 blenden lassen ist unglaublich.

Da hat das Marketing von Nvidia mal wieder alles richtig gemacht...
Wieso blenden lassen (ok, manche Reaktionen klingen so, als hätten sie rein auf die nackten Zahlen reagiert)?

Technologisch ist es doch der absolut richtige Weg, um auch in Zukunft die Effizienz und somit Leistung zu steigern, vorausgesetzt, das Endergebnis (in diesem Fall) für den Spieler ist durchgehend flüssig bei bester Bildqualität. Durch die KI Lösung kann man sich endlich aus dem Hamsterrad und der Jagd nach immer mehr Rohleistung (hallo Taktraten Junkie Intel) befreien, die zum Teil eh nur von immer kleineren Fertigungsgrößen stammte.

Was NVIDIA nun tatsächlich wird beweisen müssen, ist die angesprochene qualitative Umsetzung in JEDEM entsprechenden Spiel, damit die Technologie da ist, um zu bleiben und nicht einfach nur einen Kompromiss für Spieleentwickler anbietet.

Natürlich macht es jetzt weniger Sinn, Diagramme miteinander zu vergleichen aber das ist ja mehr unser Denkfehler, weil wir irgendwelche Zahlen zur Einschätzung haben wollen. Am Ende zählt nur, ob ein Spiel durchgehend flüssig bei bester Bildqualität läuft. Wenn DLSS 4 das liefert, selbst wenn die Rohleistung der Karte nur die Hälfte meiner 1070 wäre, dann immer her damit!
 
  • Gefällt mir
Reaktionen: Sierra1505, Kraeuterbutter und xexex
Kurze Frage: ich hab vor einigen Monaten mein System zusammengebaut und eine RTX 4070 Ti Super um ca. 850€ gekauft. Denkt ihr die RTX 5070 Ti wird spürbar besser sein als meine 4070 Ti Super? Abgesehen davon, dass ich nicht davon ausgehe, dass die angegebenen Preise zum Launch der Wahrheit entsprechen, frage ich mich ob ich besser hätte warten sollen?
 
@1776 wissen nicht, was in der NDA steht, ob HW Unboxing daran gebunden ist uvm....

Den Artikel zu den GPUs wirds, wahrscheinlich, 24h vor Release geben.

Wenn man vorbestellt, muss man mit dem Resultat klarkommen.

@Lexx889 das werden wir erst mit unabhängigen Tests feststellen.
Reicht die 4070 Ti Super noch? HW kauft man, wenn sie "benötigt" wird.
 
  • Gefällt mir
Reaktionen: Sierra1505
Naja, wer heutzutage nur auf die Rohleistung schaut, heizt wahrscheinlich auch noch mit Holz und fährt einen Golf 2 :D

MFG in Zusammenspiel mit Reflex 2 wird richtig geil und uns wunderschöne Bilder mit vollem Raytracing verzögerungsfrei auf die Bildschirme zaubern! Da kann die alte Generation Nvidia sowie die "Konkurrenz" AMD leider einpacken. Sowas nennt man technischen Fortschritt, und man kann nur hoffen, dass AMD es irgendwie schafft, nachzuziehen, da richtige Konkurrenz wichtig ist. Nach der Vorstellung der RTX 9070 sieht das ja eher mau aus :(
 
  • Gefällt mir
Reaktionen: Quidproquo77
Rockbreak schrieb:
Die einzigen Benchmarks die überhaupt irgendeinen Wert haben, denn wer spielt schon mit DLSS4 wenn er 80 "Frames" hat aber den Input Lag von 20, absolut niemand der ein gutes Spielgefühl haben will.
FPS nicht gleich Input-Latency. Und DLSS allein hat so gut wie keinen Input-Lag. Da reden wir wenn überhaupt über 2? 3? Millisekunden? ....

CB hat ausführlich begründet warum man MIT und ohne aktivierten Upscaling-Methoden testet. Und solange du keine Frame Generation aktivierst, brauchen wir nicht über Input-Lag reden. Lohnt nicht.
 
  • Gefällt mir
Reaktionen: ThirdLife
Was für eine Farce.... die vergleichen nicht ernsthaft die FPS von alt mit neu und nehmen bei der neuen Karte die Multi Frame Generation mit rein wo einfach mal 3x Fake Bilder eingefügt werden. Was hat das bitte mit Rohleistung zu tun? Bin auf Vergleiche gespannt, wo DLSS 3 mit DLSS 4 ohne diese Multi Fram Gen Zeugs gebaut wird... oder kann man das bei DLSS 4 garnicht deaktivieren und das ist automatisch dabei?

Wie ich die Zeit vermisse, wo ich einfach ein Spiel starte und schaue, wie gut es läuft ohne vorher 5 YT-Videos zu schauen, was die besten Settings für das Spielt mit welcher GPU sind. Es nervt so hart und dann sieht es teilweise noch aus wie hingerotzt. Dann schaue ich mir Spiele wie Witcher 3, Days Gone und so an, da ist alles da.... Atmosphäre, Optik und eine super Perfomance. Warum schaffen das bitte neue Spiele nicht mehr?!
 
  • Gefällt mir
Reaktionen: -=:Cpt.Nemo:=-, Wowka_24, edenjung und eine weitere Person
Kenjiii schrieb:
Kann mir das mal jemand mit Frame Generation erklären an dem Beispiel:
Angenommen ich spiele mit nur 10 Fps einen Online-Shooter und es kommt ein Gegner um die Ecke, dann sehe ich ihn nach 0.1 Sek.
Jetzt mit FG bekomme ich 40 Fps, aber im Bezug auf die Sicht des Gegners bleibt es gleich bei 0.1 Sek richtig?

Diese künstlichen Zwischen-Frames können also nur das "Vorhergesehene" berechnen? Und dann wäre in dem Beispiel alles flüssiger, aber dann ruckelt / zappelt plötzlich ein Gegner rein? 😂
Du hast 1 Render-Anfangsframe (nA) und ein Render-Endframe(nE). Es werden nun anhand der AI bis zu 3 n-Frames generiert die die Unterscheidung zwischen nA und nE interpolieren. Durch AI sind es nun im Vergleich zu früher (wohl in der gleichen Zeit) bis zu 3 Bilder machbar
 
  • Gefällt mir
Reaktionen: Kenjiii
Na ja mal abwarten, aber eher die erwartbare Evolution statt Revolution. Die Fake Frames sind nicht so toll wie viele glauben und z.B bei VR wegen der Latenz komplett wertlos.
 
  • Gefällt mir
Reaktionen: Sennox
1776 schrieb:
D.h. Copy-Paste ist der Anspruch bei CB?
Man muss ueberhaupt keinen Kontext dazu bieten?
Dieser Kontext soll sich im Vergleich zu unserer aller Fachsimpelei ohne die NDA zu verletzen dann exakt woraus bilden?
Du möchtest quasi eine CB-seitige Meinung zu den Pre-Release-Informationen haben. Ja und genau das ist diese eine News für sich genommen gerade nicht. Wo ist jetzt letzte Problem daran?
 
Zurück
Oben