News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

Schade, dass man Leistungssteigerung nur noch durch Erhöhung der Leistungsaufnahme zu erreichen scheint... eine 5070 mit 250W finde ich einfach enttäuschend, vollkommen unabhängig von der Leistung.
 
  • Gefällt mir
Reaktionen: Sennox
Maxminator schrieb:
Janson Huang hat doch eingangs auch selbst gesagt: GeForce hat die AI ermöglicht und nun ermöglicht AI die GeForce.
Somit hat er selbst zugegeben:

BACKWELL ist eine REINRASSIGE AI-Architektur und keine fürs Gaming!
Dafuer fehlt allen, bis auf die 5090, der vram.
 
  • Gefällt mir
Reaktionen: Apocalypse und edenjung
Reine Rasterleistung schlägt die 5070 niemals die 4090
 
  • Gefällt mir
Reaktionen: Celinna
@theGucky
super danke für deine ausführliche Erklärung mit dem Beispiel, so dass ich es jetzt auch endlich verstehen konnte, wie das alles funktioniert.
😉👌 ❤️
 
Bei einer RTX 5070 Ti mit 2-Slot-Kühler und max. 700€ wäre ich vielleicht schwach geworden. Aber AMD soll ja für Linux eh die bessere Wahl sein.
 
  • Gefällt mir
Reaktionen: Cookie4u
tollertyp schrieb:
Schade, dass man Leistungssteigerung nur noch durch Erhöhung der Leistungsaufnahme zu erreichen scheint... eine 5070 mit 250W finde ich einfach enttäuschend, vollkommen unabhängig von der Leistung.
also bei der 40er-Serie hat sich damals ja gezeigt, dass man mit minimalem Zurückschrauben der Leistung die Leistungsaufnahme deutlich senken kann
mit eingestelltem Framelimit sollte dann ja der Verbrauch nochmals ordentlich sinken
 
ich kann mit diesem frame generation gar nicht umgehen, weder bei nvidia noch bei amd, wobei amd das defintiv besser löst im moment.

die latenz ist mir in beiden fällen einfach zu hoch und es wirkt auch nicht natürlich, kann dlss 4 den noch mehr als nur mehr frames einfügen ?

also ist das eigentliche upscaling besser und schneller geworden ?
 
JackTheRippchen schrieb:
Bei einer RTX 5070 Ti mit 2-Slot-Kühler und max. 700€ wäre ich vielleicht schwach geworden. Aber AMD soll ja für Linux eh die bessere Wahl sein.
Vielleicht gibts ja in einem Jahr eine 5070 Super mit 16GB für diesen Preis.
 
  • Gefällt mir
Reaktionen: Apocalypse
WhiteRabbit123 schrieb:
Dann musst du aber Nägel mit Köpfen machen und die Ur-Switch nehmen. Denn oh Wunder die Switch 2 wird teurer als die Switch 1 jetzt ist. Und du wirst dir ja wohl keine Doppelmoral unterstellen lassen, oder?!
Touche! Du hast recht. Aber ich hab schon eine Switch mit OC und eine Switch Lite mit OC steht neben der Homebrew Wii U und dem gemoddetem SNES Mini 😂.

Das "Hobby" PC Gaming macht mir sowieso keinen Spaß mehr. Da kommt nur irgendwelcher Einheitsbrei. Bestes Beispiel Elden Ring. Ja, ist super. Aber ist vom Grundkonzept wie TES Oblivion. Außerdem viel zu leicht. 😎
 
  • Gefällt mir
Reaktionen: Abrexxes
Schlumpfbert schrieb:
Viele scheinen an der 5080 interessiert zu sein, kaum einer an der 5070 Ti, warum ist das so?
Es ist eine halbe 5090 zum halben Preis. Nicht meine Preisklasse an Karten, aber verstehen kann ich es schon. War auch mmn so nicht erwartet worden.
 
  • Gefällt mir
Reaktionen: TheHille
tollertyp schrieb:
Ich vergleiche beide Serien da anhand der Spezifikation.
nunja.. die maximalen Watt sagen aber halt nicht wirklich viel aus..

die 40er-Generation konnte die gleichen Framezahlen stromsparender erreichen als ihre 30er-pendante..
auch wenn beim max-Watt ein höherer Wert im Datenblatt stand
 
  • Gefällt mir
Reaktionen: Maxminator
Bin nur hier um den Counter zu pushen:
Shut up and take my money.

Ich freu mich so drauf, endlich ARK:SA auf UWQHD mit ordentlichen Details und FPS zu zocken.
Meine 3080 packt das leider wirklich nicht und naja...es gibt auch keine Alternative.
 
  • Gefällt mir
Reaktionen: jak80, Simanova und NoPCFreak
Kraeuterbutter schrieb:
wie funktioniert das mit den Zwischenbildern?
Zwischenbilder 2,3 und 4 werden basierend auf dem Bewegungsvektor generiert. Nvidia hatte dazu in dem Post erklärt, dass Eingaben des Benutzers und die letzte Bewegung im Bild ausgewertet werden. Ich könnte mir auch vorstellen, dass die GPU einen zusätzlichen Bildrand mitberechnet, um Objekte darzustellen, die gerade die Szene betreten. Das würde nur eine höhere virtuelle Auflösung erfordern, was DLAA/DLSS ja ohnehin bietet.

Die genaue Technologie wird Nvidia schön für sich behalten. $$$
Ergänzung ()

JackTheRippchen schrieb:
Bei einer RTX 5070 Ti mit 2-Slot-Kühler und max. 700€ wäre ich vielleicht schwach geworden.
Gibts von Inno3D, vermutlich aber für 850€+ die Modelle heissen X2/X3
 
Kraeuterbutter schrieb:
wie kann die Graka Zwischenbilder zwischen 2 und 3 berechnen, ohne das 3 fertig ist?
wenn sie anfangsbild und endbild für das Zwischenbild benötigt?
Frame 3 ist schon fertig wenn Frame 2 angezeigt wird und steckt in der Warteschlange im VRAM.
Dann werden die Zwischenbilder von FG erzeugt und eingefügt und erst dann wird der bereits fertige Frame 3 angezeigt.
Es werden also 1-2 fertig gerenderte native Frames zurückgehalten, damit FG funktioniert.
Das ist auch der Grund, warum FG VRAM braucht.
 
rocka81 schrieb:
Reine Rasterleistung schlägt die 5070 niemals die 4090
Ich denke da wird es selbst die 5080 schwer haben und nicht schaffen !
 
  • Gefällt mir
Reaktionen: Celinna und metoer
Kraeuterbutter schrieb:
nunja.. die maximalen Watt sagen aber halt nicht wirklich viel aus..

die 40er-Generation konnte die gleichen Framezahlen stromsparender erreichen als ihre 30er-pendante..
auch wenn beim max-Watt ein höherer Wert im Datenblatt stand
du darfst Ampere nicht mit ADA vergleichen. 8nm SAMSUNG und 4nm TSMC!
BACKWELL hat den gleichen Prozess bei TSMC wie ADA - 4nm
 
  • Gefällt mir
Reaktionen: metoer
Ohne Benchmarks mit deaktiviertem DLSS4 MFG kann keine Aussage über die Leistungsfähigkeit gemacht werden. 5070 schneller als die 4090 niemals. Vielleicht werden die Karten auch einfach nur günstiger, weil man mit Software eine Leistungssteigerung vorgaukelt die es gar nicht gibt.
 
  • Gefällt mir
Reaktionen: Sennox und edenjung
Ich glaube in Zukunft lasse ich meinerseits den Grafikkartenmarkt "verrecken" in dem ich keine dezidierte Karte mehr kaufe.

Derzeit noch im Besitz einer RX6800 sehe ich es nicht eine, diese Entwicklung mitzumachen.

Ich werde mir mit der nächsten CPU eingehend eine nette APU kaufen und dann schauen, was da am Ende bei rauskommt an Grafik.

Ich werde gerne Details und Auflösung reduzieren, denn am Ende des Tages interessieren mich die Inhalte des Spiels und nicht irgendwelche Bonusdetails.

Sowohl Nvidia als auch AMD, man könnte meinen in Consumer GPU Bereich sprechen die sich ab!
 
  • Gefällt mir
Reaktionen: TheHille und edenjung
Zurück
Oben