News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

Sie RTX50 Serie ist ein schönes upgrade für RTX30 Besitzer. Bei der Preisgestaltung hat man sich nicht wie befürchtet zügellos gezeigt.
Die 5090 ist nicht überteuert für das was sie im semiprofessionellen Bereich bietet. Das ist keine reine Gamingkarte, wer sich den Luxus gönnen möchte und damit nur zockt soll halt blechen.
Bei der 5080 tu ich mich schwer den Aufpreis zur 5070ti gerechtfertigt zu sehen. Bei der 5070 zur 5070ti passt es, die Ti bietet für 230€ mehr 16 statt 12Gb Speicher und 418TFLOPS mehr. Von der 5070ti zur 5080 gibt es für 290€ nur 395TFLOPS mehr und der VRAM ist etwas schneller getaktet bei gleicher Größe.
So wie es von den Abmessungen aussieht haben 5080 und 5090 den gleichen Kühler, wenn das zutrifft könnte das bei der 5090 laut werden.
Sehr spannend finde ich noch es zu sehen wie die Ingenieure die Anbindung der Platine an PCIe Slot und Videoausgängen gelöst haben, kann doch nur per Flachkabel an Tochterplatine sein ?
FreedomOfSpeech schrieb:
Kam bei der 4000er auch nicht.
Wird aber mit Sicherheit bei der 5080 als Ti oder Super kommen.Die Mobile 5090 (5080 Desktop) hat ja schon die 24Gb bekommen, das wird mit der Desktopversion genau so passieren.
 
  • Gefällt mir
Reaktionen: Moritz Velten, Obvision und shaboo
Bierliebhaber schrieb:
wird von der grünen Brille rausgefiltert.
Stimmt, darum auch die AMD CPU, darum die Nächste auch ein 9950X3D.

Weil ich eigentlich eine Blaue ääh nee Grüne ähh ne Apple äh neee argh.. BRILLE HALT !!! :freak:
Starkes Argument - richtig strong, auf jeden Fall.:daumen:

Bierliebhaber schrieb:
Gerade wenn er sich selbst so sehr auf die Shader der 5090 bezieht, dann aber behauptet, dass dieselbe Rechnung bei AMD falsch sei.
Eine 7900XT hat 84 CUs und somit 31% mehr Shader. Jetzt kann man das natürlich mit massiven Takterhöhungen ausgleichen wie auch im Artikel erwähnt, das geht aber zulasten der Effizienz. Es ist also ein Tradeoff und AMD wird hier sicher nicht groß jenseits von 3Ghz takten lassen, nur um 5% schneller als eine 7900XT sein zu können und dabei aber nochmal 25% mehr Strom verbraten.

Unterm Strich macht es das Produkt für dich als Käufer schlechter wenn der Hersteller dir eine kleinere GPU mit viel mehr Takt verchecken will. DU musst den Strom dafür nämlich zahlen, während der Hersteller sich Waferfläche spart und Profit maximiert.

Bierliebhaber schrieb:
Während wir bisher eigentlich immer gesehen haben dass GPUs ab einem bestimmten Punkt nicht mehr so gut skalieren, man also im Bereich von RDNA4 eher noch genauere Vorhersagen machen dürfte...
1. In Games korrekt, aber auch eine Frage dessen was die Entwickler hinklatschen.
2. Wo ist dieser Punkt ? Bei 128+ Einheiten von nVidia und bei AMD beginnt er aber schon bei 64 CUs ? Sind sie also nur halb so effektiv ? Schwer hier wirklich was zu sagen weil AMD keine wirklich großen GPUs derzeit baut.

Bierliebhaber schrieb:
RDNA1 war auch nicht der ganz große Geniestreich, der kam ja erst mit RDNA2. Trotzdem hat sich RDNA1 sehr gut verkauft, weil die 5700er eben trotzdem ein gutes Produkt war. AMD fährt dieselbe Taktik wie damals, ich erwarte ein ähnliches Ergebnis wie damals. Für alle, die nicht blind grün kaufen und im dreistelligen Preisbereich bleiben wollen wird die 9070XT eine sehr gute Wahl werden. Kein Hardwarewunder, aber eben auch kein Reinfall.
RDNA2 war zwar gut aber bei weitem auch kein "Geniestreich". Das hat vor allem aufgezeigt wie massiv besser die Fertigung von TSMC war ggü. Samsung. Wenn der Vorteil dahin schmilzt sieht man ja was das gepimpte Ampere aka Ada zu leisten imstande war/ist.
 
  • Gefällt mir
Reaktionen: Fallout667, FreedomOfSpeech, Rockbreak und eine weitere Person
jak80 schrieb:
Naja, wer heutzutage nur auf die Rohleistung schaut, heizt wahrscheinlich auch noch mit Holz und fährt einen Golf 2
na wenn eine 5070 von der Rohleistung weniger wie eine 4070S bringt aber mit Software 100% mehr Leistung bringt ist sie eben kein Grund für ein Umstieg, sondern nur Geldverschwendung, gleiches gild für die ti oder 5080 die bieten nicht mehr wie die Vorgänger und für 10-20% Hardwareleistung mehr soll man geld ausgeben für den Speicherkrüppel von morgen ?
Wer auf Marketing steht soll es bezahlen, sonnst kauft man Hardware und keine Software, wo niemand weis ob es nicht geht oder eben nur von Nvidia nicht gewollt ist das es auf alten Karten geht.
 
Nekkepenn schrieb:
Wird aber mit Sicherheit bei der 5080 als Ti oder Super kommen.Die Mobile 5090 (5080 Desktop) hat ja schon die 24Gb bekommen, das wird mit der Desktopversion genau so passieren.
Es besteht seitens Intel/AMD keine Konkurrenz, und die 5080 ist ja schon der vollständig aktivierte 203er Die. Das einzige wäre ein 202 Die mit IMMENS vielen deaktivierten Clustern. Kann ich mir nicht vorstellen dieses Mal. Die mobile GPUs haben schon immer mit VRAM übertrieben... das ist kein Maßstab.
 
Icke-ffm schrieb:
Aber:
DLSS3.5 läuft nur auf Ada und Backwell
DLSS4 läuft nur auf Backwell
Das stimmt nicht, DLSS4 wird auf allen RTX Karten laufen. allerdings mit Einschränkungen:

DLSS4.png
 
  • Gefällt mir
Reaktionen: Quidproquo77, Kommando, Syrato und eine weitere Person
Wieso werden eigentlich 599 USD zu rnd. 600€ für die 4070S aber zu 649€ bei der 5070? Und wieso ist die 5070 hier mit 50 CU's / RT-Kernen angegeben, wenn 128 shader/CU *48 CUs = 6144 shader ergeben. Lediglich der Vollausbau des GB205 mit 6400 shadern sollte über 50 CUs verfügen. https://www.techpowerup.com/gpu-specs/nvidia-gb205.g1074
 
syfsyn schrieb:
Hier haben wohl einige das neural rendering nicht verstanden man setzt bei den rop an sprich das ist kein dlss
Womit dann die gpu nur noch 1/8 der pixel braucht der Rest wird generiert.
Das hat folgen bei den Tests den einfach 1080p vs 1080p im Treiber stimmt das nicht mehr womit vermutlich der Treiber dann die nv app Pflicht ist.
Da man bei kleineren Auflösungen nis an sein muss und wenn man so testet treten dann nativ 1080p vs 540p an.
Das dies dann doppelt so schnell ist wie der Vorgänger wundert da nicht tendenziell sind sogar vierfache perf. zu erwarten. Sofern die cpu genug drawcalls bearbeiten kann den das wird zum problem selbnst auf ner rtx5070
Kannst du das noch mal Gehäuse erklären bitte?
4090 vs 5090

Ich bin bisher von a gegangen das z. B
ein 4k bild genommen wird, dass dann in 2k gerendert wird + pixel addiert werden (via Dlss) und dann wieder zu 4k formatiert wird.
Was genau mach da jetzt eine 5090 anders ggü einer 4090?
 
Wie alle auf die Folien Bench’s von NVIDIA abgehen. Ich sehe da in Sachen Rohleistung nix belastbares. Haltet doch mal die Füße still. Die 5070 wird absolut NICHT an die 4090 ran kommen. Wie soll das auch gehen bei weniger Cores und co? 😅

Ich seh das alles durchaus nüchterne und gebe gar nix mehr auf Hersteller Folien. Warten wir auf CB Tests und Straßenpreise.
 
  • Gefällt mir
Reaktionen: Sennox, edenjung, Flutefox und eine weitere Person
CrustiCroc schrieb:
Nvidia zerstört die Konkurrenz einfach.
Stark !
Du freust dich über ein Monopol?? :confused_alt:
Oder Ironie? Oder Troll?
 
  • Gefällt mir
Reaktionen: Sennox, edenjung und Windell
Ok, fassen wir zusammen:
  • Die 5000er Serie nutzt im Benchmark MFG (Multi-Frame Generation, 4X Mode), während die 4000er Serie nur normales FG verwendet.
  • Allein "A Plague Tales" nutzt wahrscheinlich in beiden Fällen DLSS3, da es kein DLSS4 oder MFG unterstützt, das heißt dieser Chart wäre ein Stück näher an der Wahrheit.
  • Die 5000er Serie nutzt laut Fußnoten die effizientere FP4-Berechnungen, während die 4000er Serie FP8 nutzt. Wenn Benchmarks mit Workloads gemacht wurden, die von FP4 profitieren, könnten die Ergebnisse künstlich zugunsten der neuen Serie ausfallen.
Fazit:
Die höhere Bildrate der neuen Karten kommen stärker durch KI-Interpolation als durch reine Hardware-Verbesserung zustande. Es gibt keine Angabe, wie sich die Karten ohne DLSS und Frame Generation schlagen. Damit fehlt eine aussagekräftige Messung der echten Rohleistung.
Was wir, abseits des Preisanstiegs, also wissen: Die Karten können etwas besser KI. Wahnsinn.

9fwcki.gif


Ich wehre mich auch gegen den Trend, dass DLSS zum Standard wird, und nicht einmal weil Spiele bessere Grafik darstellen müssen, sondern aufgrund von Software-Verschrottung, weil an Entwicklung gespart wird.
 
  • Gefällt mir
Reaktionen: GRiZzLY1510, dohderbert, edenjung und 5 andere
@Fyrex

Nein, es gibt wesentlich günstigere Hobbys. DAS wollen die meisten hier nicht hören.

Dem habe ich nirgends widersprochen. Wenn du in der Freizeit natürlich gern die Huckel der Raufasertapete zählst, kommst du sogar unschlagbar günstig weg.

Außerdem hast du ja die alte Karte auch nicht geschenkt bekommen, sondern bezahlt. Also den Erlös einfach vom Kauf der neuen Karte abzuziehen ist eine Milchmädchen-Rechnung, nur weil du das Geld bereits "früher" ausgegeben hast.

Dann google doch einfach mal was ein Initialinvest ist und die zwei Jahre Spielspaß, die du bis dahin hattest ignorieren wir auch einfach oder?!
Bezugnehmend auf die Inflation machst du sogar Plus wenn du das Geld vor zwei Jahren schon ausgegeben hast, wie bringst du das denn in deiner Rechnung unter?
Wenn du die alte Graka warum auch immer nicht veräußern möchtest, ist das dein Bier nicht meins.
 
  • Gefällt mir
Reaktionen: Apocalypse
Klasse Marktenting von NVidia.
Nur weil man die Preise für die 5080 nicht erhöht, UVP sogar etwas senkt, sind alle glücklich. Und schon vergisst man den Preissprung von 70% beim UVP der 3080 auf die 4080.
Und dann noch die Benchmarks mit DLSS4. 🤮
 
  • Gefällt mir
Reaktionen: Icke-ffm, edenjung, Markenprodukt und 3 andere
budspencer schrieb:
Wofür eigentlich 32 GB bei 30-40% Mehrleistung? Bei meiner 4090 hatte ich nie mehr als 16GB gebraucht, sofern ich mich erinnere.
Profis und Semiprofis brauchen den RAM für die Arbeit. Das ist nicht für Spieler gedacht.
 
Diese Folien sind bs, hier wird "Flux.dev FP8 on 40 Series, FP4 on 50" verglichen.
Warum hat nvidia das noetig?
Alles was aus den 24GB der 4090 rauslaeuft wird auf der 5090 um Welten besser rennen, aber der Rohleistungsvergleich FP8 vs. FP 4 mit nem flux.1 dev FP4 model was erst im Februar released wird?

Screenshot 2025-01-07 151929.png
 
Nekkepenn schrieb:
Die 5090 ist nicht überteuert für das was sie im semiprofessionellen Bereich bietet. Das ist keine reine Gamingkarte, wer sich den Luxus gönnen möchte und damit nur zockt soll halt blechen.
Aber wenn ich nur Zocken möchte mit dieser Leistung, dann muss ich die bittere Pille schlucken.
Genötigt zu einer 5080Ti sieht Nvidia sich ja nicht.
Eine Titan aus dem Hut zu zaubern für die KI Leute mit viel Speicherbedarf hat man ja auch nicht getan.
Stattdessen bekommt man nun ein xx80 Modell, die nur den halben Chip und Speicher des Topmodells aufweist. Eine so große Diskrepanz gab es abseits der GTX680 nie.
 
roflek schrieb:
RIP an alle die sich eine 4090 in den letzten Monaten gekauft haben.

Ich fühle mich mit meiner 4090 sehr wohl und sehe die angesichts der 5000er auch noch eine ganze Weile relativ wertstabil bleiben. Mit den wenigen verfügbaren Benchmarks sieht es nicht so aus als würde die 5080 die 4090 in Rasterzier und Raytracing deutlich (falls überhaupt) überholen können.
MFG als als Alleinstellungsmerkmal haut mich nicht vom Hocker, schon gar nicht wenn man sich nur traut 10s Geradeauslauf ohne Mausbewegung und (fast) ohne Partikeleffekte zu zeigen. NVIDIA wird wissen warum, schon FG bei DLSS 3.5 sieht eher mittelprächtig aus und fühlt sich oft auch nicht gut an - Ich meide das Feature eigentlich so gut ich kann.
 
  • Gefällt mir
Reaktionen: dohderbert
Gesher schrieb:
Wieso werden eigentlich 599 USD zu rnd. 600€ für die 4070S aber zu 649€ bei der 5070? Und wieso ist die 5070 hier mit 50 CU's / RT-Kernen angegeben, wenn 128 shader/CU *48 CUs = 6144 shader ergeben. Lediglich der Vollausbau des GB205 mit 6400 shadern sollte über 50 CUs verfügen. https://www.techpowerup.com/gpu-specs/nvidia-gb205.g1074
Weil der Euro gegenüber dem Dollar momentan sehr schwach ist und wir in Europa immer die Idioten sind die weltweit am meisten gemolken werden wenn es um Hardwarepreise geht, selbst wenn das pro Kopf Einkommen in der USA weit über dem europäischen Durchschnitt liegt.
 
  • Gefällt mir
Reaktionen: Celinna
Zurück
Oben