News Nvidia RTX 5000 vs. RTX 4000: Die technischen Daten der Grafikkarten im Vergleich

Da lag ich ja gar nicht so daneben:
metoer schrieb:
Da die Fertigung nahezu gleich bleibt glaube ich nicht an viel höhere Taktraten, nicht bei der 5090 mit so vielen Shadereinheiten, da sind die 600W sonst einfach nicht haltbar. Die 5080 wird vom Takt her definitiv zulegen um an die 4090 ranzukommen, sieht man auch an den 400W TDP für die 5080, falls die Leaks stimmen natürlich.

Die 5080 hat aber nur minimal zugelegt was den Takt angeht, ist von der Rohleistung aber auch meilenweit von der 4090 entfernt. 56,3 vs. 82,6 TFLOPS ist schon sehr ernüchternd und ungefähr das gleiche Upgrade wie die 4080S zur 4080 war. Deswegen hat man mit DLSS 4 wohl auch ganz tief in die Trickkiste gegriffen.
 
  • Gefällt mir
Reaktionen: SweetOhm, fox40phil und eXe777
Pathtracing fordert noch immer einen hohen Tribut. Selbst die neue Nvidia RTX 5090 kommt bei Cyberpunk 2077 in 4K, mit höchsten Grafikeinstellungen, sämtlichen Raytracing-Technologien und ohne DLSS auf unter 30 fps. Daraus zaubert DLSS dann laut Nvidia unfassbare 210 bis 240 fps. Das sieht auf einem entsprechenden Display zweifelsohne genial und kompromisslos flüssig aus. Wie sich das allerdings in Bezug auf die Eingabeverzögerung beim Zocken anfühlt, bleibt abzuwarten.
 
  • Gefällt mir
Reaktionen: Golden_, fox40phil und BloodReaver87
NguyenV3 schrieb:
AMD muss schon ziemlich dämlich sein, wenn die es dieses Jahr nicht schaffen, signifikant Marktanteile zu holen. Attacke über den VRAM?

Weil das bisher ja so gut geklappt hat. Die leute haben sich förmlich auf die 16GB Radeon VII gegen die 8 GB 2080 gestürzt, oder die 16GB 6800XT statt 10GB 3080 gekauft. Und wie viele Leute eine 7900XTX mit 24GB statt eine 16GB einer 4080(s= mit nur 16 gekauft haben....

NguyenV3 schrieb:

War bei AMD für die Abstriche nie so das Thema. Da sie immer bei Nvidia nachziehen, gibt es meist Nvidia Preise minus ein paar Euro. Ist selten, dass AMD ab Launch attraktive Preise anbietet. Das entwickelt sich meist erst über die Zeit, wenn die Preise am Markt fallen.

NguyenV3 schrieb:
Absoluter Stromverbrauch und damit leiser, kühler und kleiner?

Bei der Effizienz langen sie bislang fast immer in den letzten 10 Jahren zurück. Nur RDNA2 war da eine kleine Ausnahme dank deutlich besserer Ferting als die RTX30er Karten.

Wenn man sich anschaut, dass die 9070XT angeblich als Custom bis zu 330 Watt ziehen darf und danach sehen die Partnerkarten mit den fetten Kühlern und 3 x 8-Pin auch aus, werden Sie wahrscheinlich nicht mal die Effizient der RTX40er Karten schlagen. Bei nur 4096 Shader müssen Sie Leistung über den Takt holen und bislang sieht es soo aus, als wenn sie da dicht an die Limits gehen. Könnten im umkehrschluss aber wieder eine Karte sein, die man gut undervolten kann.

NguyenV3 schrieb:

Verspielen sie sich auch zunehmend. FSR4 nur für RDNA4 und wenn man sich mal die Kommentare zum Stream anschaut, dann waren da nicht viele glücklich.

NguyenV3 schrieb:
Den Auftakt haben die ja schon mal gewonnen. Die Taktik keine Infos rauszugeben, um später Nvidia in die Parade zu fahren, hat perfekt funktioniert!

??? Nichts zu zeigen ist jetzt schon eine geniale Taktik? Nvidia scheint jetzt nicht so beeindruckt gewesen zu sein, wenn man sich die überraschend niedrigen Preise anschaut. (Für Nvidia Verhältnisse) Quasi keine Preissteigerung, außer bei der 5090, Inflationsbereinigt sogar ein gutes Stück günstiger. Da scheint eher AMD noch mal die Taschenrechner zu zücken, wenn die 5070 plötzlich in den eigentlich angepeilten 9070XT Preisbereich vordringt. Die ganze veranstaltung hat aber nicht den Eindruck vermittelt, AMD sei entschlossen und steht hinter Produkt und Preisen. Statt Preise für gute Produkte zu rechtfertigen, scheint man wieder die Preiskarte spielen zu wollen. Ob das diese generation reicht, wenn es die letzte schon nicht geklappt hat.. man darf gespannt sein. AMD müsste beim Preis schon einen richtigen banger raushauen, wenn sie deutlich Marktanteile gewinnen wollen.

bigfudge13 schrieb:
Die einzige Hoffnung ist vermutlich die 9070 (XT), aber ich befürchte, dass die auch kaum unter 600€ kosten wird.
600€ könnte realistisch sein. Mein Tipp, die 9070 non XT wird von der Preis / Leistung die deutlich interessantere Karte, wie fast jedes mal bei dein größten Chips
 
  • Gefällt mir
Reaktionen: Golden_ und NguyenV3
Shoryuken94 schrieb:
??? Nichts zu zeigen ist jetzt schon eine geniale Taktik? Nvidia scheint jetzt nicht so beeindruckt gewesen zu sein...
Da ist dir das kleine /s am Ende meines Posts entgangen :D
Aber es war wirklich schwer, die Situation von AMD noch irgendwie positiv darzustellen. Die Hoffnung stirbt zuletzt. Nvidia hat einfach alles selbstbewusst und professionell gezeigt. Jeder weiss, was er bekommt - abseits der üblichen unabhängigen Reviews.
 
  • Gefällt mir
Reaktionen: Outsource0326 und Shoryuken94
Haldi schrieb:
Edit:
P.S Ausser für die AI Fans... die werden das Teil aus den Händen reissen. Innert Minuten Ausverkauft und wochenlang nicht verfügbar!


Wür ich bezweifeln, bis auf die 5090, die Anderen haben zu wenig Speicher für LLM in gross.
 
  • Gefällt mir
Reaktionen: SweetOhm
Danke für den Vergleich.

Ich finde solche Vergleiche immer spannend, um zu sehen, wer was besser macht.
 
  • Gefällt mir
Reaktionen: SweetOhm
Was ich interessant finde bei den Folien zur Leistung ist das die 5080 relativ zur 4080 mehr zulegt als die 5090 zur 4090, obwohl die 5090 bei der Rohleistung um 27% zulegt und die 5080 nur um 20%.
Könnte natürlich auch an einem CPU Limit liegen, obwohl Plague Tale schon sehr GPU lastig ist.

Hab das mal gegenübergestellt zum Vergleich, 1x wurde auf die gleiche Größe skaliert:
1736283849115.png
 
  • Gefällt mir
Reaktionen: Outsource0326, .[o_o]., SweetOhm und 3 andere
5070ti ist und bleibt die interessanteste Karte, sofern sich sie Partner mit ihren Modellen nicht zu sehr bereichern wollen…
Allerdings freue ich mich auf die Tests, vom Papier her ist die 5xxx Generation (nur) eine aufgemotzte 4xxx, mal schauen wie die Effizienz wird, blieb ja nur die Optimierung…
 
Naja wenn ich ehrlich bin, machen mich die Infos froh, meine RX 7900XT hat für mich noch gut Leistung und da bei beiden Hersteller keinen wirklichen Leistungssprung gibt ( außer DLSS4/FSR4) werden die Entwickler wohl weiterhin auf die Leistungsklasse setzen wie bisher, damit bleibt das Geld über für andere schöne Dinge. 🤣
Nvidia mach zur Zeit wie damals Intel bei den CPU's und bei derzeitigen Konkurrenz und Fertigungskosten auch kein Wunder.
Damals konnte ich mit meinem i7 2600k@4,5Ghz auch lange ohne nötigen Upgrade Zeit genießen und Geld sparen. 🥳

Einzige Nachteile sind dass der Fortschritt und die News werden erstmal langweilig bleiben, aber die schöne alte Zeit wo noch moorisches Gesetz galt kommt halt mit der Gängigen Technologie nicht mehr. Hoffen wir das da neu Ansätze bald gefunden werden und so lange zurück lehnen und die Zauberpulver (DLSS/FSR/XESS) Show genießen und verblendeten die Entwicklung und Lederjacken bezahlen lassen 😈
 
  • Gefällt mir
Reaktionen: SweetOhm und Corpus Delicti
@Frank
Ich glaube es hat sich ein Fehler in euren Tabellen zur 5070 eingeschlichen. 6144 Shader wären beim üblichen Verhältnis von 128:1 (wie bei den anderen Chips) 48 aktive CUs / SM - und nicht 50 :)
 
  • Gefällt mir
Reaktionen: Frank und SweetOhm
Die 5070 ist wirklich die lustigeste Karte was reale Rohleistung und VRAM angeht. Ohne Fakeframes wird sich im ganzen Lineup nicht viel tun. Ich bin gespannt wie NV die Medien entsprechend mit Marketing-BS füttert und wer gerig DLSS4 schluckt. Brot und Lieder, Brot und Lieder....
 
  • Gefällt mir
Reaktionen: eXe777, SweetOhm, metoer und eine weitere Person
Bei der RTX 5070 finde ich die 50 CUs und 6.144 ALUs schon wirklich mager, das ist zwar ein bisschen mehr als bei der normalen RTX 4070 aber dennoch weniger als bei der RTX 4070 Super die mit immerhin 56 CUs und 7.168 ALUs aufwartet. Klar hat die RTX 5070 DDR7 statt DDR6 und der Takt ist auch ein bisschen aber nicht viel höher.

Aber fürchte es wird trotzdem nicht reichen um an der RTX 4070 Super geschweige denn der RTX 4070 Ti vorbeizuziehen. Und dann sind 649€ nicht sonderlich attraktiv. Momentan sind die RTX 4070 Super zwar auch nicht wirklich günstiger, aber bis November ging es schon für unter 600€.

Die RTX 5070 Ti sieht mit ihren 70 CUs und 8.960 ALUs schon besser aus, denn das liegt sowohl über den 60 CUs und 7.680 ALUs der RTX 4070 Ti als auch den 66 CUs und 8.448 ALUs der RTX 4070 Ti Super. Und die 849€ sind zwar teuer aber in Relation akzeptabel wenn man bedenkt das die RTX 4070 Ti Super auch noch nie unter 850€ zu bekommen. Und auch die RTX 4070 Ti nicht unter 750€. So gesehen ist wohl die RTX 5070 Ti die einzige Karte mit halbwegs attraktiven Preis-Leistungsverhältnis.

Als Causal-Gamer muss man wohl leider schlucken das man bis auf weiters bei der Blackwell-Architektur erstmal komplett aussen vor ist, bis sich Nvidia vielleicht doch noch erbarmt eine RTX 5060 und RTX 5060 Ti vorzustellen. Ansonsten geht es wohl erstmal darum die Preisentwicklung bei der RTX 4060 Ti 8GB, RTX 4060 Ti 16GB und RTX 4070 Super 12GB zu verfolgen. Wenn es da wieder in Richtung November-Niveau gehen würde wäre das schon gut. Aber wegen dem Produktionsende bin ich skeptisch.
 
  • Gefällt mir
Reaktionen: SweetOhm
metoer schrieb:
Könnte natürlich auch an einem CPU Limit liegen, obwohl Plague Tale schon sehr GPU lastig ist.
In Plague Tale wird allerdings DLSS Performance und Frame Generation 2x verwendet, wenn ich das richtig verstehe. Dass da eine 5090 nicht optimal ausgelastet wird, ist schon naheliegend, vermutlich wird es schon die 4090 nicht. Bei Far Cry 6 liegt mit hoher Wahrscheinlichkeit wirklich ein CPU-Limit vor. Wenn ich mich nicht irre, gab es nach Release große Probleme damit, dass das Spiel fast nur einen Thread genutzt hat. Ich weiß nicht in wie weit sie dieses Problem behoben haben, aber damals hatte ich teils schon Probleme meine 3080 auszulasten, während die 5090 nochmal etwa 3 mal so schnell ist.

Worauf ich wirklich gespannt bin sind Vergleichsbenchmarks in nativem 4K mit DLAA. Ich hoffe immernoch auf knapp 50% mehr Leistung in diesem Fall. Allerdings sehen die nativen 4K Cyperpunk PT Benchmarks mit ~25 FPS nicht toll aus. Denn zumindest im integrierten Benchmark hat meine 4090 schon 21 FPS bei diesen Settings geschafft, was dann effektiv nur knapp 20% Mehrleistung für die 5090 bedeuten würde. Allerdings variiert die Leistung natürlich stark mit der Wahl der jeweiligen Szene. Aber dafür, dass Jensen von verdoppelter RT-Leistung sprach, ist das schon mau.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Outsource0326, SweetOhm und metoer
metoer schrieb:
Deswegen hat man mit DLSS 4 wohl auch ganz tief in die Trickkiste gegriffen.

Dafür kann man die Karte noch für einen günstigen 3-stelligen Betrag anbieten!

Wenn das mit den AI Tops stimmen sollte, wäre das echt absurd, man wirbt mit quasi 3-facher Leistung und am Ende kommen die erwarteten 30% raus...

Redirion schrieb:
Blackwell bietet FP4, Ada Lovelace INT8.

INT8 wird normalerweise genutzt für die TOPS. Nvidia gibt nun Werbewirksam aber die TOPS mit FP4 an. Daher die Verdoppelung.

Es passt mit 1.676 dann viel besser zu den sonstigen technischen Daten.

Echt jetzt?
Meine Güte und ich dachte schon, dass die Karte ein wahres AI-Wunder wird.


Sieht jetzt echt nach 30% mehr Leistung in allen Bereichen inkl. VRAM aus, dafür aber auch 30% mehr Stromverbrauch/Preis.

Werde den Test von computerbase mal abwarten, falls ich die Karte doch will, kann ich auch 3+ Monate warten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Outsource0326, SweetOhm und metoer
danyundsahne schrieb:
Schau dir die Folie doch mal genau an....die Chips werden immer kleiner (also kosteneffizienter in der Herstellung) verglichen mit den steigenden Preisen.

Ausgehend von RTX20 war das bei RTX30 schon in leichten Zügen so, bei RTX40 dann sehr deutlich erkennbar und bei RTX50 sind die Abstände zum Vollausbau nochmal deutlich größer.
Ok, verstanden warum du das so siehst. Als maximale Kunden verarsche würde ich das aber nicht sehen. Eher "wir können es verlangen und es wird gezahlt".
Am Ende muss ich ja nicht kaufen und vorallem kaufe ich keine Chipgröße sondern eine gewisse Leistung. Wie schrieb es hier mal einer zur Preis-Leistungs-Diskussion des 9800x3d: "Mir egal, dass sie nur 8 kerne hat. Und wenn sie nur einen halben Kern hätte: wenn ich damit mit Abstand die meisten FPS bekomme, kaufe ich die CPU".
 
  • Gefällt mir
Reaktionen: Outsource0326 und danyundsahne
Rein von den Zahlen/Daten her eher sehr ernüchternd.
Dann auch noch den höheren Stromverbrauch, mit Teils weniger Takt.
Gott (Jensi) sei Dank gibt es die ach so tollen Features !! :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FrankN84, eXe777 und Apocalypse
Zurück
Oben