News Nvidia RTX 5000 vs. RTX 4000: Die technischen Daten der Grafikkarten im Vergleich

DaDare schrieb:
Es darf festgehalten werden, wenn man die CUs aktiv von dem Flaggschiff ausgeht, sprich 5090 und 4080, dass die Karten darunter, ausgehend von den CU im prozentualen Anteil, eine Klasse niedriger angesetzt sind. Die 5080 ist somit keine richtige "5080", sondern eher im Bereich der fiktiven 5070 ti nach 4000ter gen zu sehen. Selbiges gilt dann mit der 5070 ti, die eigentlich eine 5070 wäre.

Das ist auch eine Art "Shrinkflation". Das ist deutlich interessanter als dieser komische Datenblatt vergleich. Ja, wow, die neuen Karten sind besser. Wer hätte dies gedacht? Lasst euch nicht verarschen und haltet die Ohren steif. ;-)

Das ist zudem ein schönes Paradebeispiel, was ein Unternehmen machen kann, wenn es keine Konkurrenz gibt. Achja, Monopole sind immer was schönes... für den Monopolisten.

Die Linienabwertung gibts schon länger. Ist nur eine Frage wie weit du zurück gehen willst:

70 GPU.png


Mit 29.5% ist ein neuer Tiefststand erreicht. Zum Vergleich in der 500er GTX Serie wärst du mit 29.5% des Flaggschiffs bei einer GTX 550 Ti gelandet
 
  • Gefällt mir
Reaktionen: eXe777, Maxysch, Apocalypse und 3 andere
Mezzy schrieb:
Gerade was PCI 5 bei der 5080 zur 4080 mit PCI 4 ausmacht, interessiert mich echt.
Nachdem 4 vs. 3 schon nur 3% ausmacht wird wohl Null rauskommen.
 
SweetOhm schrieb:
Die "FE" soll ca. 265 Watt haben, nur OC Custom Modelle dürfen über 300 Watt ziehen und da reichen auch 2 x 8 Pin Stecker aus (max. 375 Watt inkl. PCIe).

Und am ende kaufen sich die meisten die Custommodelle. so wahnsinnig toll waren ja auch die letzten AMD Designs nicht.

Die 75 Watt von PCI Express fahren moderne Karten nicht Ansatzweise aus, da liegt man meistens bei maximal 30 Watt. Und eigentlich bietet PCI Express auch nur 66 Watt auf 12 Volt der Rest ist schon nur mit spezieller Konfiguration möglich.

Aber dann sind wir ja nicht am Ende. Die Custommodelle werden auch kein hartes Powerlimit haben und für OC dann die möglichkeit bieten, dass Powerlimit anzuheben. Üblich sind bei AMD meistens 15%. Bei 330 Watt + 15% sind wir bei fast 380 Watt und das geht dann nicht mal, wenn man alle Spezifikationen ausreizt. Technisch ginge es, aber AMD möchte sicherlich nicht wieder die ganzen negativkommentare, dass Sie über den offiziellen PCIe Spezifikationen agieren, wie damals bei der 295x2 oder RX480.

Pro_Bro schrieb:
Nachdem 4 vs. 3 schon nur 3% ausmacht wird wohl Null rauskommen.

Im normalen Betrieb ja, wenn der Speicher überläuft wirds plötzlich doch sehr relevant. Zumindest bei den Modellen mit weniger Speicher, kann es die Auswirkungen etwas lindern.
 
@panther7 Wo kommt die Grafik her? Ich fänds spannend mal nachzulesen, wie genau sich die Werte berechnen.
 
Neiky schrieb:
Oh man... meint ihr, ein Upgrade von 4090 auf 5090 lohnt sich? :D
Nein, lohnt sich nicht. Warte auf die 6090!!!
 
  • Gefällt mir
Reaktionen: Neiky
Erstmal die Benchmarks abwarten. Aber grundsätzlich ist bei mir die Bereitschaft da in eine 5080 zu investieren als “Folgekosten” eines 4K-Monitors. Als Upgrade von einer 3080 ist dann der Generationensprung wahrscheinlich ausreichend ;)
 
Ich hatte mir vor ca. einen Monat, nach langen zaudern ein neues System auf Grundlage des Ryzen 7 7800x3d und einer ZOTAC RTX 4070 SUPER Trinity OC Black Edition zusammen gestellt. Gerade bei der GPU habe ich lange abgewägt ob ich auf die 5070 (Custom Modell ) warten sollte um im gleichen Preissegment zu bleiben. Ferner habe ich gehofft das die 5070 die 4070 Super in der reihnen Rohleistung, ohne KI Featers, übertrifft. Wenn ich die Vergleichstabellen richtig verstanden habe ist das jedoch nicht der Fall.
Im Endeffekt alles richtig gemacht???
 
Shoryuken94 schrieb:
Verspielen sie sich auch zunehmend. FSR4 nur für RDNA4 und wenn man sich mal die Kommentare zum Stream anschaut, dann waren da nicht viele glücklich.

Ach Leute. DAS STIMMT NICHT!!!!

"Tim von Hardware Unboxed fragte nach einer Annahme, die auf einer Fußnote basierte, die darauf hindeuten könnte, dass FSR4 9070-exklusiv (oder mindestens) sein würde, und bat um Klarheit. David erklärte, dass es nichts an FSR4 gibt, das es exklusiv für ein bestimmtes Modell macht - die RDNA4-Updates enthalten bessere MLOps, die eine Technologie wie FSR4 viel besser machen, als sie es gewesen wäre."
 
Guitarluke schrieb:
@panther7 Wo kommt die Grafik her? Ich fänds spannend mal nachzulesen, wie genau sich die Werte berechnen.
Von mir mit Werten von Wikipedia via Excel

Das ist ganz Stumpf die FP32 Leistung der 70er Serie geteilt durch die FP32 Leistung des Single GPU Flaggschiffs der Generation.
 
  • Gefällt mir
Reaktionen: Iscaran und Guitarluke
Mir geht es hier wie vielen Anderen auch. Wenn sich die Mehrleistung nur noch durch spezialisierte Softwarelösungen (welche natürlich NUR auf der neuen Generation laufen) realisieren lässt, bei welcher aber nicht sicher ist, wie diese in Zukunft von den Spieleherstellern angenommen und umgesetzt wird, dann ist das Ganze etwas nervig.

Beim Vergleich der GeForce RTX 5080 mit den beiden Modellen der Vorgängergeneration, der RTX 4080 Super und RTX 4080, fällt auf, dass das neue Modell in jedem Aspekt überlegen oder mindestens ebenbürtig ist.
Das haut mich jetzt etwas aus den Socken, wer hätte das gedacht... :D

Erinnert mich etwas an "Das neue iPhone ist das beste iPhone, was wir jemals gebaut haben!". ;)
 
  • Gefällt mir
Reaktionen: Jagdwurst, Desmopatrick und Apocalypse
Shoryuken94 schrieb:
Die 75 Watt von PCI Express fahren moderne Karten nicht Ansatzweise aus, da liegt man meistens bei maximal 30 Watt. Und eigentlich bietet PCI Express auch nur 66 Watt auf 12 Volt der Rest ist schon nur mit spezieller Konfiguration möglich.
Na dann sollte es doch für max. 330 Watt reichen ... ;)
 
@SweetOhm Und noch mal, dann reizt man die Spezifikationen aus, ohne Spielraum nach oben zu gehen. Und wir haben ja nun auch genug 3x8 Pin Karten der 9070XT gesehen. Ganz sicher nicht, weil die Hersteller unbedingt Kager voller 8 Pin Buchsen haben, die jetzt schnell weg müssen
 
CruellaDE schrieb:
Was ist denn der Unterschied zwischen 1x 12V-2x6 und 1x 12VHPWR ?
Caramelito schrieb:
Wie ist das nun beim Stromanschluss? ...
Bei den Verbindungskabeln hat sich nichts verändert. (Corsair)
In den Buchsen (GPU/Netzteil) wurden die Metallkontaktflächen aus Sicherheitsgründen etwas angepasst.
Auch "150 und 300 Watt werden anders signalisiert".

Bei einem älteren Netzteil mit 12VHPWR-Buchse (450 oder 600 W für GPU) vermute ich, dass man eine GPU mit 12V-2x6 anschließen darf, aber eben besonders auf korrekt sitzenden Stecker achten muss. Starke Biegung des Kabels sollte man weiterhin besonders nah am Stecker vermeiden.

Es darf sich aber gerne noch jemand anderes dazu äußern 🙃
Falls man ein 12VHPWR-Netzteil nicht verwenden darf, ist dies eventuell ein Umtauschgrund 🤷‍♂️
 
  • Gefällt mir
Reaktionen: CruellaDE
SweetOhm schrieb:
Denkanstoß : RTX 30 106´er Chip 3050 für 249 € vs. RTX40 106´er 4060Ti für 399 €
und da sind noch mehrere Beispiele. Aber finde den Fehler (selbst) ...
Wo ist das Problem? Du bekommst trotzdem nicht mehr/weniger Leistung. Die RTX4070 gibt es in der AD103 und 104 Variante. Die Basisleistung ist identisch.

Auch die 3050 gibt es mit GA107. Hat die gleichen Cores wie der GA106. Zuletzt gab es das für die GTX 950. Die GTX 1050 war 107-only, auch die Ti. Man kann kaputte Chips nämlich noch für die unteren Produkte verwenden. Vollaktivierter kleiner Chip vs. teildefekter grosser Chip.

Am Ende bezahlst du für die Gesamtleistung. Kann ein großer Chip sein, dafür niedriger Takt, gestutztes Speicherinterface, dafür wieder schneller Speicher. Alles egal.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Monaldinio schrieb:
Ferner habe ich gehofft das die 5070 die 4070 Super in der reihnen Rohleistung, ohne KI Featers, übertrifft. Wenn ich die Vergleichstabellen richtig verstanden habe ist das jedoch nicht der Fall.
Im Endeffekt alles richtig gemacht???

Wird man erst nacht unabhängigen Tests wissen. Denn die reinen technischen Daten sagen noch nichts darüber aus, wie die tatsächliche performance in Spielen ist. Wir wissen bisher nicht, ob und falls ja wie vielstärker die IPC der Grafikkerne ist, wir wissen das reale Taktverhalten nicht etc. Das wird sich alles erst in Tests zeigen
 
  • Gefällt mir
Reaktionen: Monaldinio
@Frank
Danke für die Tabellen, eine zusätzliche Spalte mit der prozentualen Änderung wäre vielleicht auch noch interessant 🙂 ...

GeForce RTX 5090 vs. RTX 4090
ModellGeForce RTX 5090GeForce RTX 4090Änderung
ArchitekturBlackwellAda Lovelace
GPUGB202*AD102
CUs aktiv (Chip)170 (192*)128 (144)+32,8% (+33,3%)
aktive Shader21.76016.384+32,8%
Taktraten Boost/Basis2.410/2.010 MHz2.520/2.230 MHz-4,4%/-9,9%
FP32-ALUs104,9 TFLOPS82,6 TFLOPS+27,0%
Speicher32 GB GDDR724 GB GDDR6X+33,3%
Speicher-Interface512 Bit384 Bit+33,3%
Speicherdurchsatz28 Gbps21 Gbps+33,3%
Bandbreite1.792 GB/s1.008 GB/s+77,8%
PCI Express5.0 x164.0 ×16(+100%)
TDP575 W450 W+27,8%
Founders EditionJaJa
2 Slot3 Slot-33,3%
Stromanschluss1x 12V-2x6 (600 Watt)1x 12VHPWR (600 Watt)
I/O3× DisplayPort 2.1b
1× HDMI 2.1
3× DisplayPort 1.4a
1× HDMI 2.1
(DP +208,6%)
DLSSDLSS 4DLSS 3.5
AI TOPS3.3521.321+153,7%
UVP (inkl. MwSt.)2.329 Euro1.949 Euro+19,5%
* unbestätigt
 
Ich fand das ganze sehr überschaubar.
Mal sehen was AMD bringen wird.
Hatte aber von Nvidia tatsächlich mehr Leistung erhofft und nicht nur durch DLSS.
 
phanter schrieb:
Die Linienabwertung gibts schon länger. Ist nur eine Frage wie weit du zurück gehen willst:

Mit 29.5% ist ein neuer Tiefststand erreicht. Zum Vergleich in der 500er GTX Serie wärst du mit 29.5% des Flaggschiffs bei einer GTX 550 Ti gelandet
Bitte beachten, dass es vor der 3090 keine 90er Serie gab.
Daher musst du es entweder mit 4080 5080 berechnen oder mit 2060 und co vergleichen.
 
Bright0001 schrieb:
Bei einer Gehaltsverhandlung fordert ihr doch auch immer so viel, wie ihr fordern könnt, oder nicht?

Das ist keine gute Taktik, erstnal normal, dann nach 2-3 Jahren voll rein.
 
Zurück
Oben