News Nvidia RTX 5000 vs. RTX 4000: Die technischen Daten der Grafikkarten im Vergleich

Woody17 schrieb:
Bitte beachten, dass es vor der 3090 keine 90er Serie gab.
Daher musst du es entweder mit 4080 5080 berechnen oder mit 2060 und co vergleichen.
Da hat das Marketing ja voll zugeschlagen. Ist völlig egal wie man das Flagschiff nennt. Flagschiff ist Flagschiff.

Und wenn du dich an Namen aufhängen willst

GTX 480 - x0 chip
GTX 580 - x0 chip
GTX 680 - x4 chip (eigentlich die midrange GPU, gab demanch nie eine echte 80er Serie)
GTX 780 TI - x0 chip, (GTX 780 x4 chip, also eigentlich der midrange chip)
GTX 980 Ti - x0 chip, (GTX 980 x4 chip, also eigentlich der midrange chip)
GTX 1080 Ti - x2 chip (also gar keine eigentliche 80er Serie existent)
RTX 2080 Ti - x2 chip (also gar keine eigentliche 80er Serie existent)
RTX 3090 Ti - x2 chip (also gar keine eigentliche 80er Serie existent)
RTX 4090 - x2 chip (also gar keine eigentliche 80er Serie existent)
RTX 5090 - x2 chip (also gar keine eigentliche 80er Serie existent)

Das lustige ist die RTX 5070 basiert auf dem teildeaktivierten x5 chip

damals war die GTX 560 der teildeaktivierte x4 chip, und die GTX 550 Ti der vollausbau x6 chip
Abseits des Marketings stimmen also Nvidias Bezeichnungen noch
 
phanter schrieb:
Da hat das Marketing ja voll zugeschlagen. Ist völlig egal wie man das Flagschiff nennt. Flagschiff ist Flagschiff.

Und wenn du dich an Namen aufhängen willst
Will ich ja auch gar, das machst du ja mit deinem hinkenden xx70 Vergleich.

Es war eigentlich schon immer ratsam, sich die Spezifikationen im Detail anzuschauen und nicht nach dem Motto, ich kaufe immer die 70er Karte, die ist xx% vom Topmodell zu kaufen.

Die Namen ändern sich, es gab plötzlich eine Ti, dann kam eine XX90 und die Ti wurde nur noch zum milden Upgrade etc.

In den unteren Leistungsklassen kommt es ja sogar vor, dass einem noch die Vorgängergeneration unter neuem Namen verkauft wird.

Bei Blackwell macht es ja irgendwie auch wenig Sinn, nahezu zeitgleich zur 5080 auch schon die 5070ti zu bringen, da technisch sehr ähnlich.

Wer da nicht mehr durchsieht, hat im Zweifel halt pech gehabt.
 
phanter schrieb:
Die Linienabwertung gibts schon länger. Ist nur eine Frage wie weit du zurück gehen willst:
Vielen Dank dafür. :-)

phanter schrieb:
Da hat das Marketing ja voll zugeschlagen. Ist völlig egal wie man das Flagschiff nennt. Flagschiff ist Flagschiff.
Wobei man ja sagen muss, dass der Big Chip meist auch in einer noch größeren Konsumenten Variante in Form der vielen Titans (Titan, Titan Black, ... bis zur T-REX) gab.

phanter schrieb:
damals war die GTX 560 der teildeaktivierte x4 chip, und die GTX 550 Ti der vollausbau x6 chip
Wobei man auch sagen muss, die 3000ter Gen war auch ein komisches Ding. Mit der 3060ti, die den x4 Chip bekam. Was ja in den 10er, 20er und 40er Generation den "höheren" Karten vorbehalten war.
 
Apocalypse schrieb:
Kirche im Dorf lassen, eine 60er kommt ja auch noch von AMD und RDNA2 und auch RDNA3 hatten ja auch ihre günstigeren mittelklasse Karten.
Betreffend RX 7xxx günstiger ja, attraktiv mMn nicht, da praktisch Stillstand ggü. der Vorgänger Gen. Die RX 7600 (XT) ist gerade mal 8% bzw. 17% schneller als die 6650 XT.

Zw. 7700 XT und 6700 XT liegen auch nur 23%. Und das für 10€ mehr. Mehr fps/€ gabs also nicht wirklich.

Wenn das für die neue Gen auch so eintreffen sollte, muss man für ein richtiges Upgrade eine Stufe höher ins Regal greifen und deutlich mehr Geld investieren.

So wie es leider auch bei der grünen „Mittelklasse“ der Fall ist.
 
modena.ch schrieb:
Der 12V 2X6 ist der " verbesserte Nachfolger" des 12V HPWR Mülls,
aber immer noch Müll.
Da hast du recht. Wie man so viel Leistung über solch dünne Pins rüberbringen kann, ich echt ein Rätsel. Der Bauer hat ja hierzu mal gesagt, das die Sicherheitsreserve bei den alten Steckern um den Faktor 9 war, bei den neuen Stecker bei um die 1,9. 😳 Daran sieht man wie sehr das auf Kante genäht ist und schon mehrfaches ein und ausstecken die Übergangswiderstände an den Pins signifikant erhöhen kann und damit dann verschmorende Stecker die Folge sind. Etwas was es bei den alten Steckern so gut wie nie gab. Man hat doch an den Grafikkarten weiß Gott genug Platz um vernünftig dimensionierte Steckverbindungen zu realisieren. Da braucht es doch so einen Blödsinn nicht. Mir unverständlich 🤔

Ich hatte ja an meiner 4090 auch schon oft den Stecker abgenommen und wieder angesteckt (neues Netzteil, Board,neues gewinkeltes Kabel usw) und bei mir scheint noch alles gut zu sein. Dennoch bleibt ein ungutes Gefühl bei jeder Demontage des Kabels.
Ergänzung ()

piccolo85 schrieb:
Wenn der Abstand zu klein ist wird auch gemault (siehe 3090). Eigentlich wird sowieso immer nur gemotzt.

Ich denke man kann froh sein, dass NVIDIA sich überhaupt noch Gaming GPUs antut, zuletzt hat man damit nicht mal mehr 10% des Unsatzes generiert und die Margen sind im Vergleich zu Datacenter schäbig.
Ja, NVIDIA kann einem echt nur Leid tun und ist ein echter Wohltäter für die Gaming Community 😉 😂
 
Zuletzt bearbeitet:
Zurück
Oben