News Nvidia RTX 5000 vs. RTX 4000: Die technischen Daten der Grafikkarten im Vergleich

Woody17 schrieb:
Bitte beachten, dass es vor der 3090 keine 90er Serie gab.
Daher musst du es entweder mit 4080 5080 berechnen oder mit 2060 und co vergleichen.
Da hat das Marketing ja voll zugeschlagen. Ist völlig egal wie man das Flagschiff nennt. Flagschiff ist Flagschiff.

Und wenn du dich an Namen aufhängen willst

GTX 480 - x0 chip
GTX 580 - x0 chip
GTX 680 - x4 chip (eigentlich die midrange GPU, gab demanch nie eine echte 80er Serie)
GTX 780 TI - x0 chip, (GTX 780 x4 chip, also eigentlich der midrange chip)
GTX 980 Ti - x0 chip, (GTX 980 x4 chip, also eigentlich der midrange chip)
GTX 1080 Ti - x2 chip (also gar keine eigentliche 80er Serie existent)
RTX 2080 Ti - x2 chip (also gar keine eigentliche 80er Serie existent)
RTX 3090 Ti - x2 chip (also gar keine eigentliche 80er Serie existent)
RTX 4090 - x2 chip (also gar keine eigentliche 80er Serie existent)
RTX 5090 - x2 chip (also gar keine eigentliche 80er Serie existent)

Das lustige ist die RTX 5070 basiert auf dem teildeaktivierten x5 chip

damals war die GTX 560 der teildeaktivierte x4 chip, und die GTX 550 Ti der vollausbau x6 chip
Abseits des Marketings stimmen also Nvidias Bezeichnungen noch
 
  • Gefällt mir
Reaktionen: eXe777
phanter schrieb:
Da hat das Marketing ja voll zugeschlagen. Ist völlig egal wie man das Flagschiff nennt. Flagschiff ist Flagschiff.

Und wenn du dich an Namen aufhängen willst
Will ich ja auch gar, das machst du ja mit deinem hinkenden xx70 Vergleich.

Es war eigentlich schon immer ratsam, sich die Spezifikationen im Detail anzuschauen und nicht nach dem Motto, ich kaufe immer die 70er Karte, die ist xx% vom Topmodell zu kaufen.

Die Namen ändern sich, es gab plötzlich eine Ti, dann kam eine XX90 und die Ti wurde nur noch zum milden Upgrade etc.

In den unteren Leistungsklassen kommt es ja sogar vor, dass einem noch die Vorgängergeneration unter neuem Namen verkauft wird.

Bei Blackwell macht es ja irgendwie auch wenig Sinn, nahezu zeitgleich zur 5080 auch schon die 5070ti zu bringen, da technisch sehr ähnlich.

Wer da nicht mehr durchsieht, hat im Zweifel halt pech gehabt.
 
phanter schrieb:
Die Linienabwertung gibts schon länger. Ist nur eine Frage wie weit du zurück gehen willst:
Vielen Dank dafür. :-)

phanter schrieb:
Da hat das Marketing ja voll zugeschlagen. Ist völlig egal wie man das Flagschiff nennt. Flagschiff ist Flagschiff.
Wobei man ja sagen muss, dass der Big Chip meist auch in einer noch größeren Konsumenten Variante in Form der vielen Titans (Titan, Titan Black, ... bis zur T-REX) gab.

phanter schrieb:
damals war die GTX 560 der teildeaktivierte x4 chip, und die GTX 550 Ti der vollausbau x6 chip
Wobei man auch sagen muss, die 3000ter Gen war auch ein komisches Ding. Mit der 3060ti, die den x4 Chip bekam. Was ja in den 10er, 20er und 40er Generation den "höheren" Karten vorbehalten war.
 
Apocalypse schrieb:
Kirche im Dorf lassen, eine 60er kommt ja auch noch von AMD und RDNA2 und auch RDNA3 hatten ja auch ihre günstigeren mittelklasse Karten.
Betreffend RX 7xxx günstiger ja, attraktiv mMn nicht, da praktisch Stillstand ggü. der Vorgänger Gen. Die RX 7600 (XT) ist gerade mal 8% bzw. 17% schneller als die 6650 XT.

Zw. 7700 XT und 6700 XT liegen auch nur 23%. Und das für 10€ mehr. Mehr fps/€ gabs also nicht wirklich.

Wenn das für die neue Gen auch so eintreffen sollte, muss man für ein richtiges Upgrade eine Stufe höher ins Regal greifen und deutlich mehr Geld investieren.

So wie es leider auch bei der grünen „Mittelklasse“ der Fall ist.
 
modena.ch schrieb:
Der 12V 2X6 ist der " verbesserte Nachfolger" des 12V HPWR Mülls,
aber immer noch Müll.
Da hast du recht. Wie man so viel Leistung über solch dünne Pins rüberbringen kann, ich echt ein Rätsel. Der Bauer hat ja hierzu mal gesagt, das die Sicherheitsreserve bei den alten Steckern um den Faktor 9 war, bei den neuen Stecker bei um die 1,9. 😳 Daran sieht man wie sehr das auf Kante genäht ist und schon mehrfaches ein und ausstecken die Übergangswiderstände an den Pins signifikant erhöhen kann und damit dann verschmorende Stecker die Folge sind. Etwas was es bei den alten Steckern so gut wie nie gab. Man hat doch an den Grafikkarten weiß Gott genug Platz um vernünftig dimensionierte Steckverbindungen zu realisieren. Da braucht es doch so einen Blödsinn nicht. Mir unverständlich 🤔

Ich hatte ja an meiner 4090 auch schon oft den Stecker abgenommen und wieder angesteckt (neues Netzteil, Board,neues gewinkeltes Kabel usw) und bei mir scheint noch alles gut zu sein. Dennoch bleibt ein ungutes Gefühl bei jeder Demontage des Kabels.
Ergänzung ()

piccolo85 schrieb:
Wenn der Abstand zu klein ist wird auch gemault (siehe 3090). Eigentlich wird sowieso immer nur gemotzt.

Ich denke man kann froh sein, dass NVIDIA sich überhaupt noch Gaming GPUs antut, zuletzt hat man damit nicht mal mehr 10% des Unsatzes generiert und die Margen sind im Vergleich zu Datacenter schäbig.
Ja, NVIDIA kann einem echt nur Leid tun und ist ein echter Wohltäter für die Gaming Community 😉 😂
 
Zuletzt bearbeitet:
Eigentlich "reicht" mir meine 4090. Das gilt für 4K. Allerdings habe ich ein Auge auf die neuen 5K2K Widescreen-OLEDs geworfen. Da kommt man wohl ohne die Multiframe Generation der Blackwell-Karten nicht an die gewünschten Frameraten.
 
@Digitalsurfer Mit der Hardware solltest du auch mal ein Auge auf PCVR werfen, das ist dann "WidestScreen" und 3D ;-)

Leider bringt dort Frame Generation schon auf der 40er nichts, weil es nicht läuft.

Da hilft nur Rohleistung.
 
CruellaDE schrieb:
Was ist denn der Unterschied zwischen
1x 12V-2x6 und 1x 12VHPWR ?
12VHPWR war der Stecker der mit der 40er Serie eingeführt wurde.

12V-2x6 ist die neuere Version davon bei der man die Pins verkürzt hat.

Hintergrund war, das der 12VHPWR selbst wenn er nicht komplett verbunden war Strom ziehen konnte und dadurch die ein oder andere Karte verschmort ist. Das sollte/hat der neue Anschluss behoben, weil die kürzeren Abtaststifte in so einem Szenario erkennen, dass das Kabel nicht vollständig verbunden ist.

12V-2x6 ist mit 12VHPWR kompatibel. Wenn du also noch ein Kabel des alten Standards hast kannst du es auch mit ner neuen Karte verwenden.
 
  • Gefällt mir
Reaktionen: CruellaDE
Feierbiest schrieb:
Wenn du also noch ein Kabel des alten Standards hast kannst du es auch mit ner neuen Karte verwenden.
Ne , mein Netzteil (Fractal Ion+ 2) hat leider beides nicht. Aber dann besorg ich mir ein entsprechendes Kabel mit 1x 12V-2x6 und 2x PCIe 8pin. Wenn das der aktuellste Standard ist 🙂
 
MasterXTC schrieb:
Da hast du recht. Wie man so viel Leistung über solch dünne Pins rüberbringen kann, ich echt ein Rätsel.

Wenn die Leitung kurz genug ist, reicht auch ein geringer Querschnitt aus.

Für mich ist immer das Beispiel der KFZ Sicherungen recht anschaulich.
Da werden auch z.b. 60A über ein einzelnes dünnes Drahtstückchen geleitet, da es relativ kurz ist reicht das aus.
 
https://www.computerbase.de/news/gr...70-beherrschte-directx-11-fuer-79-euro.90983/

80 € * 15 Jahre * 3% Inflation => 120 €

Wo sind heutzutage die GPUs für 120 € (und einer relativen Leistungsstufe in Höhe einer 5670????)

Selbst wenn ich mal "Großzügig" den Absolutwert nochmal verdoppele...wo sind die "Mainstream" GPUs für 250 €.

Wen interessiert eigentlich ob eine 5090 nun noch fetter und schneller ist als eine 4090...

Das Launchangebot 2025 ist sowas von enttäuschend .... dann wohl eher kein GPU-Umrüstung. Das bedienen der Schieberegler der Game-Settings wird halt wieder wichtig.
 
DefconDev schrieb:
Ich kann mich sehr gut an Zeiten erinnern, als ein gewöhnlicher Computer mit Drucker 3000DM gekostet hat. An Zeiten, an denen einen 5GB HDD 500 DM gekostet hat. An Zeiten an dem jedes Jahr eine neue Grafikkarten Gen kam die bedeutende Sprünge gemacht hat und man wirklich Probleme hatte die aktuellen Spiele in Auflösungen zu spielen weit unter Full HD.

Wenn ich Paintball als Hobby zum Vergleich ziehe oder einen simples Fitnesstudio für 40 Euro pro Monat, dann ist Gaming nicht wirklich ein teures Hobby.
Ich verstehe nicht, warum immer solche Vergleiche herhalten müssen. Der Produktionsprozess ist ein ganz anderer. Heute ist Masse statt Klasse angesagt. Wir reden da von ganz anderen Stückzahlen u. Rabatten im Einkauf.

Klar, es ist reine Marktwirtschaft. Nvidia reibt sich die Hände, Kleinvieh macht auch Mist. Die verdienen sich mit KI dumm und dämlich, und greifen nebenher den Consumer Bereich mit ab. Inflation hin oder her. In der Produktion gab es die letzten Jahre massive Kostensenkungen und man hat einfach die Chipklasse umgelabelt. Kann man sehr gut nachvollziehen, wenn man sich die Beschaffenheit einzelner Chips einer Klasse -insbesondere midrange - über die Jahre anschaut (die xx60 ist eigentlich eine xx50 usw.).

Für den Speicher-Geiz kann nur Nvidia was. Eine RTX 3060 hatte 12GB, kam aber zum Mining-Boom raus und war nahezu unbezahlbar. Danach kam dann eine RTX 3060 mit nur 8GB - als Vorreiter und Testgegner für die 4060, also alles gut geplant. Aber so lange gekauft wird, ist ja alles bestens. Dann wird eben bei einer neuen (!) Karte der Textur-Regler bedient. Das würde für mich nicht in Betracht kommen. Texturqualität kostet keine Leistung. Wenn ich mit verwaschenen Texturen spielen will, greife zu alten Spielen von vor 20 Jahren.

Das Nvidia Marketing reicht aus, um viele Kunden zu überzeugen. Klingt ja alles sehr vielversprechend. Was die Karten kosten, wird dann nebensächlich. Merkt man leider immer wieder in Foren, wenn 4090er Besitzer auf die 5090er warten. Läuft...
 
@FrankN84
Worauf willst du jetzt hinaus?

Der Vergleich ist absolut legitim von mir. Früher, in den 90er war Gaming als Hobby sehr teuer im Vergleich zu heute, selbst wenn es jetzt Grafikkarten für 2300 Euro gibt.

Auch wenn die Entwicklung derzeit eher wieder in die Richtung geht, dass es wieder teurer wird, ist es trotzdem bedeutend günstiger als in den 90er oder Anfang der 2000er.

Und wenn ich mir anschaue, was mit einer 1080 ti heute noch möglich ist, dann ist Gaming ein sehr günstiges Hobby im Vergleich zu vielen anderen Hobbies. Wenn man natürlich den Anspruch hat, immer am Limit die Grafik zu setzen, dann ist Gaming natürlich nicht günstig. Aber das ist ein absolutes Luxus Problem. Und im Zweifel kann man sich auch eine Konsole kaufen und viele Spiele mitnehmen.

Mir ging es lediglich um die Aussage, dass Gaming im Vergleich zu früher wie auch zu anderen Hobbies, sehr günstig ist. Ich wollte damit nicht die Kosten rechtfertigen die NV aufruft aber auch andere Hersteller.
 
  • Gefällt mir
Reaktionen: Apocalypse und LeckerRK
RTX 5090 wird schneller sein als die RTX 4090 da sie 8 GB mehr Videospeicher hat.Das fehlerhaftes PCIe 5.0 als Videospeicher benutzt wird wo es nicht einen Ram gibt der PCIe 5.0 Optimal ohne Fehler benutzt wird garantiert die Geschwindigkeit mindern.DLSS 4,0 gibt es nur auf der 5000 RTX Serie was für neue Spiele wahrscheinlich zwingend erforderlich wird.Wenn Microsoft mit Nvidia zusammen arbeitet wird es auch DirectX 12.5 Ultimate DLSS 4.0 geben was nur auf den RTX 5000 Serien Grafikkarten funktioniert.Wie Nvidia das mit dem Videospeicher 32 GB auf der RTX 5090 auf PCIe 5.0 geregelt hat werden die Test zeigen ob damit überhaupt mehr Geschwindigkeit raus kommt.
 
LeckerRK schrieb:
RTX 5090 wird schneller sein als die RTX 4090 da sie 8 GB mehr Videospeicher hat.
LeckerRK schrieb:
Wie Nvidia das mit dem Videospeicher 32 GB auf der RTX 5090 auf PCIe 5.0 geregelt hat werden die Test zeigen ob damit überhaupt mehr Geschwindigkeit raus kommt.
Ja was denn nun?! Wird schneller sein wegen dem Videospeicher, aber ob sie wegen dem Videospeicher schneller sein wird, muss sich erst zeigen? 🤷‍♂️ 😁
 
Iscaran schrieb:
Wo sind heutzutage die GPUs für 120 € (und einer relativen Leistungsstufe in Höhe einer 5670????)
In der APU schon gleich mit verbaut. Da sind sie.
Ergänzung ()

Iscaran schrieb:
elbst wenn ich mal "Großzügig" den Absolutwert nochmal verdoppele...wo sind die "Mainstream" GPUs für 250 €.
Die gibt es in Form von 4060 und RX7600. Sind halt teurer geworden und kosten 275 bzw 300€, liefern auch mehr als ausreichend Gaming Performance für niedrigere Auflösungen und niedrigere Details. Die RX6600 gibt es auch noch am Markt.
 
  • Gefällt mir
Reaktionen: Sherman789, Guitarluke und Outsource0326
Apocalypse schrieb:
Die gibt es in Form von 4060 und RX7600. Sind halt teurer geworden und kosten 275 bzw 300€, liefern auch mehr als ausreichend Gaming Performance für niedrigere Auflösungen und niedrigere Details. Die RX6600 gibt es auch noch am Markt.
Ja natürlich gibt es die. Gibt ja auch Karten für 1000 € und mehr.

Nur die "relative Leistung" der 120 € Karten (Inflationsbereinigt 80€) von damals kostet heute halt >+x2-x3 mal soviel wie früher.

DAS ist der springende Punkt. Seit den späten 90er frühen 00er Jahren war "Gaming"-Hardware nicht mehr so teuer wie heute.
 
M@tze schrieb:
Ja was denn nun?! Wird schneller sein wegen dem Videospeicher, aber ob sie wegen dem Videospeicher schneller sein wird, muss sich erst zeigen? 🤷‍♂️ 😁
2 Faktoren daher den Test abwarten,32 GB Videospeicher und PCIe 5.0
 
Intel gib gas ich warte auf ne B770
 
Zurück
Oben