News Wochenrück- und Ausblick: Intel is back! Und Nvidias GeForce RTX 5000 kommt.

Laphonso schrieb:
Ich verstehe da Nvidia nicht als Gamer. Sollte sich die 5090 wirklich sooooo weit absetzen von der 5080 wie es die specs suggerieren, kannibaliseren die 5080 die 5090 doch noch weniger als das die 4080 bei der 4090 taten.
Also kann Nvidia die mit 24 GB VRAM ausliefern, die 5090 wird dennoch viel schneller sein in den fps.
Da gibt es nicht viel zu verstehen. Für 24 GB am 256-bit-Speichercontroller benötigt man 3GB Speicherchips. Diese 3GB großen Speicherchips von GDDR7 sind wohl erst später nach den 2 GB großen Speicherchips verfügbar. Also kann Nvidia auch nur später die 24 GB Version bringen, vermutlich also erst ein Jahr später nach der 5080 16GB. Bis zur Verfügbarkeit der 3GB Speicherchips wäre nur per Doppelbestückung 32 GB am 256-bit Speicherinterface möglich, aber das ist teurer und wohl auch nicht gewollt, weil dann die 5080 genau so viel Speicher hätte wie die 5090.

Das Problem ist aber nicht Nvidia/die Technik, sondern die Preise und die hängen mit der schwachen Konkurrenz zusammen. Hätte AMD eine RX 8800 XT, die günstig ist und die die RTX 5080 schlägt, dann wäre die RTX 5080 auch preislich da, wo man eine 16GB Karte erwartet hätte. Dann wäre NVidia auch gezwungen eine RTX 5080 TI mit größerem Chip und 24 GB zu bringen, so aber wartet man einfach ein Jahr auf die Verfügbarkeit der 3GB-Chips.
 
Convert schrieb:
Da gibt es nicht viel zu verstehen. Für 24 GB am 256-bit-Speichercontroller benötigt man 3GB Speicherchips.
Wirklich verzwickte Sache, wo hätte ein Designer von Grafikchips nur Änderungen hernehmen sollen am eigen designten Silicon, damit es eben keinen läppischen VRAM gibt... 🤔
Das Rätsel wird man wohl nie lösen können.


Total unabhängig davon: ich hatte letzt eine alte Geforce mit einem 394 bit Speichercontroller in der Hand. Weiß leider nicht mehr, welche GPU das war. Muss sicherlich schon 15 Jahre oder so aufm Buckel gehabt haben.
 
tomgit schrieb:
Total unabhängig davon: ich hatte letzt eine alte Geforce mit einem 394 bit Speichercontroller in der Hand. Weiß leider nicht mehr, welche GPU das war. Muss sicherlich schon 15 Jahre oder so aufm Buckel gehabt haben.
Die 8800 GTX/Ultra hatte, wenn ich das richtig rekonstruiert habe, ein 384 Bit-Speicherinterface.

Das wäre jetzt auch der Punkt, wo ich sagen würde: wenn Nvidia wollte, könnten sie schon ein 320 Bit-Interface für die 5080 verwenden. Aber durch mangelnde Konkurrenz besteht natürlich auch kein echter Druck das zu tun.

Abgesehen davon haben wir ja bisher auch nur Gerüchte. Insofern erstmal abwarten, was dann wirklich "auf den Tisch" kommt.
 
  • Gefällt mir
Reaktionen: SweetOhm und tomgit
RogueSix schrieb:
Gerade wegen der Hochpreisigkeit des Produkts ist es mehr als nachvollziehbar, dass hier frühzeitig die Produktion gedrosselt wird, um dem "Channel" die Gelegenheit zum Abverkauf zu geben.
Abverkauf bedeutet ja in der Regel eine Rabattaktion, denn wer will sonst das alte schlechtere Produkt noch immer zur 2-3 Jahre alten UVP kaufen?
Leider hat auch Nvidia diesen "Fehler" in der Produktstrategie schon vor vielen Jahren erkannt und lässt eine Generation frühzeitig auslaufen = verknappen damit eben nicht die Preise sinken.

Die letzte Nvidia Karte die rabattiert angeboten wurde, war die 980Ti.

schneeland schrieb:
Das wäre jetzt auch der Punkt, wo ich sagen würde: wenn Nvidia wollte, könnten sie schon ein 320 Bit-Interface für die 5080 verwenden.
Da AMD mit Radeon 8000 nur eine Lückenfüller Midrange Generation bringt und man nach aktueller Gerüchtelage davon ausgeht, dass die nicht schneller wird als 7900XT, XTX und RTX4080, hat das für Nvidia bedeutet die RTX5000 mindestens ein halbes Jahr verzögern zu können und vermutlich ist nur die 5070 so schlecht, dass sie von AMD Konkurrenz hat und demnach "fair" bepreist werden muss.
5080 und 5090 sind außerhalb der Konkurrenz und dürfen kosten was sie wollen.
 
  • Gefällt mir
Reaktionen: SweetOhm
tomgit schrieb:
Wirklich verzwickte Sache, wo hätte ein Designer von Grafikchips nur Änderungen hernehmen sollen am eigen designten Silicon, damit es eben keinen läppischen VRAM gibt... 🤔
Ein breiteres Speicherinterface, als die Grafikkarte dank schnellem GDDR7 wirklich braucht, wäre weder Energieeffizient noch Kosteneffizient. Da ist die Lösung von Nvidia schon die schlauere, einfach 3GB-Speicherchips zu verwenden, sobald es die eben gibt.

tomgit schrieb:
Total unabhängig davon: ich hatte letzt eine alte Geforce mit einem 394 bit Speichercontroller in der Hand. Weiß leider nicht mehr, welche GPU das war. Muss sicherlich schon 15 Jahre oder so aufm Buckel gehabt haben.
Der Chip auf der 5080 braucht dank schnellerem GDDR7, den es vor 15 Jahr nicht gab, eben kein Stromhungriges und Chipflächenfressendes 394 bit Speichercontroller. Wie ich schon sagte, Nvidia wäre technisch in der Lage eine Grafikkarte mit 24 GB auch ohne 3GB-Speicherchips zu bringen. Dafür müssten die einfach den Chip von der RTX 5090 auf 394 bit beschneiden und schon hätten die eine RTX 5080 TI mit 24 GB. Das diese Grafikkarte nicht kommt, liegt nicht an der Technik, sondern an der mangelnden Konkurrenz.
 
Na dann kann ich ja bald meine 2300 € teure 4090 verkaufen und zur 5090 für 3000 € wechseln :D
 
  • Gefällt mir
Reaktionen: [SM]Valen
Convert schrieb:
Ein breiteres Speicherinterface, als die Grafikkarte dank schnellem GDDR7 wirklich braucht, wäre weder Energieeffizient noch Kosteneffizient.

Totschlagargument bei 400+ Watt Karten im vierstelligen Bereich…
 
  • Gefällt mir
Reaktionen: blackiwid und SweetOhm
16 GB für eine 5080 wäre echt nicht viel.

Gab es aber nicht mal das Gerücht, dass neben GDDR7 noch ein zusätzlicher Speicher wie bei einer PS5 unterstützen soll?

Aber langsam bekommt man wirklich das Gefühl, dass alle Hersteller nur noch bei der Performance in Form von Arbeitsspeicher bremsen. Win 11 Notebooks gibt es weiterhin mit 4 GB und/oder eMMC. Apple ist der Meinung, dass deren Systeme mit nur 8 GB bei RAM-lastigen Arbeiten schneller als Win 11 PCs mit 16 GB sind.
 
Convert schrieb:
Dafür müssten die einfach den Chip von der RTX 5090 auf 394 bit beschneiden und schon hätten die eine RTX 5080 TI mit 24 GB. Das diese Grafikkarte nicht kommt, liegt nicht an der Technik, sondern an der mangelnden Konkurrenz.

Die RTX 5080Ti wird trotz Konkurrenzmangels schon noch kommen. Je nach Anzahl der teildefekten GB202, aus denen man keine RTX 5090 mehr machen kann, entweder etwas früher oder etwas später... ich würde grob mit Ende Q3 oder Q4/2025 rechnen.
 
Naja, wie "Back to Intel" die Crowd ist wird sich noch zeigen.
Ich denke auch die neuen CPU's sowie die alten von Intel werden den Ryzen CPU's letztendlich nicht das Wasser reichen können wenn es um bestimmte Richtwerte geht.

Aber ja, Preise spielen ja auch eine Rolle
 
tomgit schrieb:
Totschlagargument bei 400+ Watt Karten
Angabe Watt steht für Verbrauch, ich sprach von Effizienz. Verbrauch != Effizienz. Effizienz ist tatsächlich ein Argument. Kein "Totschlagsargument" aber ein wichtiges Argument.

tomgit schrieb:
im vierstelligen Bereich…
Preise legt das Marketing aufgrund der Marktgegebenheiten fest. Ingenieure sind für ein kosteneffizientes Design zuständig. Du hast am Design gemeckelt. Das Design ist aber nicht das Problem, sondern offensichtlich der erwartete Preis, aber dann musst du auch über den Preis meckern, aber nicht über das Design.
Ergänzung ()

RogueSix schrieb:
Die RTX 5080Ti wird trotz Konkurrenzmangels schon noch kommen. Je nach Anzahl der teildefekten GB202, aus denen man keine RTX 5090 mehr machen kann, entweder etwas früher oder etwas später...
Was wurde eigentlich aus den teildefekten AD102-Chips gemacht?

Edit: Habs gefunden. Aus den teildefekten AD102-Chips wurde eine RTX 4070 TI Super:

https://www.computerbase.de/news/gr...54-prozent-stillgelegter-gpu-gesichtet.88684/

Wie man sieht, beweist Nvidia Kreativität. Wenn sie ein Modell nicht bringen wollen, wird der Chip einfach noch weiter beschnitten...
 
Zuletzt bearbeitet:
Convert schrieb:
Was wurde eigentlich aus den teildefekten AD102-Chips gemacht?

Der AD 102 wurde ja in vielfältiger Weise verwurstet , wobei die RTX 4080Ti nie kam, aber ich denke die hätte auch nicht mehr ins Portfolio gepasst.
Bei der RTX 5000er Serie sieht das, falls die Gerüchte zutreffen sollten, schon anders aus. Da ist ja Platz ohne Ende zwischen der mutmaßlichen Performance der RTX 5080 vs. der RTX 5090.

Aber das wird man eventuell mal abwarten müssen. Vielleicht verkauft sich die RTX 5090 auch wieder so gut, dass nVidia bis zum Super-Refresh, den ich erst in 2026 erwarten würde, keinerlei Notwendigkeit zur Einführung eines Zwischenprodukts sehen und die teildefekten GB202 werden einfach u.a. für die 5090er China-Variante verwurstet,
 
  • Gefällt mir
Reaktionen: Convert
RogueSix schrieb:
Die RTX 5080Ti wird trotz Konkurrenzmangels schon noch kommen.
Warum? Eine 4080Ti mit bspw. 320bit kam ebenso wenig wie eine 4090Ti mit AD102 Vollausbau.
 
@ruthi91

Richtig. Aber dieses Mal sind das im Gegensatz zur 4000er Generation ja schon andere Dimensionen. Zwischen 256-bit und 512-bit steht das Tor extrem weit offen. Dazu die beachtliche Differenz bei den Cores und beim VRAM. Das schreit ja geradezu nach einer "Ti".

Aber wie ich später in Beitrag #32 eingeräumt habe, kann das natürlich von den 5090 Sales abhängen. Wenn die weggehen wie warme Semmeln, dann wird nVidia da vermutlich nix machen und es so lange wie möglich laufen lassen, weil warum sich selbst Konkurrenz machen und die 5090 Sales kannibalisieren?
Wenn die RTX 5090 dagegen schlechter läuft als erwartet, dann könnte nVidia -statt mit einer Preissenkung der RTX 5090 zu reagieren- eine RTX 5080Ti einfügen und entsprechend vermarkten.

Eigentlich recht clever von nVidia. Zum Launch wird es von der Enthusiasten-Seite her Upselling-Effekte geben und sie können erst mal in Ruhe schauen, wie der Markt sich so entwickelt.
Bei Bedarf klafft zwischen RTX 5080 und RTX 5090 eine Lücke, die zu einem späteren Zeitpunkt sogar mehrere Optionen wie eine Super und eine "Ti" zulässt oder natürlich auch einfach eine RTX 5080 Variante mit mehr VRAM.
 
  • Gefällt mir
Reaktionen: schneeland
RogueSix schrieb:
Naja, auch diesen "direkten" Kaufzwang gibt es nicht :) .

Wir sind mitten in der aktuellen console gen. Irgendwelche echten Wunder werden jetzt nicht passieren, dass die Anforderungen plötzlich explodieren (außer beschissen optimierten Ports, deren Hardwarehunger einzig und allein auf eben jenem Mangel an Optimierung beruht).

Und WENN die Gerüchte stimmen, dann lässt nVidia dermaßen viel Platz zwischen der RTX 5080 und der RTX 5090, dass ich es als gesichert ansehe, dass da Q3/Q4 2025 mindestens noch eine RTX 5080Ti kommen wird plus eventuell ein RTX 5080 Super-Refresh irgendwann... Mitte(?) 2026 o.ä.

Wie gesagt: Der Kunde hat die Wahl. Jeder ist seines Glückes eigener Schmied. nVidia bringt Produkte raus, die man gemäß dem Motto "take it or leave it" kaufen kann oder auch nicht.
Wer mit einer 16GB VRAM RTX 5080 meint, nicht glücklich zu werden, der soll es eben lassen und warten, ob da noch andere Produkte kommen oder eben bei der Konkurrenz kaufen. Ganz einfach.
Ergänzung ()



Welche "künstliche" Verknappung?

Die Produktion der 4090er wird nun runtergefahren, da die GPU demnächst komplett EOL ist. Das ist doch ein völlig normaler Vorgang.

Weder die Boardpartner noch der Handel möchten zum Launch der RTX 5090 und RTX 5080 auf tausenden von RTX 4090 sitzen bleiben.

Gerade wegen der Hochpreisigkeit des Produkts ist es mehr als nachvollziehbar, dass hier frühzeitig die Produktion gedrosselt wird, um dem "Channel" die Gelegenheit zum Abverkauf zu geben.

Palettenweise RTX 4090er abschreiben ginge nämlich richtig ins Geld...
Ach, die 4090 werden dann einfach umetikettiert in 5080 und werden so verkauft.
 
RogueSix schrieb:
Zwischen 256-bit und 512-bit steht das Tor extrem weit offen. Dazu die beachtliche Differenz bei den Cores und beim VRAM. Das schreit ja geradezu nach einer "Ti".
Ja das stimmt die Lücke ist extrem. In meinen Augen hätte die Karte es mit dem mickrigen Chip, Interface und Ram nicht verdient "80" genannt zu werden.
Die 3080 hatte noch ~85% der Shader einer 3090.
Mich wurmt auch der Feature-Lock für FrameGen an die die RTX4000 und neuer. AMD kann es global und auch für ältere Generationen. Ich weiß nicht ob Nvidia den älteren RTX nochmal was "gönnt", falls nicht dann wird meine nächste Karte wieder Radeon.
 
  • Gefällt mir
Reaktionen: schneeland und blackiwid
Convert schrieb:
Ein breiteres Speicherinterface, als die Grafikkarte dank schnellem GDDR7 wirklich braucht, wäre weder Energieeffizient noch Kosteneffizient. Da ist die Lösung von Nvidia schon die schlauere, einfach 3GB-Speicherchips zu verwenden, sobald es die eben gibt.
Was ist denn das für ein White Knighting, bei 4stelligen Preisen also Luxus / Wucherpreisen kann man doch nicht sagen das es gut ist das der Hersteller vernünftige Lösungen einsetzt wenn ich ne vernünftige Karte will kauf ich irgendwas zwischen 200-500 Euro.
Ich mein give me a break ne 4060 hat dann genau so viel ram wie ne 5080... entweder war das völliger Schwachsinn und ne 4060 profitiert nicht von 16gb oder ne 5-10x so schnelle 5080 ist halt hart am RAM limitiert.
RogueSix schrieb:
Naja, ich halte das in weiten Teilen für nicht wirklich zutreffend, dass 16GB VRAM irgendwo knapp werden könnten. In der ganz großen Mehrzahl von Spielen (99,x%) wird das auch bis zum Erscheinen der RTX 6080 noch ausreichen.
Mit dem selben Argument könntest auch sagen das die letzte Ryzen 9000 Generation geil ist für Anwendungen ist es deutlich schneller und Games ist es ja viel schneller als die aktuelle Konsolengeneration mit ihren lahmen Zen2 Prozessoren die ja auch nur lächerliche 8 Cores haben.

PC Spieler wollen mehr als 30 FPS oder auch nicht low graphic settings bei hübschen games >60fps im Performance mode... die wollen Ultra mode >60hz, das gibts bei Konsolen nicht durchgängig schon gar nicht bei 4k. Und hochwertige RT (einer der Hauptgründe den Nvidia Aufpreis zu zahlen speziell die >1000 Euro Modelle) wird so natürlich auch nicht auf Konsolen gezeigt, nicht mal auf der PS Pro.

Es wurde immer wieder gezeigt das die Hardwareanforderungen mit Unreal Engine 5 extrem steigen, und ich verstehe das offenbar auf Computerbase high frequence 1080p 2560p Spieler massiv überrepräsentiert sind, aber der normale Kunde der sich so teure Karten kauft will wenn man wählen muss zwischen high frequency und deutlich bessere Grafik letzteres, sonst wäre RT nie ein Thema da es logischerweise ein FPS killer ist zu gunsten von schönerer Grafik klar man nimmt die High FPS mit wenn noch genügend reserven da sind aber den Ultra regler bei ner >1000 Karte zurück zu drehen um von stabilen >60 fps auf >144 fps zu kommen werden die wenigsten. Das mag jeh nach spiel variieren aber die kaufen das für die toll ausehenden Spiele sonst würde ja auch ne deutlich billigere oder ne AMD reichen wenns nicht um schönheit (RT) wäre weil um Speed zu generieren ist das in der Regel nach allen Tricksereien spätenstens das erste was man abstellt wenn man mehr FPS will.

Zumindest bin ich dann zuversichtlich das die karte nur 1000-1200 kosten wird wer würde schon für ne 16gb Karte 1500 Euro zahlen. Nvidia als Firma und deren Kunden ist wohl alles zu zu trauen.

Ich denke wir werden dann auch den Fine wine sehen bei Spielen wo bei hohen Settings die 16gb unweigerlich nimmer reichen werden, könnte es dann szenarien mögen sie erstmal nur selten sein wo die 7900 Gen die XT an die 4080 ran kommt und die XTX an ihr vorbei zieht, aber wahrscheinilch ersetzt man nur überall alles durch match texturen und die FPS sehen toll aus nur sind die bilder halt nimmer vergleichbar auf wenn die settings lügen.
 
Zuletzt bearbeitet:
RogueSix schrieb:
(...)

Wie gesagt: Der Kunde hat die Wahl. Jeder ist seines Glückes eigener Schmied. nVidia bringt Produkte raus, die man gemäß dem Motto "take it or leave it" (...)
"So jung kommen wir nicht mehr zusammen" hast du vergessen...
Abseits von solchen Platitüden ist Kritik trotzdem erlaubt. Man muss sie ja nicht teilen, man kann ihr widersprechen, dann nur bitte inhaltlich. Aber Friss oder Stirb ist kein Argument.
 
ruthi91 schrieb:
Ja das stimmt die Lücke ist extrem. In meinen Augen hätte die Karte es mit dem mickrigen Chip, Interface und Ram nicht verdient "80" genannt zu werden.
Schau mal bei AMD vorbei:
RX6800XT -72 CU, 128 MB IF-Cache, 256bit, 16GB RAM,
RX7800XT - 60 CU, 64 MB IF-Cache, 256bit, 16GB RAM,
angebliche RX8800 XT - 64 CU, XXMB IF-Cache, 256bit, 16 GB RAM <- nicht schneller als die RTX 4080, also eher RTX 5070 Gegner.

Warum darf AMD die RX8800 XT mit 16GB RAM als "RX 8800 XT" bezeichnen, aber Nvidia darf das nicht, obwohl die RX8800XT schon eher gegen die RTX 5070 Leistungsmässig vermutlich antreten wird? Soll Nvidia eine RTX 5060 (Ti) gegen die RX8800 XT antreten lassen, damit es für euch vom Namen her passt?
Ergänzung ()

blackiwid schrieb:
Ich mein give me a break ne 4060 hat dann genau so viel ram wie ne 5080... entweder war das völliger Schwachsinn und ne 4060 profitiert nicht von 16gb oder ne 5-10x so schnelle 5080 ist halt hart am RAM limitiert.
Wenn du hochauflösende Texturen hast, dann verbrauchen diese auf der 4060 genau so viel Platz wie auf der 5080. DLSS braucht wohl auch etwas RAM, auch DLSS ist eher auf der 4060 Pflicht, als auf der 5080.

Die 5080 braucht mehr Bandbreite, damit sie die Bilder schneller abfolgen lassen kann, aber die Mindestmenge an RAM brauchen beide Karten.
 
Zuletzt bearbeitet:
Nun, zum einen sind Namen erstmal nur Schall und Rauch. Am Ende entscheidet Leistung, Features und Preis.
AMD ist in meinen Augen damit auf die Nase gefallen ihre Top Karten 7900 zu nennen die aber gar nicht die Leistung der Nvidia 4090 erreichen. Peinlich wirkte dabei auch das Ausgraben des XTX Kürzels. Die Upsellung Strategie ging nach hinten los.
Die 6900XT lag auf Augenhöhe mit der 3090, da hats gepasst.

Und auch ansonsten war (und ist bis heute) AMD bei Radeon 7000 preislich in Nvidias Windschatten unterwegs, da ist nicht wirklich der Banger für Gamer dabei. Die wenig überzeugende Produkt&Preis Politik hat sich ja auch entsprechend in den sinkenden Verkaufszahlen und Marktanteilen gezeigt.
Mit den Treiberproblemen bzgl idle Stromverbrauch, die kaputten Referenzdesignkühler und den Preissenkungen direkt zum Launch eines Produkts hat man auch kein Fettnäpfchen ausgelassen.
90% zahlen lieber den (kleinen?) Aufpreis für eine Nvidia als zu AMD zu greifen, das ist schon herbe...

Insofern kann AMD ihre nächste Karte ruhig 8800XT nennen, aber am Ende zählen Preis und Leistung.
 
Zurück
Oben