Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Blackwell: RTX 5000 mit bis zu 512 Bit zwischen Fantasie und Wirklichkeit
Traurigerweise ist das so. Oder besser gesagt, sie hätten es, wenn die Firmen nicht zu stark den Fokus auf Gewinnmaximierung legen würden, sondern lieber auf Qualität.
Letztendlich zahlt der Kunde jetzt mehr, da er bessere Hardware braucht, um den schlecht optimierten Mist zum laufen zu kriegen. Das freut dann vor allem die Hardware-Hersteller. Win-Win für die Industrie, aber schlecht für den Kunden.
Hab mich vielleicht unklar ausgedrückt. Hopper und Ada waren eine ganz andere Architektur, oder bin ich da auf einem Holzweg?
Bei Blackwell scheint ein und dieselbe Architektur für gaming und Datacenter/ etc. verwendet zu werden, natürlich werden sich die Chips selbst unterscheiden.
Leute denken überhaupt nicht bzw. in Ihren eigenen Universen und auch nur von 12 bis Mittag.
####
Sollten die nächsten Konsolen 24GB oder 32 GB Gesamtspeicher(VRAM) haben, werden alle Grafikkarten außer der 4090 respektive 7900 XTX in kurzer Zeit wertlos, ebenso deren Nachfolger.
Auflösung ist inzwischen nicht mehr so ausschlaggebend für VRAM Verbrauch wie früher. Natürlich möchte NVIDIA dann neue Karten verkaufen. Daher gibt man ganz sicher kein VRAM einfach so. Wenn die Karten 2025 vram beschnitten sind kann NVIDIA bei Konsolen Release die nächste Gen/Super Varianten verkaufen. Inzwischen ist doch per Geschichte belegt das den Menschen das egal ist und einfach noch mal NVIDIA kaufen.
Dazu kommt das DLSS3 Frame Generation und RT einiges an vram kosten. Gerade Frame Generation ist aber wahrscheinlich Mindestbedingung für die Spiele und bricht komplett weg wenn vram Mangel.
Konsolen werden maximal auf Frame Generation/Upscaling setzen (Spekulation).
Glaube auch nicht dran, dass wir nochmal 512 Bit im Consumer Bereich sehen werden. Gab's auch in der Vergangenheit selten. Glaub die Radeon 2900XT hatte 512 Bit. Ich meine der große Nachteil war da immer der Stromverbrauch und die Kosten. Also im Verhältnis lohnt sich das eher nicht. Dann eher schnellerer Speiche, Infinity Cache oder andere Lösungen wie HBM. Wobei auch Letzterer wahrscheinlich eher nicht den Weg in Consumer Grakas finden wird. Würde sagen, in dem Bereich halte ich 512 Bit SI oder HBM für ähnlich unwahrscheinlich.
@3faltigkeit
An die 2900 XT musste ich auch zuerst denken, sowie deren schlechte Effizienz. Heute dürfte das aber nochmal anders aussehen, da man mit variablen Taktraten arbeitet und auch unter Last mit 512 bit ja etwas mit dem Takt nach unten gehen könnte. Letzteres wäre aber nicht wünschenswert für die Hersteller, kosteneffizienter ist ja eher ein hoher Takt und möglichst wenig Speicherbausteine, daher denke ich auch, dass man nicht über 384 bit hinausgehen wird. Mehr Speicher ist ja auch damit möglich, und sofern die Speichergeschwindigkeit nicht der Flaschenhals ist, wäre eine Erhöhung auf 512 bit einfach nicht notwendig. Zumal man mit zu viel Speicher und Bandbreite bei Gaming-Grafikkarten dann ja auch die professionellen Lösungen etwas kannibalisieren würde.
Achja, aber mit GDDR7 ist es immerhin 50% schneller und hoffentlich nicht so heiß wie GDDR6X.
Trotzdem erwarte ich einen großen Leistungschub von 70%...
Draco Nobilis schrieb:
Sollten die nächsten Konsolen 24GB oder 32 GB Gesamtspeicher(VRAM) haben, werden alle Grafikkarten außer der 4090 respektive 7900 XTX in kurzer Zeit wertlos, ebenso deren Nachfolger.
Unwarscheinlich wegen Kostengründen. Und selbst wenn die soviel hätten, muss es noch lange nicht heißen das alle Spiele auf einmal so viel verwenden.
Außerdem würden die Konsolen (PS6) erst frühestens 2028 kommen, bis dahin ist sowieso alles schon überholt. Da ist dann eine 6060 Ti mit 16GB für 700€ schneller als eine 4080 Super.
LamaMitHut schrieb:
Hab mich vielleicht unklar ausgedrückt. Hopper und Ada waren eine ganz andere Architektur, oder bin ich da auf einem Holzweg?
Bei Blackwell scheint ein und dieselbe Architektur für gaming und Datacenter/ etc. verwendet zu werden, natürlich werden sich die Chips selbst unterscheiden.
Ein Chip nutzt normal 32bit, aber es können 2 Chips an denselben 32bit hängen. Ich glaube die 2 Chips werden dann als eine Einheit betrachtet...
Der zweite Chip ist dann auf der Rückseite der GPU, an denselben Memorylanes wie ein Chip vorne.
Die Kapazität wird verdoppelt, aber die Geschwindigkeit bleibt gleich.
Die aktuellen Karten die sowas nutzen sind normalerweise Workstation oder Datacenter Karten, weil die oft mehr als 24GB VRAM haben.
Man sieht es hier schön:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Es gibt aber auch 3 Gaming Karten:
3090, weil man noch keine 2GB GDDR6X Chips hatte und die Karte unbedingt >12GB VRAM haben sollte.
4060Ti 16GB, weil Leute keine 8GB 4060Ti wollten.
7600XT 16GB, weil AMD eine Konkurrenzkarte zu der 4060Ti haben wollte.
Gemischt hatte man glaube ich mal bei der 970, irgendwas war da mal
Für Gaming müsste es nicht mehr Speicher (24GB) sein, für AI kann es nicht genug sein.
Da AI vermutlich auch im privaten Bereich zu einem Umsatztreiber wird, vermute ich einen generellen Anstieg der Speicherkapazität.
das einige Spieleentwickler zu Faul zum optimieren sind und unmengen an VRAM benötigen und die Grafikqualität dafür im Vergleich zu anderen Titeln die deutlich weniger brauchen unterirdisch ist.
Naja wenn ich alle Informationen, die ich als externer so habe, in Zusammenhang bringe und bewerte, dann ist das in den meisten Fällen ein Management Problem. Man könnte den Angestellten auch einfach mehr Zeit zum Optimieren einräumen. Ich wäre sehr vorsichtig mit der Behauptung, die sind alle nur zu faul. Spiele müssen aber so schnell wie möglich auf den Markt und Optimierung kostet Zeit ergo Geld.
Scheint mir völlig logisch. Mit 512-Bit würde der Preis nochmals um eine weitere Stufe eskalieren und nVidia müssten dann schon aufpassen, dass die RTX 5090 nicht zu sehr im Profibereich wildert.
Mit 384-Bit und 24GB GDDR7(X) VRAM ist die RTX 5090 doch bestens aufgestellt und wird hoffentlich zur selben UVP wie die RTX 4090 angeboten werden können.
Achja, aber mit GDDR7 ist es immerhin 50% schneller und hoffentlich nicht so heiß wie GDDR6X.
Trotzdem erwarte ich einen großen Leistungschub von 70%...
Bitte das Erinnerungsvermögen aktivieren: Wir sind bei der RTX 3090 zur RTX 4090 von einem Samsung 8nm Prozess kommend auf einen TSMC custom 5nm Prozess (4N) gesprungen.
Das war ein erheblicher Sprung, da Samsung 8nm von Leuten, die sich besser damit auskennen als ich, oft mit TSMC 10nm verglichen wurde. Wir sind letzte Generation auf TSMC "übersetzt" also von einem TSMC 10nm Äquivalent direkt auf TSMC 5nm (4N) gehüpft.
Bei RTX 4090 zu RTX 5090 bleiben wir bei TSMC und werden von TSMC 5nm (4N) auf TSMC 3nm voranschreiten.
TSMC hatten mit dem 3nm Prozess ihre liebe Mühe und Not, also analog zu den nicht high powered Prozessen würde ich auch beim high powered Prozess nur mit iterativen Verbesserungen rechnen.
Es kommt sicherlich etwas darauf an, wie nVidia die Recheneinheiten bei der RTX 5090 verteilen. Wenn sie natürlich bei den RT Cores "all-in" gehen, dann könnte es vielleicht nur in diesem Teilbereich zu 70% Leistungssteigerung kommen, aber nur zu Lasten der Rasterizing-Leistung, die sich dann mutmaßlich kaum bewegen wird.
Generell würde ich aber davon abraten, sich hier schon irgendwelche Luftschlösser zu bauen. Der Leistungssprung von RTX 4090 auf RTX 5090 dürfte vergleichsweise zur letzten Generation aus den genannten Gründen eher mäßig ausfallen. Persönlich rechne ich eher mit maximal ca. 50% bei RT und max. 30% bei Raster.
Die Bäume wachsen auch bei nVidia nicht in den Himmel. Ich würde von diesem Selbst-Gehype, nur um dann später Enttäuschung zu simulieren, dringend abraten, aber ich sehe eh jetzt schon die langen Gesichter und dass dann von einigen sogar noch behauptet wird, dass nVidia aber doch 70% Leistungssteigerung "versprochen" haben, obwohl sie das nie getan haben, sondern dies nur Spekulationen irgendwelcher User gewesen sind.
Ich verstehe nicht, warum diese Spekulation mit 512Bit immer wieder aufkommt.
Es ist unverhältnismäßig teuer in der Herstellung. Nvidia ist ja jetzt nicht gerade dafür bekannt, die Produktionskosten gerne hochzuhalten.
Zudem ist die Speicherentwicklung ja durchaus noch voll im Gange und die Steigerungen sind permanent vorhanden mit jeder Generation.
Ein größeres Speicherinterface wird man wenn dann nur in Betracht ziehen, wenn die Speichertechnik zu lange stagniert und der VRAM die GPU-Entwicklung sonst ausbremsen würde.
Wehe, die Speicheraustattung wird sich wieder nicht verändern. Wer seine Karte möglichst lange behalten will, sollte 2025 mindestens eine 24 GB Karte kaufen, da die nächste Konsolengeneration vermutlich 32 GB gemeinsamen Speicher haben wird.
Also ist es letztendlich möglich, dass zumindest die 5090 und 5080 mit 36GB VRAM bzw 24 GB VRAM erscheinen könnten. Unabhänging von 512 Bit bzw allgemeinen Änderungen am Interface oder auch nicht. Na wieder was gelernt mit den 3GB Speicherchips