News Nvidia Blackwell: RTX 5000 mit bis zu 512 Bit zwischen Fantasie und Wirklichkeit

Bügelbernd schrieb:
Ist auch völliger Schwachsinn GPUs immer teurer werden zu lassen, irgendwann kannst du dir dann wirklich ein Einfamilienhaus statt einer GPU kaufen.
Irgendwo muss der große Kühler ja untergebracht werden!
 
  • Gefällt mir
Reaktionen: floTTes und Bügelbernd
icetom schrieb:
3 x 3 statt 4 x 2 Module ginge das beides? muss die Anzahl der Speicherchips gerade sein? Oder können sie uns 9gb Karten basteln?
Die müssen nicht gerade sein, sondern zum Speicherinterface passen.
Steht ja auch in der News. Ein Speicherchip ist mit 32 Bit angebunden oder wahlweise 16 Bit.
Für ein 256 Bit Interface brauchst du also 8 Speicherchips (oder 16).
Bei einem 96 Bit Interface brauchst du 3.

16 und 32 Bit Chips mischen ist keine gute Idee. Dann ist der Speicher unterschiedlich schnell. Das gibt nur Probleme.
 
  • Gefällt mir
Reaktionen: Flunkiii
PTS schrieb:
Du raffst es scheinbar nicht, es wäre auch schon super wenn wir JETZT 48GB VRAM in jeder Kiste hätten, dann würden die Spiele Entwickler um einiges Flotter arbeiten können zwecks Kompilieren.
Was hat das Kompilieren des Spielecodes mit dem VRAM zutun? Aktuelle Spiele lasten nicht mal 24GB aus und ihr schreit nach 48 GB. 48 GB wäre absolut overkill. In 2 Jahren sollen es dann 96 GB sein, während die Konsolen bei 16 GB rumdümpeln, oder wie?

Und auf welche SSD willst du das Spiel installieren, welches so hochaufgelöste Texturen hat, dass du 48 GB VRAM oder mehr brauchst?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kalsarikännit, PietVanOwl, ReVan1199 und 5 andere
Wären 512 Bit so viel teurer? Dient eine höhere Anbindung nur der Menge an VRAM oder ergibt sich dadurch auch eine Steigerung bei der gesamten Geschwindigkeit einer GPU?
Über welche Kostenfaktoren sprechen wir dabei eigentlich?
Also wenn die 5000er Serie gar nicht günstiger wird, dann frage ich mich ernsthaft wie die Gros der Spieler damit umgehen wird. Ich könnte mir vorstellen dass dann wirklich neue Generationen nur noch sehr gut betuchten bedient wird, oder aber denen die auch für ein Auto einen Kredit aufnehmen würden - für ein Auto welches man prinzipiell in der Größe und Klasse nicht bräuchte.
 
  • Gefällt mir
Reaktionen: Flunkiii, MarcelGX, icedpingu und 7 andere
Mensor schrieb:
Und welche Anwendungen sollen das sein, das der Privatanwender sagt, 24 GB sind mir zu wenig ich benötige 36 GB und bin bereit dafür jenseits der 3000€ zu zahlen?

Sorry, ich habe mich nicht nur auf das Spitzenmodell, sondern auch auf die Karten darunter bezogen, die in der aktuellen Generation für ihren Speicherausbau kritisiert werden.
 
  • Gefällt mir
Reaktionen: Bügelbernd
Absolut richtig nicht auf 512 Bit zu setzen. Das sind unnötige Kosten und unnötiger Stromverbrauch bzw. Abwärme.
 
Unti schrieb:
Find ich auch gut so, 512 Bit und ggf. noch mehr VRAM treibt nur den Preis nach oben.
Nichts gegen dich und bitte nicht falsch verstehen, aber ich habe seit langem nicht mehr so gelacht.

Nvidia hat nach den Höhenflügen der letzten Jahre sowieso "die Preisschraube" verloren und als ob 512, 384 oder 320Bit einen nennenswerten Unterschied ausmacht?
"The more you buy, the more you save" ist wohl an dir vorbei gegangen!

ZT: Leider hat der "Upselling" in dieser Generation mir die Freude vor neuen Generationen genommen, da ich 100% weiß, dass Nvidia ihren "Upselling-Mist" härter durchboxen werden. VRAM-Größe ist auch ein großes Thema, da auch meine Grafikkarte leider dadurch "künstlich" begrenzt worden ist. Ich kann also verstehen, dass Nvidia sich die Zeit nimmt, um ihre nächste "künstliche" Beschneidung vorzunehmen.
Werde wahrscheinlich wegen dieser Zustände für eine längere Zeit meine 3070 TI behalten.
Die Antwort von Linus Torvalds an Nvidia macht jeden Tag mehr Sinn :daumen:
 
  • Gefällt mir
Reaktionen: Sturmflut92 und SweetOhm
MrHeisenberg schrieb:
Was hat das Kompilieren des Spielecodes mit dem VRAM zutun?
Lass ihn, er scheint nicht wirklich Wissen darüber zu haben was wie funktioniert. Naja, immerhin sind wir ihn (erstmal) los. So realitätsfremd habe ich hier noch keinen erlebt.
 
  • Gefällt mir
Reaktionen: Flunkiii und Zarlak
Silencium schrieb:
Wären 512 Bit so viel teurer? Dient eine höhere Anbindung nur der Menge an VRAM oder ergibt sich dadurch auch eine Steigerung bei der gesamten Geschwindigkeit einer GPU?
Über welche Kostenfaktoren sprechen wir dabei eigentlich?

Ein größeres Interface hat auch Nachteile wie z.B. einem höheren Stromverbrauch. Der Nutzen ist unterschiedlich. Eine 4090 mit 384 oder 512Bit hätte wohl ziemlich genau die identische Leistung. Also wäre 512Bit eher ein Nachteil. Am Ende geht es nur um den Durchsatz und da gibt es eben mehr als das reine Interface. Anstelle von größerem Speicherinterface kannst du z.B. schnelleren Speicher verbauen (GDDR7) oder den L2 Cache erhöhen wie es AMD gemacht hat. Dann wird das Interface kleiner und die Karte trotzdem schneller.

Am Ende muss es eben entsprechend der Karte passend ausgewählt werden. Wenn du eine Autobahn baust mit 6 Spuren und in 99,9% nur 3 Spuren benutzt werden, dann hat man 3 Spuren umsonst gebaut, die man trotzdem bauen musste und auch unterhalten. Das ist quasi das Speicherinterface. Wenn du hingegen nur 2 Spuren baust und häufiger mal eine Dritte benötigen würdest, dann führt das zu Stau und die Leistung der Karte/Autos bricht rapide ein.

Das hat man bei der 6500 von AMD gesehen. Nur 4GB RAM, sehr kleine Anbindung, besonders wenn man runter auf PCIE3 geht (nur noch die Hälfte der Anbindung) und die Leistung fällt ins Bodenlose.
 
  • Gefällt mir
Reaktionen: Slim.Shady, Silencium, N0Thing und eine weitere Person
Ayo34 schrieb:
Es wird auch in den nächsten 3 Jahren kein Spiel geben, was bei 4k von mehr als 24GB profitieren wird.
Das ist unwahrscheinlich, stimmt, aber in Stein gemeißelt ist es nicht, denn es kursieren schon seit längerer Zeit in Entwicklerkreisen, nennen wir es, Wunschvorstellungen von mindestens 32 GB Grafikkartenspeicher für zukünftige anspruchsvolle Titel, um (was Speicher angeht unlimitiert) aus dem vollen schöpfen zu können.

Ob das nicht eine falsche/ressourcen-feindliche Einstellung ist, so dass Entwickler mit Ressourcen auf (Hardware-)Kosten der Kunden in Spielen ohne viel Mehrwert aasen bzw. sich auf die faule Haut legen und noch weniger Spiele optimieren, kann ich nicht beurteilen.

Sicherlich hängt das auch davon ab, wie hungrig von Grund auf entwickelte/komplexere RealTime-PathTracing (RT-PT) Spieletitel noch sein werden können, wie sehr dieses (vordergründig von nVidia, deren gesponsorten Entwicklern - schöner Gruß an CDPR und Remedy - und entsprechenden Enthusiasten-dGPU-Käufern) gepuscht werden wird können bei immer höheren Kosten.

Zudem wird die nächste Basiskonsolengeneration (also Playstation 6 und das jeweilige XBOX Pendant, Nintendo spielt mit deren lächerlicher, unzeitgemäßer und dafür teuer verkaufter Hardware da keine Rolle) bzgl. den Speicherspezifikationen da auch ein ausschlaggebener Faktor sein.

Man kann dann nach wie vor (trotz geteiltem Speicher im SoC zwischen Prozessor und integrierter GPU) wegen besserer Konsolenoptimierung mit einem Speicher-Aufschlag beim PC rechnen (also wie aktuell den gleichen Konsolen-Gesamtspeicher alleine für die PC Grafikkarte veranschlagen um bei Höchsteinstellungen nicht limitiert zu werden, es sei denn NPUs, etc. ändern daran in Zukunft etwas, was aber zu bezweifeln ist).

Aus den o.g. Gründen würde ich das auch so sehen, dass 24 GB noch eine ganze Weile auch in 4K/UHD (bei 5K/UHD könnte und spätestens bei 8K Gaming dürfte das aber anders aussehen) auskommen wird, wenn (zunehmend komplexeres) RT-PT kein massiver Speicherfresser werden wird.

Momentan sehe ich 20 GB für ausreichend an, um bei den kommenden Grafikkarten-Generationen (aber nicht von Anfang an direkt, sondern nach und nach natürlich) noch unbeschränkt in 4K/UHD zu sein und danach erst 24 GB, welches auf 3-4, eventuell auch 5, Jahre hindeutet (je nach Entwicklung bzw. wie die o.g. Faktoren zum tragen kommen werden), aber evt. liege ich mit der Einschätzung auch falsch .. .egal, wir werden sehen.
 
Ayo34 schrieb:
Der Nutzen ist unterschiedlich. Eine 4090 mit 384 oder 512Bit hätte wohl ziemlich genau die identische Leistung. Also wäre 512Bit eher ein Nachteil.
Ich bin ehrlich: Ich habe von der Materie irgendwie keine Ahnung. Ich dachte bis jetzt das ein Speicherinterface A) dafür zuständig ist genug Speicherdurchsatz für den VRAM "bereitzustellen" und B) dafür zuständig ist wie viel VRAM bzw. welche Größen an VRAM auf die GPU "passen".

Ist das so der Fall ist ein größeres Speicherinterface ja eigentlich witzlos WENN der Speicherdurchsatz eh schon locker ausreicht.
 
icetom schrieb:
3 x 3 statt 4 x 2 Module ginge das beides? muss die Anzahl der Speicherchips gerade sein? Oder können sie uns 9gb Karten basteln?
bensen schrieb:
16 und 32 Bit Chips mischen ist keine gute Idee. Dann ist der Speicher unterschiedlich schnell. Das gibt nur Probleme.
GTX 970? :freak:

Könnte man denn vielleicht 2GB- und 3GB-Chips mischen? So könnte man aus 4 VRAM-Chips (128Bit/32Bit) nicht nur 8GB sondern auch 10GB oder 12GB machen. Ginge das nicht?
 
Glaube kaum das es jezt größere Sprünge im VRam geben wird bei den neuen Generationen. Für den Normalnutzer reichen die GB und wer mehr will muss bei AMD/Intel/Nvidia dann zur Premium AI-Karte greifen für extra VRam.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Chismon schrieb:
Das ist unwahrscheinlich, stimmt, aber in Stein gemeißelt ist es nicht, denn es kursieren schon seit längerer Zeit in Entwicklerkreisen, nennen wir es, Wunschvorstellungen von mindestens 32 GB Grafikkartenspeicher für zukünftige anspruchsvolle Titel, um (was Speicher angeht unlimitiert) aus dem vollen schöpfen zu können.

Du kannst keine Spiele für 32GB entwickeln, wenn 90% der Gamer noch mit 8GB oder weniger rumlaufen. Das ist einfach nicht lukrativ. Alleine deswegen ist man z.B. mit 12-16GB auch noch eine Zeitlang sehr gut bedient. Ein teures AAA Game kannst du nicht für 1/10 der Gamer entwickeln.

Bügelbernd schrieb:
Ist das so der Fall ist ein größeres Speicherinterface ja eigentlich witzlos WENN der Speicherdurchsatz eh schon locker ausreicht.

Richtig, das Speicherinterface muss passend gewählt sein. Zu groß kostet Geld und Unterhalt (Strom) und hat keinen Nutzen. Zu klein gewählt kann es zu Framedrops führen.

mae1cum77 schrieb:
Macht nVidia seit RTX 4000 doch ebenfalls. Der ist deutlich angestiegen. Wird immer gern vergessen bei der ganzen Betrachtung.

Genau AMD hat damit angefangen und Nvidia ist da nachgezogen mit der 4000er Generation. Am Ende sollte für den Endkunden es völlig egal sein, wie groß das Speicherinterface ist. Es muss eben insgesamt passen.
 
  • Gefällt mir
Reaktionen: MalWiederIch, Marc53844 und s1ave77
Ayo34 schrieb:
Bringt dir für Gaming NULL, wenn die 5090 48GB bekommen würde. Es wird auch in den nächsten 3 Jahren kein Spiel geben, was bei 4k von mehr als 24GB profitieren wird. Die einzige Überlegung ist wie man die 5090 hinsichtlich KI positionieren möchte.

NULL, ist falsch. Erstens ist NULL =! 0, sondern ein undefinierter Wert(klugscheißermode), zweitens ist es nur nahe null, 0,0x.... Was bedeutet, verschewende deine Zeit nicht. Es wird immer die Leute geben die denken, wen sie sich eine 1K GPU kaufen, das die Entwickler nur für sie ein Spiel, mit super Texturen entwickeln. Da hilft nur "Lerning by Doing"... Am Ende kommt dann immer die Moderkeule, die für 0,00000x der Leute wichtig ist.

Die 5090 wird vermutlich nicht anders zu KI postioniertert, als die 4090. Warum solle man eine 5090 für 2k verscherbeln, wen man sie als Quadro variante das 500 Fache bekommst? Und die RTX 6000 Ada hat 48gb speicher. Drüber hat man die Volta mit 4kbit.

Ayo34 schrieb:
Wenn KI immer mehr in der Masse ankommt, dann will man eben auch den Markt bedienen und da könnte eine deutlich teurere TITAN Version der 5090 Sinn machen.

5090 -> 24GB -> ~1999€ -> Gaming, etwas AI
5090 Titan -> 48GB -> ~2999€ - 3999€, Gaming, etwas mehr AI

Wenn man bedenkt, dass eine RTX6000 mit 48GB für über 8000€ über den Ladentisch geht, wäre eine 5090 dann immer noch ein Schnäppchen, auch wenn die 24GB mehr Nvidia wohl sehr wenig kosten würden.

Damit wir bessere Preise bekommen, müsste AMD etwas machen...
Das ergibt keinen sinn. Die 4090 mit 24 gb fallen ja nur vom Fließband, weil sie sich nicht dafür eignen eine Quadro zu werden. Warum ist den die 4090 TI gestrichen worden? Weil es vermutlich nicht genügend Chips gab und man NV die RTX 5000/6000 ada aus den händen reißt. Wir bekommen ja nur die Brotkrumen die übrigbleiben. Und das so zuammengeschnitte, das es zwar noch gekauft wird, aber damit auch keine Quadro ersetzen werden kann.
 
Wie genau die Dies ausfallen ist mir sowas von Wumpe. Wenn am Ende 12GB erst ab 500€ zu haben sind - dann haben wir ein Problem.
 
  • Gefällt mir
Reaktionen: Eorzorian
Es gibt doch jetzt schon für 450€ 16GB bei Nvidia und seit einigen Jahren für unter 300€ 12GB. 3060 bzw. 4060ti.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Innocience schrieb:
Wie genau die Dies ausfallen ist mir sowas von Wumpe. Wenn am Ende 12GB erst ab 500€ zu haben sind - dann haben wir ein Problem.
Das wird wohl dank GDDR7, und den 33% mehr Speicher, nicht mehr der Fall sein (müssen).... Sprich sie können bei jeder jetztigen GPU 33% drauf addieren. Natürlich nicht bei jeder GPU. NV wird es sich sicher nicht nehmen lassen, auch den Speicher wieder zu halbieren, wo es aus ihren Augen sin macht. wir kennen es ja nciht anders. Aber nachdem bei 4xxx Serie alles speichergrüppel sind, bis auf 4080/4090, können wir wohl davon ausgehen das die nächste gen wohl auch 12 unter 500€ anbieten wird...
Ergänzung ()

Ayo34 schrieb:
Es gibt doch jetzt schon für 450€ 16GB bei Nvidia und seit einigen Jahren für unter 300€ 12GB. 3060 bzw. 4060ti.
Ja für die, die meinen Speicher = Performance.... ^^ also die gleichen Leute die meinen 24GB reichen einer 4090 nicht zum Spielen, die kaufen sich dann ne 4060 mit 16gb uns sind glücklich. ^^
 
  • Gefällt mir
Reaktionen: MalWiederIch und Eorzorian
Zurück
Oben