News RTX 6000 „Blackwell“?: Nvidia verschickt Grafikkarten mit 96 GB GDDR7-Speicher

wären ein echtes Upgrade.

Hahaha, echte Upgrades gibt's bei NVIDIA erst, wenns nicht mehr anders geht. Hört doch mal mit den Fantasy Meldungen auf!
 
  • Gefällt mir
Reaktionen: Munkman
0x8100 schrieb:
du meinst sowas?
Anhang anzeigen 1573189

sieht man am strand öfter, aber was hat das mit grafikkarten zu tun?
Was das mit Grafikkarten zu tun hat ? Ganz einfach erklärt das was man am Strand des öfteren sieht ist so ein abartiger pixelmatsch klumpen das nur uralt Grafikkarten die Ursache der Seuche sein können mit aktuelleren Grafikkarten würde das besser aussehen und vorallem natürlich und nicht künstlich.
 
WinstonSmith101 schrieb:
Könnten wir Spieler so eine Workstation Karte auch zum Gaming nutzen, falls wir sie bezahlen könnten? Wird so eine Karte von den Gaming Treibern unterstützt?
Ich bin nicht sicher aber diese Karten habe in der Regel keinen Monitor Ausgang .
 
BDR529 schrieb:
Was ich mir eher vorstellen kann ist, dass es ein Ablöser für die L40 / L40S wird, die dann in Servern zum Einsatz kommt.

Auch die haben nur 300 Watt! In einer Profesionellen Karte machen 800 Watt keinen sinn. Die Dinger sind für den dauerbetrieb ausgelegt. Das heist sie sind auf effizens und nciht auf maximalleistung angelegt. Dort kostet Strom auch wirklich geld. Insbesondere wen die in einem Datenzentrum 24/7 arbeitet, möchte man soviel TFLOP pro Watt haben.

800 Watt könnten für den 5090ti Prototypen zutreffen. Dort könnte ich mir das vorstellen. Eine RTX 6000 Blackwell wird wirderum ählich wie die RTX 6000 ADA angelegt sein. Etwas höher, insbesondere wen sie viel mehr speicher nutzt. Aber keine 800 Watt und damit mehr als eine Konsumerkarte. Das halte ich für totalen Quatsch.

Auch die 96 Machen keinen sinn wen die RTX 6000 Blackwell im März erscheinen soll, aber erst seit dem 3gb Dies verfügbar sind. Und ich kann ja nur eine GPU anbieten wen etwas verfügbar ist. Aber das braucht doch auch einen gewissen Vorlauf. Und wen 3gb er ab März verfügbar ist, dann kann die RTX 6000 Blackwell schon im März mit 3gb kommen.... oder Lötet dann der Kunde selber die Chips drauf.

Also vieles im Artikel wirkt auf mich dann doch etwas unausgegoren...
 
lynx007 schrieb:
Auch die 96 Machen keinen sinn wen die RTX 6000 Blackwell im März erscheinen soll, aber erst seit dem 3gb Dies verfügbar sind.
Woher hast du Information, dass die 3 GB Dies erst im März verfügbar sind?
 
Da soll nochmal jemand sagen nvidia geizt mit RAM.
 
WinstonSmith101 schrieb:
Könnten wir Spieler so eine Workstation Karte auch zum Gaming nutzen, falls wir sie bezahlen könnten? Wird so eine Karte von den Gaming Treibern unterstützt?
Ist tatsächlich schon der fall, bei bei Geforce Now werden diese Karten im RIG schon von Nvidia verbaut. Die Treiber werden sogar schon angepasst, dass die Spiele sie als "4080" erkennen. Im Ultimate Abo bekommst du eine L40G ;)

Gruß
 
Loopman schrieb:
Schon mal richtige Server/Workstations gesehen? Wenn nötig, ist die Belüftung im Gehäuse so stark wie ein Orkan. Da macht es dann auch nix aus, wenn die Karte selber nicht ganz so gut kühlt - das erledigt dann der Rest.
Du hast meinen Post leider nicht verstanden. Aber um deine Frage zu beantworten - ich arbeite für einen der weltweit größten Zulieferer für Serverhardware. Hoffentlich beantwortet das diese Frage.

lynx007 schrieb:
Auch die haben nur 300 Watt! In einer Profesionellen Karte machen 800 Watt keinen sinn. Die Dinger sind für den dauerbetrieb ausgelegt. Das heist sie sind auf effizens und nciht auf maximalleistung angelegt.
Ich habe doch nichts anderes gesagt. Das ist doch genau mein Punkt, dass diese 800 Watt Karte niemals eine Workstation Karte sein wird.
 
Loopman schrieb:
Der RAM sorgt also dafür, dass die GPU nix mehr zu tun hat? WoW! 😬
So sehen das ja offensichtlich viele hier und verstehen dabei nicht - VRAM nutzen ≠ VRAM brauchen …
Ergänzung ()

Christian1976B schrieb:
Das sind Leute mit einem 5K Bildschirm oder höher.
Nein, da reicht leider oft schon ein 4K@60Hz Monitor der dann eben nur noch 40 Bilder pro Sekunde sieht, siehe z.B. ganz aktuell Indiana Jones …
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockbreak und Randfee
dayworker123 schrieb:
Ich bin nicht sicher aber diese Karten habe in der Regel keinen Monitor Ausgang .
Da muss man nochmal unterscheiden zwischen Server-Karten, die üblicherweise passiv gekühlt werden und keine Ausgänge haben (die L40S wurde hier erwähnt) und Workstation-Karten (wie die A6000), die ganz normale Monitorausgänge haben und ganz normal gekühlt werden wie die Gaming-Karten auch. Auf denen kann man dann auch einfach so zocken. Sind nur meist etwas langsamer (und sparsamer) als die Gaming-Modelle, dafür haben sie halt mehr VRAM.
 
  • Gefällt mir
Reaktionen: Randfee
OSx86 schrieb:
Hahaha, echte Upgrades gibt's bei NVIDIA erst, wenns nicht mehr anders geht. Hört doch mal mit den Fantasy Meldungen auf!
Wir reden hier von Profikarten und da war NV nie knausrig. Gut, kostet dann auch sicher >10k so ein Teil
 
MalWiederIch schrieb:
So sehen das ja offensichtlich viele hier und verstehen dabei nicht - VRAM nutzen ≠ VRAM brauchen …
Jo. Generell verstehen hier viele das Prinzip VRAM nicht. Ist ja fast schon eine Obsession mit der Menge an gefordertem Speicher.
 
Hate01 schrieb:
Wenn schon 96GB, warum nicht gleich HBM?
gibt's doch, (also noch Hopper), hab ich einige H100 NVL auf der Arbeit, 94GB HBM3. ... kost halt dann nochmal das Dreifache...
Wird's mit Sicherheit von auf Blackwell Basis auch noch angekündigt... Ich vermute dann auch mit ca doppeltem Speicher ... und nur für 70% Preisaufschlag :P

Loopman schrieb:
Jo. Generell verstehen hier viele das Prinzip VRAM nicht. Ist ja fast schon eine Obsession mit der Menge an gefordertem Speicher.
generell verstehen Leute wie du nicht, dass der Speicher nicht nur für "video" Funktionen herhalten muss.
Der Performance-Einbruch wenn ein Datensatz oder ein "KI-Modell" nicht mehr in den Speicher passt ist noch dramatischer bei den "Science" Anwendungen als bei einem game was mehr Texturen mitbringt als der VRAM platz hat. Faktor 10 kann das schon erreichen. Da muss dann NVLINK her (ca 10-20% performance drop in pytorch) was flotter ist als PCIe 5.0 16x (50% performance drop).

Grüße von jemandem der schon für Millionen € sowas mit mehr Speicher in Projekten bestellt hat.
 
Zuletzt bearbeitet:
Ob es eines Tages so etwas wie ein CAMM.2-Modul für VRAM geben wird? Wie lange wollen wir denn akzeptieren, dass auf einer Grafikkarte alles verlötet ist? Schließlich sind VGAs bald so groß wie Mainboards, also wäre es doch angebracht, mal über Modularität nachzudenken.
 
AuroraFlash schrieb:
Schließlich sind VGAs bald so groß wie Mainboards
Wenn man sich Nvidias aktuelle Designs anschaut, ist doch genau das Gegenteil der Fall, die PCBs schrumpfen wieder (deutlich).
 
  • Gefällt mir
Reaktionen: Randfee
AuroraFlash schrieb:
Ob es eines Tages so etwas wie ein CAMM.2-Modul für VRAM geben wird? Wie lange wollen wir denn akzeptieren, dass auf einer Grafikkarte alles verlötet ist? Schließlich sind VGAs bald so groß wie Mainboards, also wäre es doch angebracht, mal über Modularität nachzudenken.
das sehe ich elektronisch/physikalisch nicht. GDDR und HBM arbeiten mit viel Bandbreite statt hohen Taktraten und das benötigt kurze Signalwege, was bei steckbaren Verbindungen schwieriger ist. *
GDDR7 hat >10GHz! Steckbarer DDR5 Speicher z.B. hat <4GHz (DDR 2x also 8MT/s, standard 6MT/s).
HBM hat einen viel breiteren Bus, bis 4096bit vs 256bit bei den meisten Grafikkarten und nur 64bit beim PC RAM wie DDR5.
GDDR müsste also 10 mal so hohe Frequenz haben wenn eine 5090 mit 512bit Bus bei der Speicherbandbreite mit einer HBM Version konkurrieren wollte..... das ist unrealistisch vor allem mit steckkontakten. HBM2 z.B. könnte man stecken, bräuchte aber dann 1024 datenpins ... viel spaß beim bugfixen dieser Stecker.

edit: außerdem sind die Generationszyklen bei der Speicherdichte so gering, eine Steckverbindung würde bei den meisten boards nie genutzt (also der Speicher getauscht). Die Preisdichte bei dem Zeug ist so hoch, statt den Speicher upzugraden kauft man einfach die nächste Generation wo >2x mehr Speicher eh schon dabei ist.
 
Zuletzt bearbeitet:
Zurück
Oben