Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGB300 NVL72: Nvidia Blackwell Ultra geht auf 288 GB HBM3e
Nvidia hat zur GTC 2025 mit Blackwell Ultra eine Weiterentwicklung der aktuellen Blackwell-Architektur vorgestellt. Damit einher geht eine Vergrößerung des Speichers um 50 Prozent auf bis zu 288 GB HBM3e. Das soll die Data-Center-Lösung fit für das Zeitalter der AI-Reasoning-Modelle mit höherer Inferencing-Anforderung machen.
Die Integrationsdichte steigt und steigt...
...was mich nach wie vor wundert ist Nvidias CPU-Strategie. Dort bleiben sie ja bei einem Mehrjahresrhythmus. Wieso es dort nicht auch hoch zum Jahresrhythmus geht, erschließt sich mir nicht.
Dachte mir, dass der Nvidia Stock-Preis so langsam überhitzt. Nach der GTC-Präsentation von Jensen denke ich nun eher, da geht noch mal doppelt so viel 🤯
Die Integrationsdichte steigt und steigt...
...was mich nach wie vor wundert ist Nvidias CPU-Strategie. Dort bleiben sie ja bei einem Mehrjahresrhythmus. Wieso es dort nicht auch hoch zum Jahresrhythmus geht, erschließt sich mir nicht.
Ja, CPUs sind für Nvidia nur ein läßtiges Nebenprodukt, welches nötig ist um ihre GPUs laufen zu lassen. Aber ein ATX Mobo voll bestückt, inklusive eigener CPU haben sie ja gezeigt. Ist halt nix für normale Konsumenten.
Bei nvidias Größenwahn lese ich mittlerweile schon "2 Rectal-Sized GPUs" raus.😂
Bei mir gehen die HPC Produkte trotzdem am Ar**h vorbei. Bei Samsung hätte man noch günstig für den Konsummarkt produzieren können. Samsung FAB auslasten und Kunden bedienen. Aber das bekommt nicht mal die von Menschen eingebläute nvidia AI begriffen.
Die GTC 2025 hätte man auch in GIC 2025 umbenenen können. GPU Investors Conference, wenn man hochkarätige Produkte die den Kapitalwert steigern lässt, vorführt.
Die FP4- und FP8-Zahlen sind Schißbe um möglichst ExaFLOPS-Leistung zeigen zu können. Keine Sau nutzt das beim Training, sondern FP16 und aufwärts. Das ist Marketing-Blabla, nur nächstes mal kann Jensen nicht weiter den Unsinn treiben mit FP2 oder FP1. Denn das geht nicht, denn bspw. FP4 bedeutet, es sind nur noch vier Bit für eine Fließkommazahl übrig, zwei oder 1 geht nicht. Bei den nachfolgenden GPU-Architekturen muss sich das Marketing dann aber was anderes einfallen lassen.
Jesen hat es richtig angedeutet. In Zukunft werden mehr KI-Modelle Dinge erledigen die sonst klassischer Maschinencode erledigen müsste. Das heißt auch dass es irgendwann mehr KI-Kerne als Unified-Shader-Kerne auf Grafikkarten geben wird.
Krass, auf Blackwell folgt direkt im selben Jahr noch Blackwell Ultra und nächstes Jahr wird Vera Rubin sowohl Grace (CPU) und Blackwell Ultra wieder ablösen.
Krass, auf Blackwell folgt direkt im selben Jahr noch Blackwell Ultra und nächstes Jahr wird Vera Rubin sowohl Grace (CPU) und Blackwell Ultra wieder ablösen.
So schnell und viel wie gerade im KI Bereich passiert kann man einfach keine 2 Jahre warten für etwas Neues. Zudem ist der Jahres Rhythmus bei dem Geld in der KI-Branche ja auch überhaupt kein Problem.
Auf der anderen Seite bleibt es so für die Konkurrenz sauschwer irgendwie auf dieses Niveau überhaupt zu kommen. Hat man was geiles entwickelt, ist man schon wieder hinten.