Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia H200: Hopper-Upgrade mit 141 GByte HBM3e überbrückt Zeit bis Blackwell
Welcher Beschleuniger kann Nvidias H100 „Hopper“ ablösen? Genau, ein verbesserter H200 mit mehr und schnellerem Speicher sowie weiteren Anpassungen. Der Grundstein für die Dominanz dürfte damit auch für das Jahr 2024 gelegt sein, der Starttermin im zweiten Quartal lässt jedoch Fragen in Richtung B100 „Blackwell“ und 2024 zu.
Nicht sonderlich überraschend nach dem bisherigen Kenntnisstand zu GH200. Kleine Anpassungen, ansonsten eben Fortsetzung des bisherigen Schemas. Aber gut, dass Nvidia nichts schleifen lässt...
Ich bin gespannt wenn AMD am 6.12 die neuen MI Instinct Beschleuniger M300er Serie besonders den M300X vorstellt und wie dieser dann anschneidet im Vergleich.
Schon lustig wie sie ein CPU GPU Gespann was exakt für AI Workloads optimiert ist mit "dual x86 CPU" (ohne GPU ) in eben AI Workloads vergleichen. Äpfel und Birnen vom feinsten.
AI setzt auf kurze Register weshalb das niemanden überraschen sollte. Die richtige Konkurrenz,.etwa MI300, wird hier gekonnt ignoriert, kann man leider nicht x100 schreiben
@PS828 Bei diesen ganzen PR Graphen bekomme ich immer Zustände. Apple hat das irgendwann hoffähig gemacht (auch wenn es sicher vorher schon auftrat) und mittlerweile versuchen ALLE Parteien sich gegenseitig in unsinnigen Darstellungen zu übertreffen. Getreu dem Motto: Wir platzieren irgendwelche Punkte in ein nicht wirklich definiertes Koordinatensystem und implizieren irgendwelche Leistungssteigerungen ohne echte Referenz. Wenn wir gütig sind gibt es noch eine Fußnote, der Rest wird den Internet-Fußsoldaten überlassen.
/rant
Hinsichtlich der neuen Instinct Reihe bin ich auch gespannt. Gerade der Blick auf die kürzlich veröffentlichte Green500 zeigt hier ja durchaus eine Marschrichtung.
General purpose compute sollte man generell nie als Vergleich für einen. Accerlator hernehmen. Und nichts anderes ist der GH200.
Oder einfach mal nen FP64/128 Workload drauf werfen was die GPU hier nicht kann. Mal sehen was noch übrig bleibt
Unabhängig davon ist das dennoch spannend weil nvidia sich aktuell extrem auf FP/INT 8/16 versteift weil man das für AI brauchst.
Für Simulation, CPU Unterstützung von anderer Seite und in den Naturwissenschaften ist man ja eher mit FP64/128 unterwegs und das unterstützen die MI300 Karten ja tatsächlich.
FP64 ist bei einer vollen GPU MI300 ohne AI tiles bei knapp 100 TFLOPs, nvidias Lösung hatte ja so 15-20. Also gibt's schon nieschen wo sie leicht rein kommen im Zweifelsfall