Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsLenovo ThinkSystem SR685a V3: Wenn Genoa mit 8 MI300X, 51 TB und Titan-Netzteilen kuschelt
128 ohne Link, 160 weil 2x 64 für den Link, aber nur einmal Chipsatz etc. nötig ist.
Es geht aber auch mit weniger als 64 Lanes für den Link - theoretisch.
Die Angabe bezieht sich auf das Gesamtsystem, nicht pro CPU. 2x128 wären ja 256 Lanes, aber die CPUs werden auch über diese verbunden. Das heißt bei Dual Socket bleiben hier 80 Lanes pro CPU frei nutzbar und 48 Lanes werden für die Verbindung zwischen den beiden CPUs verwendet. Je nach Auslegung können das auch 64 Lanes sein, dann hätte ein Dual Socket-Server auch nur 128 nutzbare Lanes.
Die 24 RAM-Slots sind mega! 24x 64GB RDIMMs mit 250€ pro Stück kommt man auf 1,5TB DDR5-4800 ECC RAM für gerade einmal ~6000€. In diesem Segment geradezu ein Schnäppchen!
Leicht falscher Vergleich - Blackwell ist bisher "Vaporware" i.e. nur angekündigt, MI300X sind heute lieferbar. Was AMD Blackwell entgegensetzen wird, ist bisher nicht im öffentlichen Raum sichtbar.
Zudem macht niemand in der Industrie sein Training in FP4, 16-bit Formate sind der Standard und dort eine gute Auslastung zu erreichen bei großem Modelltraining ist auch schon reichlich schwer und die erreichten Werte weichen extremst von den von Nvidia beworbenen Werten ab.
FP4 sehe ich eher bei quantisierter Inferenz in Zukunft genutzt. Aber da kommt es auf sehr viele sich bewegende Teile an, dass dies passiert. So zum Beispiel was denn die großen, oder zumeist genutzten Modelle bei der wirklichen Verfügbarkeit von Blackwell für eine Architektur haben, was machen die Trainings-, und Inferenz-Algorithmen, und und und...
Hab früher in der Serverentwicklung gearbeitet, aber halt im Bereich 1-4U... an so nem Ding hätt ich gerne mitgearbeitet, schon eine geile Konstruktion...
Das 100kg schwere Server Rack ist kein Rack sondern der Server oder Barbone. Das Rack ist das wo der Server drin eingebaut wird
Und zu Titanium, kann ich nur sagen, dass das absoluter Standard inzwischen ist, da es dazu gesetzliche Regelungen gibt die das zwingend beim Einsatz in Rechenzentren fordern.
Rickmer schrieb:
Zwei der Netzteile braucht es allein schon für die Lüfter... die haben doch sicherlich eine Leistungsaufnahme von 100W das Stück oder noch memehr.
Wenn du das @scale betreibst, dann werden da riesige Datenmengen rumgeschoben. Da ist 8x 200G IB schon ganz ok und die Leute schauen auch nach 8x 400G bzw schielen auf das kommende 8x 800G
Wenn du das @scale betreibst, dann werden da riesige Datenmengen rumgeschoben. Da ist 8x 200G IB schon ganz ok und die Leute schauen auch nach 8x 400G bzw schielen auf das kommende 8x 800G