Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia BlueField-3: DPU mit ARM-Kernen und 400-Gbit/s-NIC entlastet die CPU
Bereits letzten Oktober auf einer Roadmap in Aussicht gestellt, hat Nvidia heute zur GTC die Data Processing Unit (DPU) BlueField-3 vorgestellt. Die DPU soll die CPU entlasten und besteht aus einer Netzwerkkarte mit ARM-Prozessor und kümmert sich um kritische Aufgaben in den Bereichen Netzwerk, Speicherverwaltung und Sicherheit.
Klingt auf den ersten Eindruck mal nach mächtig Fortschritt. Allerdings ist zu einer besseren Einschätzung (für Laien) notwendig zu wissen, was die Konkurrenz so kann und plant.
@nlr gerade bei solchen "sparten"-news etwas mit infos angereichert werden, und nciht einfach nur marketing blabla wiedergegebn wird.
Für mich als laien im bereich datamanagement/server bleiben jetzt nur die beiden "fakten" hängen:
Nvidia hat etwas gebaut, dass sehr schnell ist, aber keine ahnung wofür (irgendwas mit datenverarbeitung)
der ARM A78 ist programierbar. Ist er damit ein FPGA? Finde dazu nichts, und mir wäre auch neu, dass die ARM Cores in richtung FPGA gehen. (würde bei etwas, dass nur auf datenverarbeitung optimiert ist, auch wenig sinn ergeben, dass als FPGA auszulegen)
Mich würde mal interessieren, nach welcher Metrik (und in welcher Workload) 16 ARM-Kerne schneller als 300 x86-Kerne sind.
Bluefield 4 wird derweil ein echtes Monster... 64 Mrd. Transistoren - die RTX 3090 hat 28 Mrd auf 628mm² - also muss nvidia da entweder auf 3nm gehen, oder das ist am reticle Limit von 5nm designed. Oder Chiplets.
Für das beschleunigte Networking werden RDMA/RoCE, GPU Direct und SDN/NFV auf der DPU abgewickelt und für beschleunigten Storage stehen unter anderem Technologien wie NVMe-oF (over Fabrics), Elastic Block Storage (etwa bei Amazon) und Kompression zur Auswahl.
Edit: Wenn man es vergrößert, sind es "22B transistors". Eigentlich kein gültiger Präfix (für Milliarde / "Billion" wäre es Giga, also G). Ok, was will man von welchen verlangen, die Längen noch mit Körperteilen messen...
Bluefield 4 wird derweil ein echtes Monster... 64 Mrd. Transistoren - die RTX 3090 hat 28 Mrd auf 628mm² - also muss nvidia da entweder auf 3nm gehen, oder das ist am reticle Limit von 5nm designed. Oder Chiplets.
Ist ja auch noch in 8nm. Zu 5 nm sinds fast zwei full node shrink. Wenn man annimmt, das sie die Transistordichte des Apple M1 erreichen, dann kommt man bei etwa 500 mm2 raus. Also noch weit unter dem Limit.
Aber 2024 steht ja N3 durchaus zur Verfügung.
Zwar sind wir hier nicht "0815 Internetnutzer", aber der Bericht erfordert in der aktuellen Form zuviel Spartenwissen, um auch dem technikaffinen Nicht-Spezi das Themengebiet näher zu bringen.
Eine DPU scheint ja doch eher was spezielles zu sein. Dass die ARM Cores die reguläre CPU entlasten können ist sicherlich nicht verkehrt.
Musste aber grad erstmal Googlen was TOPS überhaupt sind. Lese ich hier grad zum ersten Mal.
MFG Piet
Marketing at its best. Das ganze fühlt sich so an, als ob Sie gerade die Zukunft erfinden. Die werden wohl kaum von heute auf morgen den gesamten Virtualisierungs-Stack neu erfinden und ablösen, wenn sie nicht die passende Software dazu liefern. Das sind und bleiben hochspezialisierte Lösungen für einzelne UseCases - eine neue Generation von Mellanox Add-In Cards, die vielleicht noch mehr Network&Storage-Offloading anbieten.
indem jetzt auf eine CPU mit 16 ARM Cortex-A78-Kernen gesetzt wird, die bei entsprechend beschleunigten Anwendungen die Rechenleistung von 300 klassischen CPU-Kernen liefern soll.
Was muss ich mir als "klassischen" x86 Kern vorstellen? Einen Intel 8086? Oder doch schon etwas moderneres?
Mal Ernsthaft: Womit kann ich einen A78 Kern vergleichen?
der ARM A78 ist programierbar. Ist er damit ein FPGA? Finde dazu nichts, und mir wäre auch neu, dass die ARM Cores in richtung FPGA gehen. (würde bei etwas, dass nur auf datenverarbeitung optimiert ist, auch wenig sinn ergeben, dass als FPGA auszulegen)
Nein, ein FPGA ist nicht programmierbar, auf einem FPGA ist die Hardware konfigurierbar (von programmierbar spricht man, wenn Software drauf läuft).
Dass die ARM cores hier voll programmierbar sind soll bedeuten, dass die Anwender (also die Datacenter-Ingenieure) vollen Zugriff auf die CPU-Kerne haben und dort beliebige Software für programmieren können. Also Bare-Metal-Zugriff. Auf die CPU im Computer hat man selten vollen Zugriff, weil ein Betriebssystem dazwischen liegt und die Hardware wegabstrahiert.
Ansonsten stimme ich dir zu, hab auch nicht ganz verstanden, was genau jetzt auf den ARM cores laufen soll und wofür das im Datacenter toll ist.
@noxon müssen tu ich erstmal garnix.
Computerbase lebt von klicks, und diese gibt es nunmal nur wenn die mehrheit etwas interessiert.
Und wenn es auch hier damit anfängt, dass man nurnoch hirnlos "news" kopiert, die irgendein Marketing typ verschickt hat, dann bekommt eben eine andere seite meine klicks.
Wenn du auf friss-oder-stirb möchtegern elitismus stehst, bitte schön. Kannst dir dann gerne einreden, dass man nur als "experte" von ner "news" etwas versteht.
(..) Das sind und bleiben hochspezialisierte Lösungen für einzelne UseCases - eine neue Generation von Mellanox Add-In Cards, die vielleicht noch mehr Network&Storage-Offloading anbieten.
Effektiv probieren ja alle Amazon's Nitro Cards zu emulieren, was jedoch direkt auch gleich zeigt wo die Reise hingeht. Die Hyperscaler bauen ihre eigenen SmartNICs / DPUs und die restlichen versierten Kunden koennen sich diese effektiv bei NVIDIA, Xilinx und Broadcom zukaufen.
maxpayne80 schrieb:
(..) Zwar sind wir hier nicht "0815 Internetnutzer", aber der Bericht erfordert in der aktuellen Form zuviel Spartenwissen, um auch dem technikaffinen Nicht-Spezi das Themengebiet näher zu bringen.