Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsMLPerf Inference v5.0 Benchmark: Nvidia legt mit Blackwell weiter zu, aber AMD wächst
Inference, also die Nutzung von trainierten AI-Modellen, liegt AMD Instinct. Und so wächst der deutlich kleinere Herausforderer im unaufhaltsam größer werdenden Schatten von Nvidia. Der Fokus bei Nvidia liegt nun auf der Skalierung, wie das Unternehmen in einem separaten Briefing betonte. Und mit Blackwell gelingt das.
Ich wollte den Artikel gerade lesen, aber verstehe direkt den allerersten Satz nicht.
Grammatikalisch sicherlich korrekt, aber inhaltlich für mich nicht verständlich. Vielleicht fehlt mir einfach nur das Hintergrundwissen.
Daher mein Feedback: Könnt ihr vielleicht das Intro beim nächsten Mal etwas zugänglicher formulieren? Also nach kurzem googlen und auch aus dem Rest des Artikels erschließt sich mir, dass es sich hierbei um einen Datacenter Benchmark handelt. Aber vielleicht kann man das nächstes Mal etwas anders schreiben? Die aktuelle Schreibweise ist imho sehr unzugänglich für Leute die nicht so sehr in der ganzen Datacenter Geschichte drin sind. Danke.
Ja, man muss schon im Thema drin sein um zu wissen wie wichtig Interferencing ist. Von daher wäre eine kleine Einsortierung ganz nett gewesen, langt ja ein Satz.
Für AMD aber trotzdem ein nettes Ergebnis, klar braucht man (sehr) viel Power für das trainieren und das wird aktuell noch von Nvidia dominiert, aber von den Abfragen gibt es eigentlich unendlich viel mehr und von daher dürfte da schon ein gewisser preis sensitiver Markt für AMD vorhanden sein. Nicht umsonst versucht Cerberus eine dedizierte Karte nur für Interference auf den Markt zu bringen.
Der Vergleich hinkt doch vorn und hinten, da die MI325 nicht der Konkurrent der Blackwell ist, und auch noch kein FP4 kann. Sondern erst die MI355X, die in den nächsten Wochen bzw. wenigen Monaten erscheint. Und damit überhaupt erst vergleichbar wird.
Als hätte man gleich beim Erscheinen der grottigen Nvidia 5000er Serie geschrieben, dass sie nun AMD im Konsumermarkt davon galoppieren
Die Aufgaben sind doch viel mehr Parallelisierbar wie z.B. die Berechnung von Bildern für Computerspiele.
Daher mag das vom Platz her in Rechenzentren ein Vorteil sein wenn "1" System 3x so viel kann, aber dieser B300 scheint ja auch viel größer zu sein wie der H300 oder ist das im obersten Bild was anderes?
Also wenn man 3x nen schwächeren kauft und parallel wie bei SLI bei Spielen betreibt ist man doch wieder ungefähr gleich weit? Es kommt also auf die Kosten für mehr Platz die Effizienz und die Preise an ob das ein wichtiger Vorteil ist.
Und da AMD ja immer gigantische Margen will, kann die Preisleistung ja vielleicht trotz höhere Kosten pro Rechenkraft bei AMD billiger sein oder nicht?
Bei so einem speziellen Thema sollte man als Schreiberling erst mal eine kleine Einführung in das Thema an den Anfang setzen, damit der Leser weiß um was es geht.
Ha ha ha, was CB hier so völlig unkritisch als größten Vorteil verkauft,
nämlich das NV alles aus einer Hand anbietet - ist, wenn sie nicht aufpassen, ihr verderben.
Der politische Gegenwind aus den USA wächst. Und das liegt genau daran.
Ja, man muss schon im Thema drin sein um zu wissen wie wichtig Interferencing ist. Von daher wäre eine kleine Einsortierung ganz nett gewesen, langt ja ein Satz.
Bei so einem speziellen Thema sollte man als Schreiberling erst mal eine kleine Einführung in das Thema an den Anfang setzen, damit der Leser weiß um was es geht.
Freut mich dass ich mit der Meinung nicht alleine bin. @Volker Vielleicht als Feedback für's nächste Mal.
Wenn selbst Hardware Enthusiasten und Berufsinformatiker sich erstmal kurz einlesen müssen um den Artikel zu verstehen, ist der Einstieg in den Artikel nicht optimal.
Wenn selbst Hardware Enthusiasten und Berufsinformatiker sich erstmal kurz einlesen müssen um den Artikel zu verstehen, ist der Einstieg in den Artikel nicht optimal.
Ich bin kein Informatiker und konnte das problemlos verstehen. Inferencing hat irgendwas mit maschinellem Lernen („KI“) zu tun und AMD Instinct ist eine Produktfamilie fürs Datacenter. Das langt um den Artikel zu verstehen.
Inferencing hat irgendwas mit maschinellem Lernen („KI“) zu tun und AMD Instinct ist eine Produktfamilie fürs Datacenter. Das langt um den Artikel zu verstehen.
Interessant für uns Nerds schon, aber ich bin nicht überrascht, dass sich AMD dafür gar nicht interessiert. Denn niemand würde ernsthaft nur CPUs für AI-Workloads verwenden, wenn Beschleuniger doch so viel mehr Performance liefern.
Wenn Intel solche Benchmarks liefert, fühle ich mich an einen kleinen Bruder erinnert, dem man einen nicht angeschlossenen Controller gibt, damit er auch mitspielen kann. Er tut irgendwas, aber der Effekt ist gleich null.
Imho, wenn man sich beruflich und/oder privat für Technik interessiert oder damit zu tun hat, sollten mittlerweile Begriffe wie "inference" und "training" implizit bekannt sein, vor allem im Kontext von KI und Datacenter Beschleuniger (wie aus dem Titelbild relativ deutlich feststellbar). Nichts für ungut, aber bei jeder News zuerst die Basics von KI und LLMs im speziellen vorgekaut zu bekommen ist für Plattforman wie CB imho etwas viel verlangt.
OT:
Nice, das AMD instinct langsam auch hier traction bekommt. und klar das NVIDIA mit Blackwell vor allem die schwächen von Hopper angegangen ist. Zeigt wiederum, das Blackwell für den eigentlichen Einsatzzweck (KI Inferencing im Besonderen) die richtigen Weiterentwicklungen enthält. Vor allem der Fokus auf Skalierung und das Datacenter als kleinste "unit of compute" durch Nvidia scheint sich auszuzahlen.
Bin gespannt auf zukünftige Vergleiche mit MI355X vs GB200
Lisa Su hat ihren Laden im Griff. Sie tut, was sie am Besten kann. Sie hält sich nicht mit Urteilen über die Mitbewerber auf. Sie analysiert AMDs Stand, Ihre Möglichkeiten. Sie fordert ihre Entwickler, ohne das ständig in die Welt zu Posaunen und kann so wiederholt Wegpunkte zu eigentlichen Ziel erreichen.
Bestes Beispiel: Der Launch der 9000er Grafikkarten. Man kommuniziert ganz deutlich, dass man weder 5080 noch 5090 angreifen möchte (weil man es eben auch incht kann), und läßt offen, wie weit man zur 5070 überhaupt aufschließen kann. Und währenddessen sichert Sie dem Unternehmen Fertigungskapazitäten und kann erfolgreich Liefern, während man Sie bei nVidia, die das bessere Produkt haben, aber großteils NCIHT liefern können, belächelt wird. Eine Lektion, die Intel mit dem Ryzen wohl schon erfahren, aber wohl noch nicht vollumfänglich gelernt hat.
Bei Server-CPUs versucht es Intel immer noch gerne mit Arroganz und Intrigen. nVidia möchte da mitspielen, ist aber noch in einer viel zu frühen Phase. Das ist etwas vollkommen anderes als "Beschleuniger" für FLießkommaoperationen. Währenddessen die EPYCs klar machen, was stand der Technik ist, können sich die Instinct MI3xx Karten einen Guten Ruf als alternative im Gesamtpaket sichern. Denn ist nVidia auch hier klar Leistungssieger, so läßt man sich die Leistung auch (im Vergleich zu AMD) fürstlich entlohnen. und bei über tausend Karten spielt das für viele Kunden eben auch eine Rolle. Ich sehe da noch viel Veränderung im Markt.
Wobei AMD hauptsächlich das ATi-Pech-Erbe abstreifen muß.
Und für Intel wünsche ich mir mal endlich Manager, die was können ohne zu tricksen. schließlich brauchen AMD aber auch NVidia dringend eine Starke Konkurrenz!!!
Imho, wenn man sich beruflich und/oder privat für Technik interessiert oder damit zu tun hat, sollten mittlerweile Begriffe wie "inference" und "training" implizit bekannt sein, vor allem im Kontext von KI und Datacenter Beschleuniger (wie aus dem Titelbild relativ deutlich feststellbar). Nichts für ungut, aber bei jeder News zuerst die Basics von KI und LLMs im speziellen vorgekaut zu bekommen ist für Plattforman wie CB imho etwas viel verlangt.
Niemand sprach vom Begriff Training.
Niemand hat verlangt dass KI in jeder Artikeleinleitung erklärt werden.
Es ging schlichtweg um eine kurze Einordnung, dazu reicht ein Satz.
Das sehen übrigens ganz offensichtlich viele so wie ich, siehe Likes und Antworten auf meinen Beitrag.