Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Instinct MI210: Halbiertes GPU-Doppel als PCIe-Karte mit 23 TFLOPS
Auch wenn Nvidia heute mit Hopper und Grace die meiste Aufmerksamkeit gebührt, hat AMD ebenfalls einen neuen Rechenbeschleuniger vorgestellt. Die zuvor ohne Details angekündigte PCIe-Karte Instinct MI210 ist jetzt laut AMD wie auch die größeren MI250 und MI250X allgemein verfügbar.
Einen schlechteren Zeitpunkt hat sich AMD aber auch nicht aussuchen können. Gerade während der GTC wird doch deutlich, dass Nvidia eben nicht nur Hardware anbietet, sondern die notwendige Software, um diese ausreizen zu können.
Und AMD bietet weiterhin keinen offiziellen Support für ROCm auf Navi oder Big Navi.
Die sind für die Verwendung in Servern gedacht. Darin sind alle Komponenten "passiv" gekühlt.
"Passiv" insofern, dass dann vorne oder hinten (je nach Bauweise) eine Batterie an Hochleistungslüftern verbaut wird, welche genügend Luft durch die Blades bewegen, damit die Teile ausreichend gekühlt werden.
Sorry vorab wenn das ein wenig Off-Topic sein sollte, aber das Design des Enterprise-Beschleunigers würde der nächsten Generation Radeon mit RDNA 3 und MCM auch gut stehen.
Dort dann natürlich aktiv gekühlt. Mir sagt dieses professionelle und seriöse Design einfach mehr zu als die Entwürfe für Spieler.
Joar, schön clean. Aber wer klaut dann der Frau den Fön der ans hintere Ende gehört?
Und ist das dann noch hübsch mit dem Fön am Ende und dem ganzen Klebeband?
MountWalker schrieb:
Wie funktioniert das eigentlich, 300 W "passiv" zu kühlen?
Da ist nichts passiv, der aktive Teil ist nur extern.
Die Karten werden durch denselben Luftstrom gekühlt wie alles andere auch, bei dem Zug in so einem "Case" brauchst du intern einfach keine Lüfter mehr, aber außen Gehörschutz.
Passiv ist erstmal alles was keine aktive Komponente zur Kühlung dabei hat, also praktisch gesehen jede Karte wenn du einfach die Lüfter abbaust. Das wird ohne die entsprechende Luftzufuhr (und das so vorgesehene Finnendesign) aber logischerweise nicht lang' gut gehen, jedenfalls nicht mit normalen Taktraten.
Sorry vorab wenn das ein wenig Off-Topic sein sollte, aber das Design des Enterprise-Beschleunigers würde der nächsten Generation Radeon mit RDNA 3 und MCM auch gut stehen.
Dort dann natürlich aktiv gekühlt. Mir sagt dieses professionelle und seriöse Design einfach mehr zu als die Entwürfe für Spieler.
Joar, schön clean. Aber wer klaut dann der Frau den Fön der ans hintere Ende gehört?
Und ist das dann noch hübsch mit dem Fön am Ende und dem ganzen Klebeband?
Ich hatte ja geschrieben "dort natürlich aktiv gekühlt". Denn ich glaube, dass man das Design auch hübsch und seriös mit 2 oder gar drei Lüftern umsetzen kann. Aber insbesondere bei Spielern scheinen auffälligere Designs einfach gefragter zu sein.
LuckyMagnum schrieb:
Sehe ich ganz genauso. Sehr attraktiv, dieses Design.
Vielleicht wird das nächste Referenzdesign von AMD noch etwas cleaner und sersiöser als bei der Radeon-RX-6000-Serie. Das gefiel mir auch schon ganz gut ... auch wenn ich eine 3090 TUF Gaming nutze.
Wenn du da 3*100mm reinsägst ist die seriöse Optik aber auch wieder dahin, oder?
Vielleicht fehlt mir da aber auch nur die Phantasie um diese Uhrzeit. 🥱
Davon mal abgesehen: Kauft man ein Case unter denselben Aspekten (Kein RGB/Glas/Mesh) kann's dir imgrunde relativ egal sein.
Da hast du natürlich nicht ganz unrecht, auch wenn ich mir meine Hardware und hübsche Hardware im allgemeinen schon gerne mal ansehe, auch wenn das nicht immer durch ein per RGB beleuchtetes Seitenfenster sein muss.
Ansonsten: Ja, es gibt keinen offiziellen Support für RDNA und für die Consumer RDNA2 Modelle, aber Consumer sind nicht unbedingt die Leute, die auch ROCm verwenden. Man kann ROCm aber nun weitgehend nutzen, es wird halt nicht offiziell Unterstützt, kann ich ein Stückweit aber auch verstehen.
Also mit den FP TereFlops Werten beider Hersteller komem ich nicht ganz klar.
nVidia macht FP8 4000 und FP32 noch 1000, FP64 aber nur 60?
Und wieso scheint es bei AMD anders herum zu laufen?
Also FP64 knapp 100, also viel mehr als nVidia, dafür aber dann bei FP32 nicht auch wesentlich mehr, sondern viel weniger, genau die Hälfte?
Ich schaue doch sicher falsch hin, oder?
Das Problem ist, dass NVIDIA in dem Fall es nicht so genau mit der Unterscheidung der einzelnen Teilbereiche nimmt.
Die Spitzenleistung von FP8, FP16 und TP32 (wichtig!) ist auf die Tensore-Kerne bezogen und die Tensore-Kerne bei NVIDIA sind immer noch Fixed-Function-Units mit einem MAD/MAC auf eine Matrix, die Tensore-Kerne können nicht mehr, das dafür sau schnell und so kommt man hier auf eben 4000, 2000 und 1000 TFLOP/s.
Die FP64-Leistung scheint NVIDIA wiederum die Vektor-Leistung anzugeben, die dann bei 60 TFLOP/s liegt, was sich durchaus auch auch so ermitteln lässt.
Hier stand Blödsinn, man sollte sich auch mal die Whitepapers ansehen, bevor man schreibt und nicht nur die News lesen. Schande übermich!
Ändert aber eigentlich nicht soviel an meiner Erklärung, weil Teile auch stimmten. Wichtig ist, die 1000 TFLOP/s erreicht Hoper nicht bei FP32 sondern bei TF32, das ist wirklich wichtig. Das ist ein 18 Bit-Format (8 bit Range (FP32) und 8 Bit Percision (FP16).
Bei FP16 sind 2000 TFLOP/s drin, bei FP8 4000 TFLOP/s und das spricht dafür, dass NVIDIA ihre Tensore-Kerne nun primär auf Parameter mit FP16 auslegt, natürlich mit der entsprechenden Anzahl an Parametern um viele der FP16-Berechnungen durch zu führen. Halbiert man auf FP8, verdoppelt man die Leistung. TF32 muss - wegen des Datenformates - vermutlich mit 2 Takten ausgeführt werden, also kommt man auf 1000 TFLOP/s. Hier ist halt gut, dass man nur 18 Bit hat, statt 32 und damit genug Kontrollbits hat um in zwei Takten zu arbeiten. FP32 dürfte bereits deutlich einbrechen bei der Leistung und bei FP64 wird einiges an Takten drauf gehen um die Ergebnisse zu validieren, weil man einiges an Überläufen und Co kompensiere muss.
BxBender schrieb:
Also FP64 knapp 100, also viel mehr als nVidia, dafür aber dann bei FP32 nicht auch wesentlich mehr, sondern viel weniger, genau die Hälfte?
In dem Fall auch nicht ganz richtig, da NVIDIA bei den 1000 TFLOP/s ja eigentlich nicht von FP32, sondern von TF32 spricht, also ihrem Tensor-Format.
Hier könnte die Krux noch in den Matrix-Cores liegen bei AMD. Im Idealfall müsste sich bei einem Matrix-Core die Rechenleistung bei kleineren Datenformate verdoppelt. Die Frage ist, wie AMD ihre Matrix-Cores aufbaut und aktuell spricht vieles dafür, dass AMD die einzelnen Werte der Matrix auf FP64 auslegt, damit verdoppelt sich pro Schritt nach unten in den Dateiformaten die Leistung, gleichzeitig ist man aber limitiert, was die Anzahl der Parameter angeht.
AMD wählt vermutlich n*n mit der Grundlage FP64, NVIDIA wird ein n*n mit Grundlage FP16 wählen. n*n ist bei AMD dann deutlich kleiner gewählt als bei NVIDIA, daher auch diese Unterschiede.
AMD gibt relativ gut an - was ich löblich finde - wo welche Rechenleistung erzielt wird, womit man auch einen guten Vergleich ziehen kann. Matrix (erst mal mit den Tensore gleichzusetzen, ggf. sind die Matrix-Kerne von AMD aber mächtiger, müsste mal das Whitepaper mir ansehen) leistet 90 TFLOP/s in FP32 und FP64 - also wirklich FP32, nicht TF32! Vektor sind es 48 TFLOP/s, was sehr gut ist.
Die Vektor-ALUs sind in der Regel deutlich flexibler Einzusetzen als die Tensore/Matrix-Cores.
Nein, du schaust nicht falsch. Das klassische Marketing-Geblubber von Firmen schlägt hier nur wieder voll durch und wenn man nicht genau aufpasst, lässt man sich etwas blenden.
Nein, du schaust nicht falsch. Die Frage ist immer: Welche Dimension und welche Breite haben die einzelnen Werte der Matrix-Kerne.
Die Breite der Werte liegt bei NVIDIA vermutlich bei FP16, dafür aber große Dimensionen, bei AMD aktuell wohl bei FP64, dafür deutlich kleinere Dimension.
Man wird abwarten müssen, wie breit NVIDIA die Tensore-Kerne auslegt, wenn man das weiß, kann man alles weitere relativ logisch erklären.
wenn man die Rechenleistung einer einzigen Matrix-Einheit mit der eines Tensor-Cores über verschiedene Generationen vergleicht. So waren AMDs Matrix-Einheiten der ersten Generation zwar bereits deutlich schneller und von der Funktionalität breiter aufgestellt als Nvidias erste Generation der Tensor-Cores im Volta-Beschleuniger V100. Gegenüber den Tensor-Cores der dritten Generation in Ampere-GPUs sind aber auch AMDs verbesserte Matrix-Cores noch deutlich schwächer.
Naja passiv ist bei der Beschreibung der Hardware schon richtig da die Hardware nun Mal ohne aktive Komponenten kommt.
Das gesamt Kühlkonzept ist aber in der Tat am Ende alles andere als passiv.
Ansonsten: Ja, es gibt keinen offiziellen Support für RDNA und für die Consumer RDNA2 Modelle, aber Consumer sind nicht unbedingt die Leute, die auch ROCm verwenden.
Nicht unbedingt, aber das sind die Karten, welche Einsteiger eher kaufen als die Pro-Karten. Nvidia hat den Vorteil, dass CUDA ein elementarer Bestandteil der Architektur ist und somit sämtliche CUDA-unterstützte Frameworks automatisch ebenfalls auf sämtlichen Consumer-Karten laufen - mal besser, mal schlechter.
Für Data Centers ist es klar egal, aber wenn diese Hürde nicht wegfällt, werden Prototypen auch zukünftig fast ausschließlich auf Nvidia-Karten erstellt, wenn die Technologien dahinter nicht von stärkerer OpenCL-Performance profitieren.
Na ja, ROCm ist ja in weiten Teilen dafür gedacht, dass man Modelle, die man auf "NVIDIA" entwirft, auch auf AMD-Karten laufen lassen kann. Für AMD ist es jetzt nicht mehr so wichtig, wo die Modelle entstehen, sondern dass die Modelle ausgeführt werden können.
Und sein wir mal ehrlich: Die meisten Entwickler in dem Bereich, die ohnehin auf Linux arbeiten, scheren sich nicht so sehr um den offiziellen Support während der Entwicklung auf ihren eigenen Rechnern und Co, sondern für die ist dann wichtig, dass dann auf den Systemen, wenn der Code ausgeführt wird, alles passt mit dem Support.
Ich verstehe dein Argument und stimme dir da auch in weiten Teilen zu, aber ich sehe da auch aktuell die Realität und muss sagen, dass es viele eben nicht stört.
tomgit schrieb:
Nvidia hat den Vorteil, dass CUDA ein elementarer Bestandteil der Architektur ist und somit sämtliche CUDA-unterstützte Frameworks automatisch ebenfalls auf sämtlichen Consumer-Karten laufen - mal besser, mal schlechter.
Nun ja, OpenCL ist auch ein offiziellere Bestandteil der RDNA und RDNA2-Architektur und in Linux wird sogar für RDNA und RDNA2 seit einiger Zeit der ROCm-OpenCL-Part genutzt.
CUDA ist als API in dem Bereich aber aktuell so führend, dass AMD ja mit ROCm ihren CUDA nach AMD-Übersetzer geschaffen hat um den Code auszuführen. OpenCL ist ja - auch wenn das manche nicht hören wollen - tot.
Intel versucht aktuell mit ihrer OneAPI die CUDA-Dominanz zu brechen - was Intel auch dazu bewegt für AMD GPUs zu optimieren, was irgendwie zeigt, wie Dominant NVIDIA wirklich ist.
tomgit schrieb:
Für Data Centers ist es klar egal, aber wenn diese Hürde nicht wegfällt, werden Prototypen auch zukünftig fast ausschließlich auf Nvidia-Karten erstellt, wenn die Technologien dahinter nicht von stärkerer OpenCL-Performance profitieren.
Ich wiederhole kurz: OpenCL ist tot. Die Hoffnungen liegen nun ein Stückweit in der OneAPI von Intel und Vulkan Compute und wie diese beiden Schnittstellen denn längerfristig angenommen werden.
AMD geht mit ROCm einen Weg, den man in einer idealen Welt hätte nicht gehen müssen, weil die Entwickler CUDA den Finger gezeigt hätten und stattdessen OpenCL nutzen, aber so muss AMD die bittere Pille schlucken und muss CUDA weitgehend auf Radeons zum laufen bringen und das ist keine wirklich leichte Aufgabe.
Das Design von nVidia ist stark auf AI-Anwendungen optimiert, die sehr hohen Durchsatz bei niedriger Präzision brauchen. AMD hat eher für den HPC-Markt optimiert, der mehr Wert auf hohe Präzision legt. Deshalb hat AMD ja auch die Aufträge für Supercomputer wie Frontier bekommen und nicht nVidia.
Die beiden gehen sich in dem Bereich also ein bisschen aus dem Weg.