Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Radeon Instinct MI100: CDNA soll am 16. November mit Arcturus-GPU debütieren
Noch bevor die Radeon-RX-6000-Serie auf Basis der neuen RDNA-2-Architektur, die am 18. November in Form der Radeon RX 6800 und 6800 XT in den Consumer-Markt startet und am 8. Dezember mit der 6900 XT abgerundet wird, sollen am 16. November HPC-Profis mit der Radeon Instinct MI100 („Arcturus“) auf CDNA-Basis bedient werden.
Ich frage mich dabei aber immer wie sich der Marktanteil von Cuda zu OpenCL verhält? Nvidia scheint da recht viel zu machen und von OpenCL Entwicklung bekommt man nichts mit.
Hat mich schon gewundert wo CDNA bleibt, da war es die letzte Zeit ziemlich ruhig. Ich bezweifle aber, dass die Karten gleich zum 16. im Verkauf stehen werden, sondern denke eher, dass es die Vorstellung ist.
Die MI100 sollte weniger ueberraschen denke ich. Zumindest wenn AMD sein Namensschema beibehaelt. Ich frage mich aber was hinter der V620 und V640 verbirgt. Mal schauen ob das extra Karten fuer ein spezielles Einsatzszenario sind.
konkretor schrieb:
Mal sehen ob sie fetten HBM Speicher drauf Schnallen für den Hardware pr0n
Das wuerde mich ehrlich gesagt wundern. Ja, man schmeisst alles was mit Video Output zu tun hat raus, aber wenn man mehr ALUs unterbringen will braucht das trotzdem Platz.
@dasbene AMD baut ihren eigenen Stack mit ROCm auf. Basiert zwar auf OpenCL, aber sie erweitern es. Laeuft nicht auf Windows, aber das ist ziemlich egal fuer Data Centers.
Super, dass sie die HPC-Chips jetzt separat weiterentwickeln. Die selbe Architektur für Gaming mitnutzen ist leider immer ein schlechter Kompromiss gewesen. Die Rechenleistung war zwar immer sehr hoch, kam aber in Spielen nicht an. Zudem erbten die Modelle dann immer die zu große Architektur und damit einen verhältnismäßigen Stromverbrauch oder nicht sinnvoller Speicher (HBM, von PreisLeistungVerbrauch gesehen)
Umgekehrt würde man jetzt sinnlose Raytracing-Einheiten mitschleppen und schlechte GPGPU-Leistung bei hoher Genauigkeit bekommen, wenn man die RDNA-Basis für die HPC-Karten verwenden würde.
Sinnvoller Schritt also. Gut, dass man sich das jetzt wohl endlich mal leisten kann, dass man zwei Architekturen parallel entwickelt.
Zudem noch ein großes Plus:
Sollte die Spielearchitektur (RDNA) irgendwann ausgereizt und noch kein Nachfolger fertig sein, kann man von den HPC-Chips eventuell wieder eine Spielekarte ableiten, falls sich diese Architektur besser als gedacht weiter entwickelt hat.
Zumindest als Übergangslösung könnte sowas durchaus eine gute Notreserve in der Hinterhand sein (vgl. Intels Core-Architektur, die auch nur auf einem aufgebohrtem Pentium 3 basierte und die Rettung war, als sich Pentium4 (Netburst) als Sackgasse erwiesen hatte)
Ich vermute das AMD diesen Schritt wegen Entwicklungskapazitäten oder aus Budgetgrümdem gegangen war. Mittlerweile steht man ja finanziell besser da und kann sich nun leisten rdna und cdna parallel zu entwickeln. Profitieren tun davon alle, weil endlich ein richtiger gegner für nvidia wieder da ist.
Sollten sich aber die 19 Milliarden Transistoren bewahrheiten, wären auch die 420mm² gar nicht so unwahrscheinlich. Immerhin ist die alte MI50 auch nur 335 mm² groß und hatte schon 13 Milliarden Transistoren.
Gerade bei einigen Chips, vergisst man manchmal, wie groß der Cache wirklich ist. Bei GPUs für Compute, ist der natürlich deutlich kleiner.
Niemand würde eine GPU bauen, bei der 50% der Fläche für Cache verballert wird (wie bei klassischen CPUs).
Trotzdem ist die AMD Karte vom Chip her, eher "schnuckelig". Schnell wird sie trotzdem, sonst würde man sie nicht bauen.
Das wuerde mich ehrlich gesagt wundern. Ja, man schmeisst alles was mit Video Output zu tun hat raus, aber wenn man mehr ALUs unterbringen will braucht das trotzdem Platz.
Ich meine man redet bei Big Navi von 500mm2 und etwa 75 mm2 davon der neue Cache. Der ja bei HBM eig nicht nötig da dieser genug Bandbreite hat. Kommt ja etwa hin da noch etwas mehr wegfällt aber CDNA ggf wiederum etwas mehr Platz pro Einheit braucht. RT Kram entfällt sicher auch.
ich kenne die genaue Architektur der RX6000er ja noch nicht, aber durch den riesigen Cache dort, wird da der Anteil schon beträchtlich sein.
Cache hat zumindest den Vorteil, dass er vom Aufbau recht primitiv ist und in der Herstellung seltener Probleme auftreten als bei den Rechenkernen. Das steigert die Yields trotz hohem Flächenverbrauch
Nein, die Entscheidung ist nach dem "Flop" Vega gefallen. Weil man da endlich die richtigen Leute in der GPU Sparte an die richtigen Stellen gesetzt hat [bzw. Koduri vor die Türe]
Die Entscheidung war eigentlich schon lange überfällig... Aber hey immerhin vor NV gemacht! Und die werden folgen müssen in der Zukunft...
Da scheint jemand noch nie was von Novideos DGX A100 gehört zu haben.
Im Gegensatz zu den Bamperes (= Ampere für Bauern) wird der in 7nm bei TSMC gefertigt und kommt mit 40GB HBM2.