News AMD Instinct MI200: Multi-Chip-GPUs mit bis zu 47,9 TFLOPS, 128 GB und 560 W

1636391755816.png




Mein 5120x1440 Pixel Monitor läuft bis zu 240Hz... aber meine arme 6800XT kriegt das einfach nicht hin. (Und nun kommt mir nicht mit so nem Schwachsinn wie Auflösung verringern oder Details reduzieren!)

Wenn die das wirklich auch für die Gaming GPU's bringen wollen (und das hoffe ich doch stark, DX12 MultiGPU wurde viel zu lange tot in der Ecke liegen gelassen) dann kann sich nVida seine Performance Krone abschminken.
ist ja eigentlich ganz nett das AMD und Nvidia momentan ähnliche Performance haben. Aber AMD's Marktanteil ist immernoch viel zu tief. Der darf gern auf 50% steigen, mehr muss auch nicht sein, aber so schön hart umkämpfter markt in dem sich keiner was schenkt ist für den Kunden einfach das Beste.


Im Server/HPC markt wo sowieso tonnenweise GPU's zusammen arbeiten ist das ja kein neues Prinzip.
Nur das halt nun 2 GPU's ein PCB teilen. Wenns ganz effizient gemacht wird hat man nicht mal PCI-E Bandbreiten probleme weil die GPU's RAM Teilen dürfen und somit als eine erkannt werden.
Die Betreiber wirds aber natürlich freuen.
Besonders bei System die extrem GPU Lastig sind kann man sich so 50% der CPU's sparen.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, Kommando, Makso und eine weitere Person
whynot? schrieb:
Die Performance-Zahlen sind mal ne Ansage, ist das der Zen2/3-GPU Moment für Nvidia?

Warum sollte es? Intel ist primär durch massive, jahrelange Fertigungsprobleme in den eigenen Fabs beim 10nm Prozess ins Hintertreffen geraten.
Wäre bei Intel alles am Schnürchen gelaufen (jaja, ich weiß... hätte/wäre/wenn usw. 😉 ), dann wäre Zen bestenfalls "ganz nett" gewesen, aber immer noch keine Konkurrenz zu Intel, wenn man dort, wie ursprünglich mal geplant, 10nm in 2016 und 7nm in 2019 auf die Kette bekommen hätte.

Ein ähnliches Szenario ist bei nVidia nicht zu erkennen. nVidia haben keine Fertigungsprobleme, durch die sie zurückgeworfen werden könnten. Gerüchten zufolge wird es bei nVidia eine Zweiteilung geben. Der professionelle Hopper Chip (TSMC 5nm) wird ebenso ein Multi-GPU Kandidat, während die consumer GPU Lovelace noch ein Monolith werden wird.

Es ist durchaus möglich, aber mMn doch recht unwahrscheinlich, dass nVidia hier ins Hintertreffen geraten werden. Die Erfahrung mit Zen 1 hat gezeigt, dass Chiplets ihre Tücken haben. Es scheint unrealistisch, dass AMD vom Start weg bei den consumer GPUs alle Latenzprobleme usw. im Griff haben werden und dass die Skalierung in Games von Anfang an problemlos funktionieren wird.

Es wird seine Gründe haben, warum nVidia erst in der Generation nach Lovelace im Konsumerbereich Multi-GPU einführen wollen.
Bisher hat nVidia eigentlich immer fundierte und sinnvolle Entscheidungen für ihre Produktlinien getroffen. Man erinnere sich an HBM, als die AMD Fans schon lauthals frohlockten, dass nVidia jetzt endgültig plattgemacht werden, weil die Idioten noch auf veraltetes GDDR-RAM setzen. Nun ja... :D

Auf jeden Fall -wenn die Gerüchte denn stimmen- könnte es nach langer Zeit endlich mal wieder etwas spannend in der nächsten Generation werden, wenn AMD und nVidia bei gleicher Fertigung (vermutlich TSMC 5nm) tatsächlich mit völlig unterschiedlichen Ansätzen im Konsumerbereich antreten werden. Die von vielen erhoffte Vernichtung nVidia's sehe ich aber noch nicht ganz bildlich vor mir.
 
  • Gefällt mir
Reaktionen: Affenzahn, iamcriso und goldeye
stefan92x schrieb:
@Matthias B. V. Existiert denn schon die dafür nötige High Power Variante von N5? Bislang war davon ja noch nichts zu sehensoweit ich weiß?
Ja sowas hatte ich mir auch gedacht. Man hätte aber sicher N5P nehmen können.

Vermutlich liegt es an 3D Stacking für N5 dass das noch nicht soweit ist da man ja selbst für N7/N6 erst jetzt in Serie geht.
 
RogueSix schrieb:
Es ist durchaus möglich, aber mMn doch recht unwahrscheinlich, dass nVidia hier ins Hintertreffen geraten werden. Die Erfahrung mit Zen 1 hat gezeigt, dass Chiplets ihre Tücken haben. Es scheint unrealistisch, dass AMD vom Start weg bei den consumer GPUs alle Latenzprobleme usw. im Griff haben werden und dass die Skalierung in Games von Anfang an problemlos funktionieren wird.
Sehe ich genau umgekehrt, gerade die Erfahrung, die AMD mit Zen1, Zen2 und Zen3 gemacht hat, genau wie mit dem Infinity Cache in RDNA2, dürfte ein enormer Vorteil für die MCM GPUs sein, den Nvidia noch nicht hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DirtyHarryOne, ThePlayer, iron_monkey und 11 andere
Haldi schrieb:
Mein 5120x1440 Pixel Monitor läuft bis zu 240Hz... aber meine arme 6800XT kriegt das einfach nicht hin. (Und nun kommt mir nicht mit so nem Schwachsinn wie Auflösung verringern oder Details reduzieren!)

Schon wieder ein mäkerer der Hz mit FPS gleichstellt.
Dir ist schon bewusst das ein Finger nur auf ca 8-10 FPS reagieren kann? Der rest sieht einfach nur angenehmer fürs Auge aus
 
Zuletzt bearbeitet:
Unglaublich, was AMD in den "Lisa Su"-Jahren auf die Beine gestellt hat, das ist eine großartige Leistung.
 
  • Gefällt mir
Reaktionen: s0UL1, DirtyHarryOne, ThePlayer und 13 andere
minimii schrieb:
Yeah.
Das aufmacher Foto ist mega.

Anhang anzeigen 1143528

"Ich mag sie ja :)

Aber das Ding ist riesig" Es tut mir so leid, aber ich kann nicht anders.... "that's what she said..." .
Ansonsten absolut beeindruckend was AMD da derzeit wieder auf den Markt wirft. Wie hoch sind eigentlich mittlerweile die R&D Kosten? Die bringen ja wirklich ständig irgendwelche Innovationen auf den Markt.
 
Wahnsinn die Präsentation, da hat AMD gut vorgelegt, nVidia ist Morgen dran wenn ich nicht irre? AMD wird immer selbstbewusster. Spannende Zeiten die wir durch ein Konkurrenzfähiges AMD erleben dürfen. Hut ab was Frau Su aus dem Laden gemacht hat, das kann man gar nicht oft genug sagen.
 
  • Gefällt mir
Reaktionen: goldeye und Cruentatus
Taxxor schrieb:
Sehe ich genau umgekehrt, gerade die Erfahrung, die AMD mit Zen1, Zen2 und Zen3 gemacht hat, genau wie mit dem Infinity Cache in RDNA2, dürfte ein enormer Vorteil für die MCM GPUs sein, den Nvidia noch nicht hat.

Nö. CPUs ungleich GPUs. Äpfel sind keine Birnen. Das kann man absolut nicht vergleichen. Zudem ist die Aussage Unsinn, da nVidia ja schon lange genauso an Multi-Chip Designs forschen und mit Hopper dann wohl auch die erste Generation an den Start bringen werden. Die Erfahrung hat nVidia also sehr wohl, nur bisher eben "hinter den Kulissen".

Wäre das ganze Chiplet-Design so easy übertragbar von CPUs auf GPUs, dann hätte AMD ja schon zu Zen 1 oder spätestens Zen 1 Refresh Zeiten Multi-GPU einführen können, um nVidia zu vernichten. Scheint wohl Gründe zu geben, warum das bisher noch nicht so funktioniert hat mit der Vernichtung. Die GPU-Welt ist nun mal eine komplett andere Hausnummer als CPUs.

EDIT: Was den Infinity Cache betrifft... hast Du den Artikel überhaupt gelesen? Bei diesen GPUs fehlt der Infinity Cache komplett. Wie gesagt... CPUs ungleich GPUs... und ob/was der Cache bei den Consumer-Chips dann bringt, wird man abwarten müssen. Es spricht aufgrund des Weglassens von Cache bei den Pro-GPUs viel dafür, dass dort eine mögliche Schwachstelle liegen könnte (Latenzen usw.).
 
Zuletzt bearbeitet:
RogueSix schrieb:
Nö. CPUs ungleich GPUs. Äpfel sind keine Birnen. Das kann man absolut nicht vergleichen.
Zumindest der Infinity Cache von RDNA2 wurde vom Design Team von Zen entworfen, der Austausch zwischen CPU und GPU Design findet also schon statt(das was Nvidia eben fehlt).
Dass die CPU Entwicklung bei AMD sich nicht deutlich auf die MCM Entwicklung der RTG auswirkt, halte ich für sehr unwahrscheinlich.

RogueSix schrieb:
Wäre das ganze Chiplet-Design so easy übertragbar von CPUs auf GPUs, dann hätte AMD ja schon zu Zen 1 oder spätestens Zen 1 Refresh Zeiten Multi-GPU einführen können, um nVidia zu vernichten.
Zen2 waren die ersten CPUs, die Chiplets eingesetzt haben.
Zudem scheitert es bei MCM auch im Consumer Markt an der Größe der Chips, zu Zen1 Zeiten mit 14nm wäre das sowieso nicht möglich gewesen.

RogueSix schrieb:
EDIT: Was den Infinity Cache betrifft... hast Du den Artikel überhaupt gelesen? Bei diesen GPUs fehlt der Infinity Cache komplett. Wie gesagt... CPUs ungleich GPUs... und ob/was der Cache bei den Consumer-Chips dann bringt, wird man abwarten müssen. Es spricht aufgrund des Weglassens von Cache bei den Pro-GPUs viel dafür, dass dort eine mögliche Schwachstelle liegen könnte (Latenzen usw.).
Eher CDNA ungleich RDNA, dank HBM2e braucht man den Cache hier auch nicht, bei RDNA wird es aber kein HBM geben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen, Smartbomb, Balikon und 9 andere
owned139 schrieb:
Wie kühlt man 500W passiv? :freak:
so wie immer, Luftstrom da der Serverraum ee ohne direkten Arbeitsplatz ist stört die Lautstärke kaum 😅
 
RogueSix schrieb:
@Taxxor OK, dann kann nVidia ja morgen die Insolvenz bekanntgeben, weil sie hoffnungslos abgeschlagen sind.
Wer hat das behauptet?

Es ging doch nur um die Tatsache, dass AMD mit MCM durch die CPU Entwiclung einfach mehr Erfahrung hat und RDNA3 daher nicht vergleichbar mit den ersten Chiplet CPUs ist, da man viele der möglichen Tücken bereits kennt.
Das ist mMn der Grund, weshalb Lovelace noch monolithisch ist.

Es ging in dem von mir zitierten Part doch um RDNA3 vs Lovelace, das entscheidet sich nicht morgen.
Und über die Leistung hab ich sowohl für CDNA2 als auch für RDNA3 absolut nichts gesagt.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, s0UL1, DirtyHarryOne und 8 andere
Viel interessanter dürfte doch sein wieviel MH/s so ein Modell den liefern wird.
 
t3chn0 schrieb:
Ansonsten absolut beeindruckend was AMD da derzeit wieder auf den Markt wirft. Wie hoch sind eigentlich mittlerweile die R&D Kosten? Die bringen ja wirklich ständig irgendwelche Innovationen auf den Markt.

Bislang überschaubar im letzten Quartal bei 765 Millionen Dollar. Allerdings von 442 Millionen in Q1 2020 schon fast verdoppelt.
 
  • Gefällt mir
Reaktionen: MORPEUS
minimii schrieb:
Aber das Ding ist riesig
Meine intuitive erster Eindruck bei diesem Bild war: das sieht nach Din A7 aus.

Bei solch großen Chips werde ich immer skeptisch. Okay, dank Chiplet Design halten sie die Probleme in der Fertigung klein, aber im Bereich der Kühlung? Ich hoffe sehr, dass das so wie geplant aufgeht!
 
Haldi schrieb:
DX12 MultiGPU wurde viel zu lange tot in der Ecke liegen gelassen
Ich bezweifle, dass da noch groß was kommt. Wieso sollte sich ein Entwickler die Mühe machen, das zu implementieren?
Wenn AMD das wie erwartet umsetzt sieht das System aber eh nur eine GPU. Alles andere könnten sie für Gaming gleich wieder wegpacken. Alleine schon weil es für alle älteren Spiele nichts bringt.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, Apocalypse und stefan92x
borizb schrieb:
Alle denken an den Hype, ich denke an den VSA-100
Aber der war ja auch nur mit der Voodoo 5500 im Einsatz, von einem Unternehmen, welchem die Kohle für den Feinschliff fehlte. Ansonsten wären solche Lösungen vermutliche schon seit 20 Jahren verbreitet...
 
Zurück
Oben