Der absolute Witz war, dass Alevo V70 2 Minuten auf bei der CES Keynode 2023 dargestellt wurde pure Werte herunter geklatsch. Gar nicht verucht zu erklären ws man mit dm Teil kann etc.Convert schrieb:Mich auch. Es wird nichts dazu gesagt, außer den Ausführungen auf der Webseite. Was es kann, welche Vorteile es bietet und warum man es im Porfolio und für wenn hat.
Aber auf der Messe gab es einen Showcase wo man gesehen hat dass man mit dieser Karte z. B. Bildauswertung in echtzeit machen kann. Dazu haben sie einen Server vollgepackt und viele Monitore angeschlossen
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Ein längeres Viedeo von Gigabyte zu einem Server voll mit Alevos
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Wie gesagt auf das habe ich auch gewartet. Aber mit den Datentypen passt das nicht für Large Language Models im Data Center. Die Größe der Alevo 70 scheint für andere Use Cases wie live-Analyse von Videostreams ideal zu sein.Convert schrieb:Das ist mir klar. Das CDNA 3 gebraucht wird, hab ich ja auch nicht in bezweifelt, nur fehlt mir halt der "Alevo V70" oder "Versal AI" in Groß.
Nun ist die Frage steht oder stand. Eine andere Frage ist was ist XDNA 2? Hat AMD nur die Rechenleistung hochgeschraubt oder auch den Support für FP8 eingebaut?Convert schrieb:Ah sieh an, ein Adaptive Soc auf Basis von Xilinx Versal AI für "Very large models" steht auch auf dem Plan von AMD.. Schade, dass es dazu von AMD keine Infos gab, wann dieser kommen soll, wenn überhaupt. Vielleicht dann nächstes Jahr?
Eine neue Version der AIE könnte für LLMs-Inferencing interessant sein, und dann wäre eine größere Version sinnvoll. Aber die Frage ist auch ergibt es Sinn denselben Markt mit zwei Lösungen anzugehen? Wir müssen warten was XDNA 2 tatsächlich ist, dann wird die Kristallkugel ein bisschen klarer.
Viel mehr interessiert es wie es hier mit Zen 5 sowohl auf den Desktop als auch auf dem Server weitergeht. Nach dem FAD 2022 war für mich die Frage, auf dem CCD, auf dem IOD oder als XCD? Auf den Roadmaps am FAD 2022 war überall XDNA integriert. Aber die Aussagen von David McAffe bringen mich ins grübeln.
Aktuell gibt auch andere Statements von AMD die besagen, die AI Acceleratoren gehören nicht in die CPU sondern diskret in den Server. Damit antwortet AMD auf die Strategie von Intel bei Sapphire Rapids.
Haben sich die Pläne bei AMD geändert, oder es Geschwätz weil man momentan nicht liefern kann. Natürlich wäre eine AIE zu integrieren etwas ganz anderen als den CPU-Kern mit weiteren Instructionen vollzustopfen.
Die MI210 kam auch eher still und leise hinterher.Convert schrieb:Was auch noch fehlt ist ein Nachfolger für MI210.
Es ist eine weitere GPU und muss als solches das volle Programm durchlaufen. So etwas bindet auch Resourcen.Convert schrieb:Also eine Mi310 als PCIe-Karte mit 300W. Wäre leicht realisierbar.
AMD kann das Teil nicht MI310 nennen.Convert schrieb:Einfach den Interposer halbieren, darauf zwei, statt vier IO-Dies drauf packen mit 4 statt 8 XCDs und mit 96 HBM3, statt 192 HBM3 und schon hat man die MI310 Karte mit 300W.
Als Karte mit halbierten Interposer wäre sie für AMD relativ uninteressant, ein Nischenprodukt. Falls AMD die kleine MI300 so wie die MI200 mit EFB fertigen kann, wäre sie für AMD sehr interessant weil sie für alle denen 96 GByte ausreichen eine Option bieten kann, bei der der Hauptengpass in der Logistikkette entfällt.
Die MI210 ist die MI210. Die kleine MI300 wäre die 3. Variante und nicht die 2. Variante. Auch eine kleine MI300 bringt sich nicht selbstängig auf den Markt. Und AMD muss neben der MI300A jetzt ASAP die MI300X auf den Markt bringen.Convert schrieb:Die MI210 kam im März 2022 auf den Markt. Die MI310 müsste demnach spätestens in Q2 2024 erscheinen, wenn AMD genug Fertigungskapazitäten für Advance Packing bekommt...
Die MI250X wurde in den Frontier eingebaut und dann gab es erst Mal kaum Nachfrage. Da war die MI310 als weitere Option wichtig. Laut Q3 Call erwartet AMD mit MI300 in Q1 2024 ca. 400 Millionen Umsatz. Die dritte Option hat IMO momentan keine Prio bei AMD. Wenn die MI300A und MI300X rund laufen, wird die kleine MI300 fertig gemacht.
Ich wäre überrascht wenn eine kleine MI300 vor dem 2. Halbjahr kommt.
Ergänzung ()
Es wird häufig so getan als wäre Intel bei Advanced Packing vorne dabei. Das stimmt aber nicht.Tzk schrieb:Sehe ich auch so. Wobei natürlich immer die Frage ist wie komplex ein Chip sein muss um seine angedachte Aufgabe erfüllen zu können und wie die Generationen danach aussehen.
Das große Tara das Intel um die Glasinterposer gemacht hat, sollte auch verdecken, dass Intel kein Fanout kann. Und damit hat Intel eine wichtige Technologie zwischen Substrat und Silizium Interposer gefehlt.
An Glas Interposer forschen viele und Intel ist hier ganz sicher nicht der Pionier. Aber darauf kommt es nicht an, sondern ob man mit Glasinterposer eine Massenproduktion mit guter Ausbeute hinbekommt.
Ich habe nicht gesagt dass die Situation gut für Intel ist. Ich habe gesagt es war eine gute Entscheidung.stefan92x schrieb:Ok, jetzt verstehe ich den Widerspruch zwischen uns, da bin ich tatsächlich anderer Meinung. Wenn sich Lösungen für Intel als Luftschloss erweisen, die die Konkurrenz jetzt in den Markt bringen kann, kann das nicht gut für Intel sein.
Die Resourcen die diese Projekte gebunden hätten, stehen jetzt für andere Projekte zur Verfügung. Was sich heute für 2025 als schlecht erscheint kann sich 2027 als genialer Schritt erweisen.
Zuletzt bearbeitet: