_Aqua_ schrieb:
KI-Beschleiniger? 0x CPU-Chiplets, 8x GPU-Chiplets, extra-ja zu Cache-Chiplets
Bei der Server-APU und der Server-GPU ist der Cach-Chiplet der integrale Bestandteil, weil dieser neben dem IF quasi die Kommunikation übernimmt. Er ist hier ebenso der Bestandteil, der hier den unified Memory in dieser Form erst möglich macht.
Es gibt die Basetiles mit Infinity-Fabric und den Memory-Controllern für den HBM. Die Basetiles werden per IF verbunden und darauf dann die CPU und GPU. Eine "einfache" Lösung, die aber sehr viel bringt. Ich bin gespannt ob man "ähnliches" später bei RDNA4 oder RDNA5 sieht, wenn sie dann mehre GCDs nutzen werrden/wollen. Der Aufbau würde einiges einfacher machen.
SANDTIGER schrieb:
Bei 24GB Ram sollte es schon was bringen wenn es kein Effiziens-Märchen war da bin ich von der 7XXX Generation der Grafikkarten irgendwie ein bisschen enttäuscht.
Ja und Nein. HBM unterliegt ab manchen Punkten den gleichen Grenzen wie GDDR-Speicher und das Mehr an Leistung kommt dann primär über den Takt, der die Vorteile bei Effizienz ein Stückweit dann negiert.
Das Hauptproblem bei HBM3 ist aber, dass dieser pro GiB deutlich teurer ist - komplexere Herstellung - und man das Interface nicht belieibig verbreitern kann und auch nicht entsprechend viele Interfaces pro Chip unterbringen kann.
HBM könnte DDR und GDDR nur ablösen auf allen Feldern, wenn er günstiger werden würde. Das ist aber aktuell nicht in Sicht.
S.Kara schrieb:
Was KI angeht ist Nvidia seit Jahren vor AMD.
Ja und Nein zur gleichen Zeit. Bei der Hardware - den Tensor-Kernen - ist NVIDIA voraus. Gleichzeitig ist der KI-Markt aber in weiten Teilen nicht so abhängig von NVIDIA, wie es der HPC-Markt allgemein durch CUDA ist.
Viele denken - siehe Zitat - das NVIDIA hier "der" Platzhirsch ist, dank CUDA, das stimmt aber zum Glück nicht.
BDR529 schrieb:
All das bringt AMD leider wenig, wenn die größte Bandbreite an KI Software auf Nvidia (CUDA) zugeschnitten ist.
Nein, da erliegst du einem Irrtum. Gerade im KI-Bereich ist NVIDIA auf Softwareseite eben nicht der Platzhirsch - zum Glück. Google, Meta und Co haben das Feld von ML bereits vor NVIDIA stark beackert und haben entsprechend ihre Frameworks Hardwareagnostisch umgesetzt. TensorFlow und Co als Framework können mit verschiedenen "Treibern" versehen werden, entsprechend gibt es einen CUDA-Unterbau, aber auch einen Metal - wenn man Apple-Rechner hat - einen DirectML und Co.
NVIDIA scheint hier eine "Übermacht" zu sein, weil NVIDIA - gerade beim Marketing zu den "Consumern" alles daran setzt um eine Verbindung KI und NVIDIA herzustellen, nur Firmen wie Google, Apple, Microsoft, Meta und Co mögen keine einseitige Abhängigkeit, da sie sich damit Erpressbar machen und entsprechend gehen die da vor.
Intel arbeitet ja auch an entsprechenden API-Unterbau für TensorFlow und Co mit ihrer OneAPI. In diesem Bereich ist NVIDIA also garnicht mal so fest im Sattel, wie man durch das Marketing meinen könnte.