Smartcom5 schrieb:
@Krautmaster Und warum nicht? Was genau spricht denn bitte dagegen?
Für mich führt in Zukunft absolut kein Weg an soetwas wie Infinity Fabric™ auch bei GPUs vorbei – da man ja eben nicht beliebig riesige Chips ewig weiter produzieren kann. Die Unmöglichkeit dessen demonstriert nVidia ja bereits schon seit etlichen Generationen … Und genau das hat ja AMD bereits angekündigt.
für mich führt an sowas wie IF auch kein Weg vorbei, imho wird es immer schwerer die Fertigung zu pushen, kleiner zu werden, billiger wird das nicht.
Deswegen ergänzte ich auch dass sicher schon alle Big Player dahingehend forschen. Ich seh ich bisher aber wenig Vorteil bei AMD, nur weil sie die aktuellen CPU Die mit IF koppeln. Es war der logische und richtige Ansatz von AMD das so zu realisieren, das zahlt sich jetzt auch aus.
Technisch ist das denke ich weniger das Problem, es muss aber frühzeitig eingeplant sein. Und aktuell haben die die Chips eher schon das Problem dass
selbst auf einem Die die Skalierung schwer nahe linear hinzubekommen ist...
Vega hat zb selbst mit sparsamen HBM SI schon
2x mehr Transistoren als
Hawaii und kommt auf ein Scaling von (im absoluten GPU Limit) von
180%, also Faktor 1,8. Dabei taktet sie aber auch noch 50% höher als der Hawaii Chip. Entsprechend schlecht ist das Scaling. Aus einer rein über Transistoren und Takt bezogenen Skalierng von 2,0 x 1,5 = 300% wird 180%.
Ich bezweifle stark dass zwei dieser Die da besser skalieren würden, eher noch schlechter.
(bei Nvidia quasi dasselbe, hier nur AMD als Beispiel)
Wäre Multi Chip Module bei GPU so der Durchbruch der da nun erfolgt ist würde AMD und auch vermutlich Nvidia schon lange direkt 2 oder mehr Die via Interposer verbinden - man hat sich bisher aber höchstwahrscheinlich aus wirtschaftlichen wie technischen Gründen für die "1-Die" Lösung entschieden.
Mit jeder neuer Fertigung und bei entsprechendem Druck der Konkurrenz wird da sicher neu abgewogen.
Ich glaube das kann man auch nur sehr bedingt mit CF / SLI vergleichen da die Sache komplett transparent als 1 Chip agieren müsste um eben besagte CF / SLI Probleme zu umschiffen.
Erkläre doch bitte einmal, weswegen genau Du das weder als „wirtschaftlich noch technisch aktuell sinnvoll“ betrachtest. Hast Du dich überhaupt einmal mit dem Gedanken beschäftigt?! Es wäre wirtschaftlich in höchstem Maße sinnvoll, dies demonstriert AMD beim Ryzen seit jetzt fast zwei Jahren. Oder willst Du dem jetzt ernsthaft widersprechen?
günstiger fertigen bringt in dem Fall wenig wenn das Resultat nicht von der Performance stimmt. CPU Kerne agieren da doch ganz anders, haben ein weit weniger verteilten Bedarf an Speicher.
Ich versuchs zu erklären (so wie es mir logisch erscheint). CPU Aufgaben haben meist ein fixes Set an Arbeitsdaten. Jeder Kern kann für sich unabhägig rechnen, bekommt den Speicher aus dem nageliegenden Bereich (deswegen gibst sowas wie Numa). Deswegen reicht da eine vergleichsweise kleine Bandbreite zum Speicher, über den aktuellen IF Aufbau bei Ryzen / Epyc realisiert das AMD auch gut. Aber auch hier gibt es schon Probleme wenn "chaotisch" Kern X über zwei andere Die auf den Ram zugreifen will. deswegen gibt es Gamemode, Windows Sheduler Probleme usw.
Und bei GPU passiert quasi genau das fortlaufend. Du hast quasi >4000 Kerne die chaotisch in den VRAM greifen wollen, mit enorm hoher Bandbreite. Latenzarm.
Genau deswegen haben weder CF noch SLI Systeme nie wie "eine GPU" agiert sondern immer versucht das Workset in der Application Layer zu trennen. Doppelte Datenhaltung (damit möglichst schnell von beiden GPU zugreifbar) und teilweise auch so dass wirklich einzelne Aufgaben, zb das Bild, gesplittet gerechnet wurde.
Ich sage nicht dass es nicht technisch gehen würde, aber solange eine einzelne Die besser funktioniert und finanziell genauso gut tragbar ist, geht man den Ansatz.
Nvidia zeigt ja gut wie hoch die Marge selbst bei ner 16nm 700mm² GPU ist. Der Chip wird dennoch kaum 250$ kosten.
Wenn ich im Gegenzug das ganze aus 2x400mm² Chips realisiert bekomme muss das aktuell nicht billiger sein, ggf ist es das dann aber in 3nm.
So etwas wie Interposer und mehrere Chips drauf gibt es nicht erst seit gestern. Auch das Verständnis von einem Bussystem dürfte bei IF nun keinen Breakthrough erreicht haben. Es hat schon seinen Grund weshalb das AMD bei CPU macht und bei GPU nicht.
Smartcom5 schrieb:
Die jeweiligen einzelnen GPU-Dies wären um Faktoren günstiger zu fertigen als der momentane Die von Turing. Skalierung wäre Unterirdisch?! Du weißt, daß AMD Crossfire deutlich lüssiger als Nvidia ihr SLI hinbekommt, oder?
ist dem so? Wie schaut es denn da aktuell aus? Also HB Bridge / NVLINK vs CF über PCIe? Haste da nen Test dazu?
Ich mein das sagt erstmal wenig aus, weil wie gesagt immernoch CF und SLI angewendet wird und das System hier nicht "einer GPU" gleich kommt.
Das wird auch mehr von dem betriebenen Aufwand in jener "Application layer" abhängen als vom GPU Design selbst.