Bericht Nvidia Ampere: Die GA100-GPU im Vollausbau analysiert

HAL8999 SP3 schrieb:
Nein sorry diese Einschätzung teile ich nicht. 7nm Designs setzen eine gewisse Erfahrung vorraus mit dem Prozeß, da gab es sogar ein Statement von TSMC dazu... ich kann es nur gerade nicht finden. Und unterschiedliche Produktionstrassen haben die auch nicht.... wo hast Du denn das her...? Mitlerweile ist AMD ein größerer Kunde als Nvidia für die advanced Nodes (Volta war doch 12nm?) - also alles kleiner 12nm. Meine Vermutung zwischen Nvidia und TSMC hat es Meinungsunerschiede gegeben und Nvidia wollte/will mehr zu Samsung (billiger!)... nur da scheint der Prozess so einige Probleme zu haben.... Die Gerüchte sagen GA 102 kommt in 10nm Samsung? Muss nicht stimmen....

Sorry, ich meinte Ampere, nicht Volta.
7nm Designs setzen wie jeder Prozess Design Rules des Chip-Fertigers voraus. Welche Erfahrung soll denn vorausgesetzt werden?
Ich schrieb "ich nehme an sie haben unterschiedliche Produktionsstraßen". Ein Lithographiesystem kann man nicht einfach mal schnell umrüsten mit anderen Masken für andere Chips.
 
Keiner weiß wie viele 7nm Produkte Nvidia bei TSMC schon gefertigt hat ;)

Möglich dass man schon lange hier 7nm Produkte gern auch auf Kundenwunsch für Supercomputer usw fertigt.

Intel macht das zB auch so. Viele Produkte die so garnicht das Licht der Öffentlichkeit sehen.

Interessanter Bericht dazu
https://www.anandtech.com/show/1563...e-chip-that-wasnt-meant-to-exist-dies-for-you

Wenn der Prozess Nvidia optimiert ist macht man da gemeinsam schon Jahre dran rum. So ein 800mm² Chip fällt ja nicht vom Himmel.
 
HAL8999 SP3 schrieb:
Eventuell ein Missverständnis.... Ich rede von der Verdrahtung Die - Package. Wenn es ein Flip chip BGA ist dann gibt es keine bonding Drähte, bei BGA schon. Eventuell habe ich mich misverständlich ausgedrückt, da ich glaube das Package wird eher ein Flip Chip sein - ist aber auch Wurscht weil, was ich sagen wollte war: Das Produkt, also der Grafikchip ist erst fertig, wenn der Die im Package steckt. Der Sinn vom Wafer Test ist, für Dies die den nicht bestehen, brauche ich den kaputten Die nicht in ein Package stecken... So nach nach Motto ich teste den Motor eines Autos und wenn der läuft baue ich den ein. Dann teste ich die Fahrleistungen.... man kann auf dem Wafertester nicht alles testen....

Anhang anzeigen 919812
Die Dinger haben keine Bonding Drähte, die besitzen entsprechende Prozessoren schon seit zig Jahren nicht mehr. Dafür takten sie schon seit einer ewigkeit zu hoch (Antenneneffekt) und besitzen ganz einfach zu viele Anschlußstellen.
Des weiteren müßtest du ein entsprechend geschlossenes Chip Gehäuse haben um solche Bonding Drähte zu schützen. Wann hast du sowas das letzte mal bei CPUs und GPUs gesehen? Die Zeiten sind in dem Bereich schon ewig vorbei.

Im vorliegenden Fall ist es aber auch noch ein Stück weit komplizierter denn zwischen GPU und Chip gehäuse steckt noch ein Interposer mit dem HBM2 Speicher.
 
nein natürlich nicht das sind 40mb pro cluster also 280mb also 7*40
 
  • Gefällt mir
Reaktionen: andi_sco
Colindo schrieb:
Schön zusammengefasst, @Wolfgang. Danke dafür!

Was mich beeindruckt, ist wie continuierlich Nvidia jetzt die HPC-Grafikkarten in 800 mm² fertigt, während AMD das "vermutlich mit Arcturus plant". Anscheinend hat AMD da deutlich später bemerkt, dass sich im HPC-Markt (fast) alles rentiert.
...

Glaube ich nicht, denn der APU Ansatz war ja schon kombiniertes rechnen auf einem neuen Niveau, wenn auch im kleinen.

Nur, du brauchst Geld um so ein Riesenschlachtschiff zu entwickeln. Und das fehlte.
Ergänzung ()

stefan@x700pro schrieb:
...
Ansonsten ist das mehr wie eine Verdopplung, das gab es in der Vergangenheit so gut wie garnicht.
...

Doch, gab es, aber ist schon eine ganze Weile her:
ATi nvidia Vergleich_5.jpg


Damals waren die Schritte aber auch echt der Wahnsinn.
Obwohl ich 54 Milliarden auch nicht unterschätze.
 
Zuletzt bearbeitet:
Chismon schrieb:
Mit MCM Technik vor der Tür ist die Zukunft von riskanteren Großchips sowieso fragwürdig und so wie es aussieht, könnten doch Intel die ersten in dem Bereich sein, auch weil Raja Koduri - damals noch bei AMD/RTG angestellt - als erster die Idee hatte und kundgemacht hat, aber das evt. bei Frau Su nicht direkt Gehör fand und bei Intel dagegen sofort (evt. einer der Bausteine für Koduris Wechsel zu Intel) und nVidia kupfert die Idee dann mit Hopper natürlich ab und könnte wegen der größeren Ressourcen noch vor AMDs/RTGs RDNA3 GPUs (für die aktuell auch mit MCM Design gehandelt wird) auf den Markt kommen.

Ich hoffe nur Intels Ponte Vecchio schafft es als erste MCM GPU vor nVidias Hopper erfolgreich auf den Markt zu kommen, sonst rühmt sich "die Lederjacke" womöglich noch damit als erster MCM mit deren Hopper GPUs entwickelt/erdacht zu haben (auch wenn dessen Unternehmen als erstes aus Dual GPU Boards ausgestiegen ist, Chiplet Design ebenso kopiert und man erst nach Koduris Aussage wohl damit angefangen hat).

mcm gibt es schon seit den 70zigern, den aluhut kannst du also wieder absetzen ;).
 
wo genau ist der unterschied zu cpus? sind alles transistoren, falls du das noch nicht wusstest.
 
domian schrieb:
1800 Euro sind noch nicht in Stein gemeißelt. Darüber hinaus, siehe Kommentar von Shoryuken94 weiter oben. Die mögliche Power einer Ti Karte der 3000er Serie (wenn sie denn so heisst), ist nicht mehr mit einer Sweetspot-Karte wie der 980Ti zu vergleichen. Eher ist noch eine Leistungsklasse darüber angesiedelt worden, ohne das Namensschema zu überdenken (so meine Meinung).

Ja da hast recht denn seit dem GTX 480 Disaster gab es diese Sweetspotkarten so gut wie ausschließlich.
Erst vor einem Jahr oder so hätte es die 2080Ti geben dürfen, jedoch haben wir sie jetzt schon zu einem entsprechenden Preis.

andi_sco schrieb:
Doch, gab es, aber ist schon eine ganze Weile her:
Anhang anzeigen 919929

Damals waren die Schritte aber auch echt der Wahnsinn.
Obwohl ich 54 Milliarden auch nicht unterschätze.
Naja eigentlich zum letzten mal bei eben der 480GTX von 1.4 auf 3 Milliarden, Amd hatte aber zu dieser Zeit schon lange 2.1Milliarden vorher hatten deren 4890er Radeon 900 Millionen.
Nvidia ging dann dazu über diese Sweetspotkarten zu produzieren ein Release ohne Ti und der Vollausbau-Release mit Ti
 
olligo schrieb:
Ich finde es immer sehr toll von euch, dass ihr nicht wie andere Seiten auf dieses angebliche & nervige "geleake" mitaufsteigt und somit am Ende keine fake news verbreitet.
Vielen Dank für diesen guten Bericht und eure klare Linie, die ihr stets durchzieht, Jungs!

Hä ? CB veröffentlicht mit ziemlicher Regelmässigkeit auch Hinweise auf Leaks, allerdings muss man sagen das diese so failsafe gewählt sind das sie fast immer so kommen. ^^
 
nazgul77 schrieb:
Sorry, ich meinte Ampere, nicht Volta.
7nm Designs setzen wie jeder Prozess Design Rules des Chip-Fertigers voraus. Welche Erfahrung soll denn vorausgesetzt werden?
Ich schrieb "ich nehme an sie haben unterschiedliche Produktionsstraßen". Ein Lithographiesystem kann man nicht einfach mal schnell umrüsten mit anderen Masken für andere Chips.

Nur das es andere Design Rules sind und andere Libraries. Und wahrscheinlich auch andere Tools. Ein gewisser Lernprozeß ist da immer vorauszusetzen. Und was ich auch meinte war aber eigentlich -
The Effect of Design-Technology Co-Optimization (DTCO) Hier ein bischen beschrieben:
https://www.anandtech.com/show/15219/early-tsmc-5nm-test-chip-yields-80-hvm-coming-in-h1-2020


oder bei Synopsys:
https://www.synopsys.com/silicon/tcad/dtco.html

Das heisst man bekommt sicherlich sein Design aber mit Hinblick auf PPA (Power Performance Area) eventuell vermutlich nicht das beste.
Speziell für das erste Design auf 7nm sehr hilfreich. Daher glaube ich nicht das Nvidia beim ersten Design gleich den Besten Yield hinbekommt. Nur ob Nvidia nicht schon vorher Testchips gefahren hat werden wir sicher nie erfahren.

Was meinst Du mit unterschiedlichen Strassen? Für andere Prozeßnodes oder für verschiedene Designs ? Für lezteres - Äh doch würde ich sagen - in den man genau die Masken austauscht? Das machen Auftragsfertiger wie TSMC ja gerade. Wenn die Produktionstraße für z.B. für 7nm ausgelgt ist dann laufen da mal x Lot wafer für Kunde Eins 7nm Design vielleicht Apple, dann x- Lot wafer für Kunde zwei 7nm Design vieleicht AMD....schnell rüstet man da natürlich nichts um ... warscheinlich wird eher in Wochen oder Monatszeiträumen umgeswitched...Die Diffision dauert wahrscheinlich schon alleine 6-8 Wochen...
Es gibt sogar multi-Project Wafer. Da sind auf einem Wafer verschiedene Designs verschiedener Firmen. Macht man um Kosten zu sparen für kleine Firmen z.B für Testchips . Jetzt sicher nicht in 7nm aber z.B. in 40nm zum Beispiel.
 
Wadenbeisser schrieb:
Die Dinger haben keine Bonding Drähte, die besitzen entsprechende Prozessoren schon seit zig Jahren nicht mehr. Dafür takten sie schon seit einer ewigkeit zu hoch (Antenneneffekt) und besitzen ganz einfach zu viele Anschlußstellen.
Des weiteren müßtest du ein entsprechend geschlossenes Chip Gehäuse haben um solche Bonding Drähte zu schützen. Wann hast du sowas das letzte mal bei CPUs und GPUs gesehen? Die Zeiten sind in dem Bereich schon ewig vorbei.

Ich habe nie behauptet das wire-Bonding bei modernen CPUs benutzt wird. Bei BGA packages ohne flip chip schon. Du hattest von BGA gesprochen. Bei modernen CPUs und GPUs wird alles flip chip sein. Das heist Die pads sind unten nicht oben.

Bei Intel nennt man das z.B. FC-LGA775 oder FC-LGA1366 , etc nur das FC lässt man gerne weg, weil selbstverständlich.

Bonden nennt man das auch, wenn man bei Flip Chip Packages den Die mit dem Package verbindet, auch ohne Draht. Und wie hoch CPUs takten ist für die meisten Pins ziemlich egal, lediglich für die high Speed IF pins ist die Frequenz hoch. Antenneneffekte gibt es wohl bei offenen pins bzw pads, ich glaube nicht das das ein Problem ist. Die kann man ja auf VDD oder Ground legen. Der Grund für flip chip ist einfach das man bei 1000 pins das mit wire bonding und einem normalen IO-Ring (also pads am Rand des Dies) nicht mehr hin bekommt.
 
bettsi schrieb:
Dafür hat man sich, vor garnicht all zu langer Zeit, Highend Systeme inkl. bester Graka gebaut. Verrückte Entwicklung. Aber solange es genug gibt die solche Mondpreise bezahlen.

Jau, aber AMD kann seit der R9 290X nicht mehr effektiv gegen Nvidia Anstinken (Im Absoluten High end bereich)....was soll man machen?
Zumal AMD eben immernoch Treiberprobleme mit sich bringt.
matty2580 schrieb:
Einen Faktor unterschätzen viele, die neuen Konsolen.
Rein aus P/L-Sicht wirken die wie ein Superschnäppchen gegenüber aktueller PC-Hardware.
Das wird auch bei Nvidia nicht spurlos vorbeigehen.

AMD kann das egal sein, da sie entweder über die neuen Konsolen, oder über PC-Komponenten die Endkunden erreichen werden. Nvidia dagegen ist nicht in so einer starken Position, und muss versuchen dass über andere Sparten auszugleichen.
Solang die Konsolen kein M+T Supporten (Und nicht nur bei 5 spielen in 8 Jahren), sowie nur 30FPS (Und danach sieht AC Valhalla aus) Liefern wird für mich und viele andere die Konsole keine Option sein...und das wird nicht der einzige Titel sein^^

Ich könnte wetten dass diesmal der GPU Part Limitiert da zu oft 4K anvisiert wird, während bei den Aktuellen Konsolen der CPU Part schon von anfang an ausm Letzten loch gepfiffen hat. Drum kann man mit nem 2500K immernoch die meisten games mit 60fps Zocken (Zumindest Crossplay Titel, nich Heavy RTS)
 
Zurück
Oben