News Next-Gen-GPU: Nvidia nutzt in Zukunft auch 7 nm von Samsung

Dann sollens in 7nm mal ein paar passive Grafikkarten (egal ob Nvidia oder AMD) auf den Markt schmeissen. Immer diese überzüchteten Gamerkarten.
 
G0k4r schrieb:
[...]Wodurch ist 7 nm dann jetzt 12 nm überlegen? :confused_alt:[...]

Für dich als Kunden ist eigentlich nur relevant:
In 7nm brauchst du weniger Spannung für den gleichen Takt oder erhältst mehr Takt bei gleicher Spannung.

Alles Andere resultiert mehr oder minder daraus.

Du kannst also in 7nm eine leistungsmäßig gleichschnelle Karte bauen, wie in 12nm, die verbraucht dann aber weniger Strom.

Oder du hältst den Stromverbrauch ungefähr auf dem gleich Niveau, erreichst in 7nm aber einen höheren Takt und somit mehr fps.

Naja, oder du wählst einen Mittelweg.
(Jeweils angenommen, es gibt keine Änderungen an der Architektur, die die Unterschiede beeinflussen.)

Kannst dir ja mal den Radeon VII Test durchlesen, da hast du quasi die gleiche Karte einmal in 14nm (Vega 64) und einmal in 7nm(Radeon VII).
 
  • Gefällt mir
Reaktionen: DerMuuux, Chaos Theory und G0k4r
v_ossi schrieb:
Wie soll da der riesige 754 mm² Turing Die schon nächstes Jahr mit halbwegs brauchbaren Yields produziert werden?
Deutlich kleiner dürfte der Chip ja auch in 7nm nicht werden, bei all den Verbesserungen, die du darin noch sehen willst.
Da muss ich absolut widersprechen. Der aktuelle 12 nm-Prozess ist ein verbesserter 16 nm-Prozess, der aus Marketing-Gründen umbenannt wurde. AMD hat mit Zen 2 bereits gezeigt, wie viel kleiner das 7 nm-Verfahren ist. Gegenüber Zen+ (12 nm) liegt der Faktor etwa bei 2, was mit EUV noch einmal ein wenig überboten werden dürfte.

Für einen identischen Turing-Chip mit ursprünglich 754 mm² wären das mit EUV folglich etwa 350 mm², mit zusätzlichen Transistoren für mehr Leistung vielleicht 450 bis 500. Und das sollte auch nächstes Jahr bereits machbar sein, schließlich werden ja ohnehin viel mehr kleine Karten produziert als jene, die mit dem Vollausbau bestückt werden.

Die 3080 Ti, die Titan oder wie auch immer die neuen Flaggschiffe heißen werden, kommen vermutlich eh etwas später und werden preislich ohnehin wieder jenseits von Gut und Böse sein. Von daher halte ich 2020 für absolut realistisch, wenn nicht sogar schon fast pessimistisch!
 
v_ossi schrieb:
In 7nm brauchst du weniger Spannung für den gleichen Takt oder erhältst mehr Takt bei gleicher Spannung.

Ok, danke. Das ist eingängig :)

v_ossi schrieb:
Kannst dir ja mal den Radeon VII Test durchlesen, da hast du quasi die gleiche Karte einmal in 14nm (Vega 64) und einmal in 7nm(Radeon VII).

Du meinst sicher den auf CB hier? --> https://www.computerbase.de/2019-02/amd-radeon-vii-test/

Das mache ich mal. Danke auch dafür!
 
v_ossi schrieb:
Wie soll da der riesige 754 mm² Turing Die schon nächstes Jahr mit halbwegs brauchbaren Yields produziert werden? Deutlich kleiner dürfte der Chip ja auch in 7nm nicht werden, bei all den Verbesserungen, die du darin noch sehen willst.

TSMC & Samsung, gehen beide davon aus, das von 12-16nm auf 7nm in etwa 3x so viele Transistoren je mm² Platz haben. Demnach dürfte ein 754mm² Turing-Chip in etwa auf eine Größe von 250mm² zu bringen zu sein.

Die Leistung des 250mm² Chips wäre natürlich aufgrund der deutlich geringeren Leistungsaufnahme und der generell besseren Eignung zu höherem Takt (einer kleineren Fertigung), spürbar höher (auch ohne den Chip mit mehr Shadern zu bauen).

Und die Ausbeute sollte schon sehr gut sein. Apple produziert mit dem A12 ja schon seit 1 Jahr einen Chip, der identisch viele Transistoren hat, wie eine GTX1080. Wüsste nicht, wo da ein Problem entstehen sollte.


796152
 
Zuletzt bearbeitet:
Oneplusfan schrieb:
Warum war die 1050ti überteuert? Die Karte war durchgehend ~50€ günstiger als die RX 470 zu Release. Was dann mit den Preisen geschehen ist (va. durch Mining) wissen wir ja alle.
Erst neuerdings hat die RX 570 ein viel besseres P/L als die 1050ti/1650. Die 2 Jahre davor waren 1050ti und RX470 durchgehend gleichauf oder die 1050ti wesentlich besser was P/L anbelangt.
Nvidia hat halt im Gegensatz zu AMD nie die Preise nach unten angeglichen.
Die Mininkrise hat die RX 570 natürlich massiv verteuert, aber das auch nur weil sie entsprechend deutlich mehr Leistung hatte. Als das vorbei war, war Nvidia teurer und deutlich leistungsschwächer.
 
@G0k4r

Ja, der Stromverbrauch sinkt --> geringere Abwärme.
Chipgröße sinkt aber auch ---> weniger Fläche, um die erzeugte Wärme abzuführen.

Je nachdem was überwiegt, wird es für die Kühlung einfacher oder schwieriger.
Man kann natürlich den Chip einfach größer machen, trotz kleineren Transistoren. Einfach weiter auseinander bauen --> Chip größer, dafür teurer, weil größere Chipfläche, dadurch weniger Chips pro Wafer. Außerdem ist die Chance größer, dass ein Fehler im Chip ist wenn dieser groß ist, als wenn viele kleine Chips aus dem Wafer geschnitten werden.

Der neueste kleinste Herstellungsprozess ist immer der teuerste, meist aber auch der "Beste", wenn man fps pro Stromverbrauch will.
Dass mehr Chips auf einen Wafer passen, dämpft die höheren Produktionskosten wieder.
Eine schlechtere YIELD Rate (% an funktionierenden Chips des Wafers) steigert die Kosten wieder, weil für eine Menge x an funktionierenden Chip, mehr Wafer belichtet werden müssen. Was wiederum länger dauert und die Verfügbarkeit der Endprodukte hinauszögert.

Du siehst, das Thema ist komplexer und von vielen Faktoren abhängig, die es auszubalancieren gilt.

Was bringt dann die Belichtung mit EUV?
Es geht schneller, that's it. Ahja, man kann kleinere Strukturen erzeugen, was für zukünftige Shrinks wichtig ist.
Schon jetzt braucht man ein brutal komplexes System aus Hochpräzisionsspiegeln um so kleine Strukturen wie jetzt hinzubekommen.
EUV Laser haben eine deutlich geringere Wellenlänge und ermöglichen es, "einfacher" kleinere Strukturen zu erzeugen.
Bisher war EUV noch nicht so weit, wird aber kommen!
Wenn dies funktioniert, werden Chips mit kleinen Strukturen einfacher und deutlich schneller herzustellen sein --> Produktionskosten sinken + höherer Ausstoß an Wafern pro Stunde --> schneller mehr Chips (wodurch ja auch die Kosten sinken).

EUV soll in teilen der Prozesse eingeführt und getestet werden, bis dann irgendwann EUV only zum Einsatz kommen soll. Vermutlich ab dem 5nm process node.
Achtung: diese nm Angaben sind totaler Müll und sagen GAR NICHTS über die echten Abstände (zB Fin Pitch, Transistor Gate Pitch, usw) aus. Reines Marketing!
Eventuell noch die Gate Längen... früher zm sicher.
Außerdem wird schon lange nicht mehr planar gefertigt (da gibts wieder verschiedene Prozesse, bulk, SOI, high-K metal gate etc), mittlerweile FinFET Transistoren. Wie wird da gezählt? Die Hersteller haben die Zahlenwerte einfach skaliert, also die Flächenmäßige Verkleinerung des Chips im neuen Prozess in % auf die nm Angabe angewandt.

Zukünftig werden wohl Gate Allround FETs genutzt werden.
Irgendwann vl auch 3D Chips, mit mehreren Lagen, so wie jetzt bei NAND Flash Speicher, was bei CPUs und GPUs aber ungleich komplizierter sein wird.


Also, zum Abschluss, warum immer kleinere Fertigung? Vorteil?
Geringere Leistungsaufnahme für die selbe Leistung oder mehr Leistung mit der selben Leistungsaufnahme. Oder etwas von beiden.
Dazu die geringere Chipgröße --> Kostenvorteil. Aber durch die geringere Fläche auch auf die Kühlung aufpassen.
So vereinfacht eigentlich gar nicht so kompliziert :)

MfG
 
  • Gefällt mir
Reaktionen: Tzk, derSafran und G0k4r
@SaschaHa Zen+ zu Zen2 ist aber kein wirklich fairer Vergleich, da genau bei diesem Schritt auch der/die/das I/O aus dem Core-Chiplet geflogen und in einen eigenen Die ausgelagert wurde.

Falls das in deiner Aussage schon berücksichtigt wurde, nehme ich das zurück und bin überrascht.

@Eusterw Ich bleibe skeptisch, bis die Chips am Markt sind. Bis dahin sind das in meinen Augen größtenteils ideelle Marketingwerte. Theoretisch sicher zu erreichen, aber... nunja...

Der Vergleich von Vega 64 zu Radeon VII ist da mMn realitätsnäher. Dort wurden bei einem 14 zu 7nm Shrink 33% der Fläche eingespart. Da finde ich es etwas unglaubwürdig, wenn beim 16/12nm zu 7nm EUV Shrink die Einsparung bei 300% liegen soll.

Auch hier, ich lasse mich gerne eines besseren belehren.
 
  • Gefällt mir
Reaktionen: DerMuuux
Eusterw schrieb:
TSMC & Samsung, gehen beide davon aus, das von 12-16nm auf 7nm in etwa 3x so viele Transistoren je mm² platz haben. Demnach dürfte ein 754mm² Turing-Chip in etwa auf eine Größe von 250mm² zu bringen zu sein.

Die Packdichte ist bei den großen GPUs aber deutlich kleiner, als bei den kleinen SoCs der Mobiltelefone. Es is halt auch ein riesen Unterschied, ob man einen 5-10 Watt Chip baut oder einen 200 Watt Chip.


Sieht man schon wenn man mal einen Apple A12 Handyprozessor mit der Radeon VII vergleicht. Der A12 kommt auf etwa 83 Mio Transistoren pro mm², der ebenfalls bei TSMC im gleichen Verfahren gefertigte Chip der Vega VII kommt auf nur ca 40 Millionen Transistoren pro mm². Bei den komplexen Grafikchips ist man weit davon entfernt, was theoretisch möglich ist.

Der Große Turing Chip ist auch schon weit von de maximalen 12nm Packdichte entfernt. (24,6 Mio Transistoren pro mm²) In Der Realität wird man beim 7nm Shrink von 754mm² wohl eher auf ca. 500mm² kommen. Wenn man unter 500 kommt, wäre das schon gut. Sieht man ja auch bei der Radeon VII, die hat auch nur ca. 1/3 der Chipfläche verloren.

Bei Low Power Chips kann man natürlich die Packdichte voll ausreizen, bei GPUs wird das schwierig. Und je kleiner die Strukturen sind, umso schwerer wird es.
 
  • Gefällt mir
Reaktionen: DerMuuux
Korinthenkacker xD

Es ging um:
GPU X bei TSMC
Selber Chip
GPU X bei Samsung

Samsung = Besser
#meinemeinung.

Egal welche GPU hier verglichen wird...
ob HD3850 oder GTX 250 oder GTX-XXX oder RX-XXX
Samsung hat die bessere "Secret Sauce" wie es für mich Scheint.
 
Shoryuken94 schrieb:
Die Packdichte ist bei den großen GPUs aber deutlich kleiner, als bei den kleinen SoCs der Mobiltelefone. Es is halt auch ein riesen Unterschied, ob man einen 5-10 Watt Chip baut oder einen 200 Watt Chip.

Also bislang waren die Packdichten für SOC oder GPU immer identisch. Ich wüsste nicht, warum sich das grundsätzlich ändern sollte. Vielleicht gibt es mal einzelne Serien, die da rausreißen (vor allem, wenn man eine bestehendes Design nur shrinkt), aber über lange Sicht, sollte von 16 auf 7nm der faktor 3-4x gut zu erreichen sein (zumindest mit einem ganz neuen Design).

796167
 
  • Gefällt mir
Reaktionen: fox40phil und SaschaHa
v_ossi schrieb:
@SaschaHa Zen+ zu Zen2 ist aber kein wirklich fairer Vergleich, da genau bei diesem Schritt auch der/die/das I/O aus dem Core-Chiplet geflogen und in einen eigenen Die ausgelagert wurde.

Falls das in deiner Aussage schon berücksichtigt wurde, nehme ich das zurück und bin überrascht.
Auch das habe ich berücksichtigt, und meiner Ansicht nach spricht dieser Punkt sogar für die neue Fertigung :)

Denn bekanntlich wird der neue I/O Die noch in 14 nm (von GloFo) gefertigt, und eben noch nicht in 7 nm. Und dennoch blieb genug Platz für die CPU-Dice, um die Anzahl der Kerne für AM4 und TR4 zu verdoppeln, und das, obwohl ja auch die Architektur verbessert wurde und zum Beispiel die Integer-Pipelines (oder waren es Floating Point?) pro Kern verdoppelt wurden.

Auch auf offizieller Seite war ja oft von einer Verdopplung in der Struktur-Dichte die Rede, was sich ja in etwa mit den aktuellen Daten deckt. Von daher halte ich es für realistisch, dass wir nächstes Jahr die neue Generation Nvidia-Karten in 7 nm sehen werden. Dabei gehe ich zunächst von etwa 40 bis 60% Mehrleistung gegenüber Turing aus, damit man für 2021 noch Luft nach oben hat ;)
 
Shoryuken94 schrieb:
Der Große Turing Chip ist auch schon weit von de maximalen 12nm Packdichte entfernt. (24,6 Mio Transistoren pro mm²) In Der Realität wird man beim 7nm Shrink von 754mm² wohl eher auf ca. 500mm² kommen. Wenn man unter 500 kommt, wäre das schon gut. Sieht man ja auch bei der Radeon VII, die hat auch nur ca. 1/3 der Chipfläche verloren.
Wenn ich den gleichen Shrinkfaktor wie bei Vega annehme, dann komme ich ja bei 475 mm2 für TU102.
Kann man natürlich nicht ganz vergleichen. Der Chip sieht anders aus, der Prozess ist ein anderer...
Samsungs 7nm EUV sollte aber besser gehen als TSMCs erster Wurf.

Aber ein potentieller TU104 Nachfolger mit etwa 400 mm2, wäre schon schneller als ne 2080Ti. Letztendlich entscheidet der Preis. Ist die Fertigung teurer als die Klopper in 12 nm, wird's länger dauern. Solange man konkurrenzfähig ist und der Absatz noch stimmt. Man muss ja nicht gleich die komplette Palette neu auflegen. Man kann wie früher mit 104 beginnen und das größere Modell kommt später. Die kleinen Modelle profitieren von der Effizienz gut für den mobile Bereich.

Was aber imho auf jeden Fall 2020 kommt ist ein GV100 Nachfolger. Dort spielt der Preis eine untergeordnete Rolle. Das Teil kann teuer verkauft werden. Hier limitiert auch die TDP, ein neuer Chip in 7nm kann erheblich an Performance zulegen. Hier ist sicher eine große Nachfrage vorhanden.
 
@bensen Die Zahlen waren alle gerundet. An einen GV100 Nachfolger glaube ich auch fest 2020. Hier ist viel geld und Wachstumspotential im Markt und die reinen Fertigungskosten sind eher zweitrangig wie du sagst.


Denke auch, dass wir hier den ersten kommerziellen 7nm Big Chip sehen werden. Bei den unteren Klassen ist Nvidia aktuell ja noch nicht in Zugzwang und fährt mit 12nm noch ganz gut. Ich glaube auch wie du an eine Besinnung an die älteren Generationen.

Sprich als erstes der 7nm Flaggship zusammen mit HBM und dann einige Zeit später 7nm Consumer Karten mit GDDR6 im Bereich der 104er Chips. Mit 7nm dürfte auch wieder der 104er genug an Leistungsplus haben, so dass man den 102er zu einem späteren Zeitpunkt bringen kann, ähnlich wie bei Pascal.
 
  • Gefällt mir
Reaktionen: bensen
v_ossi schrieb:
@SaschaHa Zen+ zu Zen2 ist aber kein wirklich fairer Vergleich, da genau bei diesem Schritt auch der/die/das I/O aus dem Core-Chiplet geflogen und in einen eigenen Die ausgelagert wurde.
60 mm2 war bei zen1 4 Kerne + Cache.
Bei zen2 sind's 31.3 bei doppelten Cache.
Zen1 mit gleicher Cachemenge wäre 76 mm2. Also um den Faktor 2.4 geshrinkt. Und Verbreiterung der Kerne ist noch gar nicht eingerechnet.

VegaVII ist sicher nicht das Maß aller Dinge. Aber GPUs und CPUs unterscheiden sich stark. Und IO Krempel wird nicht viel kleiner.
 
  • Gefällt mir
Reaktionen: SaschaHa
Zurück
Oben