Thanok schrieb:
Ich habe mir mal gerade die Packdichten angeguckt... TSMCs 7nm Prozess bringt beim GA100 54,2Mrd Transistoren auf 826mm² unter, das sind 65,6 Millionen Transistoren pro mm².
Samsung bringt es beim GA102 auf gerade mal 44,1 (28,3Mrd auf 642mm²). In TSMCs 7nm würde der GA102 gerade mal 431mm² groß sein.
Allerdings weiß ich nicht ob das a) den höheren Preis rechtfertigt und
b) Bei der Taktfreudigkeit und Leistungsaufnahme passt
Nur ist die Packdichte nicht alles bei solche Chips und gerade wenn du auf Takt als auch Leistungsaufnahme gehen willst, sind zu dicht gepackte Prozessoren alles andere als gut.
AMD hat lange Jahre per Software die Chips optimieren lassen, die alle auf Packdichte ausgelegt waren und am Ende war es alles andere als optimal, was Leistungsaufnahme und Takt anging. Die Navi21 haben nun auch »nur« 26,8 mrd. Transistoren auf 519 mm² und kommen damit auf knapp 52 Millionen Transistoren pro mm².
Je feiner die Strukturen, umso höher die Wahrscheinlichkeit für Leckströme und entsprechend wird in diesem Bereich dann gerne mal etwas mehr Sicherheitspuffer zwischen Schaltgruppen gelassen.
.Sentinel. schrieb:
Dir ist schon klar, dass nvidia das 4- Fache des Umsatzes von AMD schiebt?
… es ist irrelevant für TSMC ob NVIDIA den vierfachen Umsatz von AMD macht oder nicht. Relevant für TSMC ist es, wer wann welche Mengen bestellt und was das Unternehmen bereit ist zu zahlen.
Ansonsten stimmt es aber nicht so ganz, was du hier als Zahlen nennst: NVIDIA 4,8 mrd. $ gegen 2,8 mrd. $ von AMD im gleichen Quartalszeitraum. Kein vierfacher Umsatz, sondern gerade mal x1,7 und auch auf das Jahr bezogen steht kein vierfacher Umsatz auf dem Plan: 14 mrd. $ gegen 8,5 mrd. $ und damit x1,64.
Klar, NVIDIA ist vom Umsatz verglichen immer noch größer als AMD, keine Frage, aber AMD holt hier auch langsam auf, aber wie gesagt für TSMC ist es irrelevant ob NVIDIA noch den doppelten Umsatz macht oder nicht, in solchen Geschäftsbeziehungen kommt es da auf ein paar andere Sachen an.
Umsatz ist immer eine nette Kennziffer, wird aber gerne überbewertet.
Rockstar85 schrieb:
Nividia und bessere Architektur?
Ach, auf sowas würde ich garnicht mehr eingehen. Genau so wie sich - auch dank Igor - die Mär hält, dass ja Navi21 zu wenig Bandbreite hat und der Cache es ja nicht kompensieren kann.
Dabei zeigen fast alle Tests - selbst in 4k - dass mehr RAM-Takt nicht proportional oder gar überproportional die Leistung ansteigen lässt, sondern unterproportional.
Ich habe ja bereits zu Turing als auch Navi mal erläutert, warum AMD mit nominell weniger Shader nun die gleiche Leistung bringt und auch bei Ampere und warum Ampere erst mit größeren Auflösungen zulegen kann. Einfachste Erklärung: 2 * 64er-Vektoren lassen sich in 4k besser füllen. Ampere ist einfach »zu« breit pro SM in den niedrigen Auflösungen.
Ansonsten verfolgen NVIDIA als auch AMD zwei unterschiedliche Ansätze, was ihre Architekturen angeht. NVIDIA arbeitet heute mit relativ einfachen und dedizierten ALUs für ihre Aufgaben. Einmal die Shader, die über zwei Datenpfade in 4 Tiles zu je 16 Stück angesprochen werden. Da über zwei Datenpfade angesprochen wird, kann man halt 16, 32, 48 oder 64 Werte pro Datenpfad berechnen, eben immer 2. Dazu kommt halt für die Tensor-Cores ein 3. Datenpfad. Damit kann man auf einer SM bei NVIDIA 3 Berechnungen zur gleichen Zeit laufen lassen. 2 * 64-FP32/INT32 + 1 * Tensor-MADD. Das ist aber primär ein theoretischer Vorteil. Auch das bei NVIDIA die »RT-Cores« asynchron arbeiten können, ist primär ein theoretischer Vorteil. Datenabhängigkeit innerhalb eines Shaders (Programm) kann man halt nicht einfach so umgehen.
AMD geht hier zum Teil - auch weil sie es müssen wegen Patenten - einen anderen Weg. AMD baut aktuell ihre Vector-ALUs aus und das bietet sich ja auch an. Bereits mit RDNA2 ziehen bestimmte Funktionen für Deeplearning ein und eine Vec32-ALU um Schaltungen für ein Tensor-MADD zu erweitern ist nun auch nicht mehr so schwer. Nachteil dabei ist halt, dass bei AMD pro »CU« weiterhin dann nur 2 Berechnungen zur gleichen Zeit möglich sind, aber das ist abseits von hochoptimierter Software eben ein theoretischer Nachteil.
Lange Rede kurzer Sinn: NVIDIAs Architektur ist weder besser noch schlechter als die von AMD, sondern anders. NVIDIAS Ansatz mit den dedizierten Datenpfaden für jede Berechnung hat Vor- und Nachteile. Auch die sehr breiten Datenpfade bei NVIDIA haben ihr Vor- und Nachteile. AMDs Ansatz ihre Vec32 zu erweitern als auch die kleineren Datenpfade haben ihre Vor- und Nachteile. AMD hat es mit ihren Vec32-ALUs und der Umstellung auf Wave32 wesentlich leichter ihre ALUs auszulasten. Gerade in 1080p und 1440p kommt das AMD zugute und bei 4K ist es auch nicht wirklich von Nachteil. NVIDIAs »breiter« Ansatz hat in 1080p und 1440p seine Probleme, weil durch die zwei breiten Datenpfade einfach mal ein Datenpfad auch gerne relativ leer ausgeführt wird. Gleichzeitig kann Ampere aber ab 4k sehr wohl die Rechenleistung besser auf die Straße bringen.
Rockstar85 schrieb:
In welcher Realität ist das denn? Nur weil Nvidia einen dedizierten Weg für RT geht, ist die Architektur nicht besser
Auch AMD geht ja hier einen dedizierten Weg, nur dass hier der Shader mehr »Kontrolle« ermöglicht. AMD hat das, was bei NVIDIA der RT-Core ist, in zwei Teile erlegt: Die TMU übernimmt die Suche im BVH-Baum, der RA berechnet dann den Schnitt. Vereinfacht -
@Colindo hoffe ich habs richtig im Kopf - der Shader fragt die TMU nach ein Polygon, bekommt zurück, ob etwas gefunden wurde oder nicht und kann dann entscheiden, ob der RA dann berechnet, ob der Strahl das Polygon trifft. Der RT-Core macht beides und genau das ist halt der Punkt.
Auch hier sprechen wir jetzt von theoretischen Vor- und Nachteilen: AMDs Ansatz ist flexibler und lässt sich feiner steuern, was am Ende, wenn man es richtig macht, Leistung bringen kann. NVIDIAs Ansatz wiederum ist »kompletter«, wird jedoch bis zum Ende ausgeführt.
Beides hat Vor- und Nachteile und beides muss man auch in den Shadern beachten. Und ja, DXR ist der gemeinsame Standard, man darf aber aktuell eben nicht vergessen, dass quasi alle aktuellen RT-Spiele quasi auf Turing entwickelt wurde und man damit primär erst mal den Ansatz von NVIDIA kannte und klar sind die Spiele in dem Fall auf NVIDIA hin optimiert. Erst jetzt mit Navi2x können die Entwickler mit AMDs Ansatz arbeiten und die Eigenheiten lernen.
Genau so wie die Entwickler nun mit Ampere arbeiten und auch hier muss man halt sagen, dass auch hier die Entwickler mit der Zeit lernen werden, wie sie mit den 2 * 64 ALUs in einer Ampere-SM umgehen müssen.
Man darf sicher keine Wunder erwarten, sowohl Navi als auch Ampere bieten aktuell sehr viele Möglichkeiten und bei beiden liegt noch ein Teil des Potenzials brach!