Chismon schrieb:
Was die Geruechtekueche rund um die kommenden nVidia Gaming-Grafikkarten wie der Ampere RTX 3080Ti und das Duell mit dem RDNA2 Flaggschiff von AMD/RTG angeht, brodelt es ja jetzt schon maechtig:
RDNA könnte durchaus unterschätzt worden sein. Wenn man zurück denkt zu GCN und Bulldozer, war AMD Ansatz mit wenigen DIE sowohl Consumer und HPC abzudecken. Nimmt man Bulldozer als Konzept, war die Idee ja folgende. 20% mehr Fläche eines Single Core soll 80% Performance eines fiktiven Dual Core sein. Und GCN ist am Ende nichts anders. Eine Compute Architektur mit Kompromissen um auch für Gaming herhalten zu können. AMD ist zu VLIW damals, allein da GCN weniger Treiberaufwand hat, ein großen Sprung gelungen, musste seitdem aber immer einen Kompromiss eingehen. Man denkt an Hawaii, welcher ein richtige Compute Hardware ist, mit viel Durchsatz, 512Bit Si usw. Was aber in Gaming verhältnismäßig auch viel Verbrauch bedeutete.
Wenn man jetzt auf Zen schaut, sieht man wo AMD Konzepts von einer Arch für viele Produkte geändert hat. Zen ist laut AMD skalierbar. Aber die größte Skalierbarkeit bekommt man durch den Multi Chip Ansatz. AMD ist soweit, dass sie keine Low Power Chips mehr fertigen (CATS Arch).
Jetzt kann man da schön auf GPUs ableiten. Die Strategie (auch bei NV und Intel) wird eine MultiChip Ansatz sein, auch weil moderne Fertigungen so etwas in Zukunft immer besser bewerkstelligen können. Somit hat AMD den Bruch gemacht, die GCN Arch auf zwei Arch angepasst zu den Workloads "abzuspalten". Das bedeutet gleichzeitig, dass AMD nun für RDNA und CDNA für deren jeweiligen Bereiche weniger Kompromisse eingehen muss. CDNA kann am Ende ein fettes Speicherinterface haben und mehr Shader in den CUs, währenddessen bei RDNA genau in die andere Richtung angepasst werden kann. Vllt muss AMD aktuell diese Generation deutlich mehr Chips fertigen als es bei GCN noch der Fall ist, spätestens ein paar Generationen später beschränkt sich das am Ende aber auch auf ein paar wenige Chips aufgeteilt auf CDNA und RDNA.
Mein persönlicher Paukenschlag zuletzt waren aber keine Gerüchte. Alle drei Hersteller haben mit der Regierung bezüglich Exascale Super Computer Verträge und es wurden auch drei Systeme Systeme mit jeweils AMD, Intel und NV Hardware vorgestellt.
Beim vierten System handelt es sich um El Capitan. Jetzt kann man sich die Frage stellen, wieso AMD ein Wettbewerb gewonnen hat. Wegen Epyc dürfte es wohl nicht liegen.
SaschaHa
Die Frage ist, wie RT in den nächsten Jahren in Games eingesetzt wird. Kann gut sein, dass maximal gesehen die NV Karte vorne liegt und bessere Frames liefert und was RT angeht bin ich nicht so belesen wie andere im Forum!
Aber DX 12 Ultimate dürfte aus guten Gründen DirectX Raytracing 1.1 werben.
Die Anzahl der Rays pro Pixel (Casting) kann nun dynamisch erfolgen, auch die Nachverfolgung (Tracing) und das Shading sind nun flexibler kontrollierbar. Entwickler können nun ergo feingranularer entscheiden, wie viel Last sie den Raytracing-Kernen und beim anschließenden Shading auch den ALUs aufbürden.
Und ich sehe das feiner aufteilen der Last für kommende Games als wichtig, besonders was Konsolen angeht. Wir werden sicherlich erstmals vermehrt Games sehen, die für gewisse Effekte oder Details RT verwenden.
Bis RT alte Technik vollständig ersetzt, werden wir sicherlich noch einige GPU Generationen erleben.
Kurz: Erstmals Schritt für Schritt Techniken durch RT ergänzen oder ersetzen. Ist aber auch hier nur eine Vermutung von mir.
Krautmaster
DLSS ist sicherlich das Feature kommende NV Karten. Da erwarte ich mir selbst viel. Ob AMD mit MS und deren Ansatz mithalten kann, ist die große Frage.
zur NEWs.
Also echt ein gewaltiger Chip. Ich hatte Anfangs echt meine Zweifel an 800 mm^2. Dass da 6 HBM Chips verbaut werden (obwohl ja unklar ob es am Ende "nur" 5 sind) war teils ja schon erwartet.
Ehrlich gesagt hätte ich aber bei NV bereits einen Art Dual MCM Chip erwartet, da ja vor einem Jahr bereits erste Andeutungen gab. Spannend wird es dann in der Zukunft. Ob man die Tensor und RT Cores vllt später sogar auf einen eigenen Chip auslagern kann ?
Also auf kommende Produkte in Multi Chip Design bin ich schon sehr gespannt.