ZeroZerp schrieb:
Schau Dir die neueren Engines an und wo sie sich hinentwickeln. Wenn genau eine Entscheidung von NVIDIA zu 100% für alle Szenarien (Rasterbasiert/RT) die Richtige war dann die Möglichkeit eben Int+FP Parallel ablaufen lassen zu können.
Ich kenne die Möglichkeiten der neueren Engines und weiß auch wohin sie sich entwickel. Ich hab mich da vielleicht gerade etwas zu ungenau ausgedrückt, aber was du da schreibst ist jetzt zu pauschal und da auch falsch.
In GCN waren die einzelnen Vektoreinheiten schon recht flexibel und auch Kontextlos, so dass in einem Shadercluster zum Beispiel 3 der 4 Vektoreinheiten FP32-Berechnungen durch führen konnten, währen eine sich um die INT32-Werte kümmerte.
Pascal war da etwas unflexibel, wenn in den Shader auf FP32 ausgelegt wurden, dann mussten alle erst mal die FP32-Befehle aus führen, die INT-Befehle kamen danach. In soweit ist es also schon richtig, dass nVidia hier nun die ermöglicht parallel die INT32-Befehle auszuführen.
Aber ist es wirklich der "bessere" Weg für alle möglichen Datentypen bei nVidia gesonderte Recheneinheiten zu nutzen? Klar, auf den ersten Blick ist es toll, auf den zweiten Blick steigt aber der Verwaltungsaufwand wieder an und es könnte passieren, dass man den Shader-Block eben nicht mehr so ausgelastet bekommt, wie man möchte.
Im Endeffekt ist das aber eine "Implementierungsfrage". Welcher Weg jetzt besser ist, also flexible Vektoreinheiten wie bei AMD, oder die recht staren INT und FP-Einheiten bei nVidia, das kann man so nicht sagen, denn aktuell sind die "Shader-Blöcke" von beiden Grafikkarten am Ende gleich stark. (Den 1% zu Gunsten RDNA lassen wir mal bei CB unter den Tisch fallen.)
Hier wird es sich zeigen, aber GCN war bereits massiv flexibel, was seine Vektoreinheiten angeht. Das sieht man auch daran, dass Vega64 gegen den alten Konkurrenten in neuren Spielen auch besser wurde.
ZeroZerp schrieb:
Rein technisch ist das jedoch abzusehen, weil gleichzeitiges Int+FP das berühmten "fine wine"-Potenzial in sich birgt.
Gegenüber Pascal auf jeden Fall, das war aber eine spezielle Schwäche von Pascals und der Vorgängerkarten, keine Schwäche der GCN und nun auch RDNA.
Das Potential ist primär den eigenen Karten Vorgängern gegenüber geben. Nicht der Konkurrenz gegenüber. Das liegt aber - wie ich dargelegt habe - auch in den Unterschiedlichen Herangehensweisen von nVidia und AMD bei den Shadern, nach außen hin sind zwar ein paar Eckdaten gleich, aber darunter wird es lustig. ;
ZeroZerp schrieb:
Mesh shader, die ganzen adaptive shading Möglichkeiten und vor allem das Speicherzugriffs,-Cache Management, dass Unmengen an Diespace verbraucht, aber eben genau auf die zukünftigen Anforderungen gemünzt ist.
MeshShader - in ähnlicher Form - sind auch in Vega bereits implementiert. Hier ist es wichtig, dass sowohl in DX12 als auch Vulkan entsprechend nun ein gemeinsamer Standard gefunden wird und dieser genutzt werden kann.
Genau so ist es ja mit Adaptive Shading, hier gibt es zum Glück VSR. Hier hat AMD zwar mit der RDNA1 noch zwei mal das nachsehen, aber nur im ersten Augenblick, wirklich fehlen tut eigentlich aktuell nur VSR.
Wenn man nun "gemein" sein will: nVidia holt hier teilweise zu Vega eigentlich nur auf. Was bei Vega und GCN schon möglich ist, kann nVidia jetzt erst mit Turning.
Aber wir sind nicht gemein. Turning hat nun wichtige Schritte gemacht, die moderne Techniken nun ermöglichen. AMD war da teilweise bei einigen Sachen mit GCN zu vorschnell. Aktuell befinden sich beide Hersteller auf dem richtigen Weg, sie dürfen jetzt nur nicht einschlafen.
ZeroZerp schrieb:
Turing wird eine Architektur sein, die verhältnismäßig langsam altern wird.
Mag ich nicht wirklich beurteilen. Wie ich bei meinem Gemeinenteil schon sagte, hat nVidia bei einigen architektonischen Aspekten zu AMD nur aufgeholt.
Im Endeffekt hängt die Alterung von Turning, aber auch RDNA aktuell davon ab, wie schnell sich die Spiele nun weiter entwickeln und was als nächstes so ansteht. Ich würde da eine Wette eingehen.