Balikon schrieb:
Alter Schwede! Dieser "Poser" war von 2001 bis 2009 maßgeblich für die Grafikhardware bei ATi zuständig - auch nach der AMD-Übernahme. Zwar fällt da das Debakel der Radeon 2000er rein, aber eben auch sehr gute Karten wie die Radeon 9000er-Serie, die X1800/X1900, die HD 4000 und HD 5000-Serie. Danach war dieser "Poser" für Apple in der Grafiksparte tätig und verhalf uns zu den Retina-Display, bevor er 2013 wieder zu AMD ging.
So nicht ganz richtig.
Koduri war bei ATI Leitder der Abteilung zur Entwicklung »erweiterter« Technologien und hatte dort ein Forschungsteam unter sich. Er hat damals mit seinem Team einzelne Technologien entwickelt, die dann mit in die GPUs-Designs mit aufgenommen wurden.
CTO bei Ati war vorher Bob Drebin und ebenso war er CTO bei AMD für die Grafiksparte bis 2009 und ist auch der Hauptverantwortliche für Radeon bis einschließlich der HD 5000. Mit dem Kauf von ATi durch AMD wurde »befördert« zum zweiten Chef der Grafikabteilung.
Wer nun für die HD2x00 verantwortlich war - die ja an sich nicht mal schlecht war - oder den Karren dann aus dem Dreck gezogen hat, kann man so also nicht sagen.
Kodduri und Bob Drebin sind dann 2009 zu Apple, er hat hier das Retina-System entwickelt richtig. GCN als ganzes fällt aber auch zum Teil eben auch noch in deren Zeit und dem folgenden Zitat muss ich widersprechen:
Balikon schrieb:
GCN war von den Genen her nicht gut für Gaming geeignet. Als Koduri kam, hatte AMD auch nix anderes als GCN.
Das ist so nicht richtig. Viele der »Gente« von GCN findet man heute auch immer noch in RDNA wieder und ebenso muss man sagen, dass sich auch NVIDIA langsam zu einer deutlich flexibleren GPU hin wendet mit Turing und erst recht nun mit Ampere.
GCN hatte bereits relativ früh bereits Möglichkeiten, die NVIDIA erst jetzt mit Turing als auch Ampere bietet. Es hatte einen Grund, warum AMD quasi von Anfang an von Async-Shaders massiv profitieren konnte, weil auf einer CU 4 voneinander unabhängige »Shader« laufen können, egal ob sie nun FP oder INT Berechnungen benötigen.
Von »Async-Shader« profitiert erst Turing so richtig und ebenso Ampere, weil nun in den SM 2 Datenpfade vorhanden sind, die jeweils ihre eigenen Shader haben (64 + 64). Bei Turing war das auf 1 * FP und 1 * INT beschränkt, Ampere hat nun die Flexiblität, dass man 2 * FP oder 1 * FP + 1 * INT laufen lassen kann.
GCN hatte immer ein Problem seine ALUs in den CUs auszulasten. Man hatte für einige Zeit im Verdacht, dass es am Hardware-Sheduler liegt, aber sieht man sich die White-Papers zu RDNA an und auch die Developer-Guides, dann gibt es da ein paar interessante Informationen.
GCN unterstützt 3 »Befehlsarten«: Wave16, Wave32 und Wave64. Steht in dem Fall für die Anzahl der Paramter in einem Vector. Eine CU bietet 64 Alus, aber eingeteilt in 4 Vec16 ALUs und genau hier findet man dann in den RDNA-Papers die Information, dass der Treiber mit Wave64 arbeitet, aber die CU den Wave64-Befehl nur auf einer ALU ausführt und diese dann 4 Takte braucht, die anderen ALUs liegen brach. Man braucht also 4 Wave64-Befehle pro CU, damit alle ALUs genutzt werden. Auf den kleineren GCN-Karten - auch bei Vega - ist das nicht so das Problem, da man eben die passende Anzahl an Threads öffnen kann, aber bei den größeren eben nicht.
RDNA hat nun die 4 Vec16 durch 2 Vec32 ersetzt, nun braucht ein Wave64-Befehl nur noch 2 Takte und wenn er nur mit 32-Werten oder weniger besetzt ist sogar nur 1 Takt. Dazu deutet man in manchen Papers an, dass man den Treiber von Wave64 auf Wave32 umstellen will, was auch zum Teil an der Entwicklung der Spiele begründet liegt.
GCN war mit den technischen Möglichkeiten einfach seiner Zeit voraus, deswegen sind aber auch GCN-Karten im Vergleich zu ihren NVIDIA-Pendants besser mit der Zeit gealtert.
Und Koduri hat den Mund leider zu oft in seiner Zeit von 2013 - 2016 bei AMD den Mund sehr voll genommen und hatte bis dahin primär eher »Technologien« nach zu weisen, als wirklich GPU-Architekturen. Er hat durchaus gute und revolutionäre Ideen in einzelnen Segmenten, was man ja auch an Vega mit den Primitive-Shaders sieht, die jetzt als Mesh-Shader gekommen sind, aber eine »gute« Architektur hat er eben noch nicht auf den Weg gebracht. Er wird jetzt bei Intel beweisen müssen, dass er es kann, dass aus dem Kopf, der tolle Technologien ersinnen kann, auch ein guter Ingenieur wird, der seine Ideen effizient umsetzten kann!