Denny_Crane schrieb:
Was meines Erachtens ein sehr guter Schritt ist, nur für 4k hätte der Speicher wohl noch etwas größer sein müssen. Es würde mich also nicht wundern, wenn man bei RDNA 3 an dieser Stelle 192 MB sieht. Das hat auch rein gar nichts mit Fanboytum zu tun, sondern nennt sich technischer Fortschritt! Und neue Features, welche die Performance steigern und den Energieverbrauch senken, sind auf beiden Seiten (AMD und Nvidia) herzlich willkommen!
Der Inifinity Cache ist ein geniale Lösung. Denn er bringt AMD viele Freiheitsgrade bei Speicherwahl, Speicheranbindung und damit auch beim Boarddesign.
Mehr Cache ist immer besser, aber er ist auch sehr teuer.
lt. Wkichip verbrauchen die 16 GByte L3-Chache eines CCX bei Zen 2 ca. 16,8 qmm (d. h.ca 50 % der Fläche eines CCX)
Da es bei RDNA 2 derselbe Prozess ist, würde ich Mal grob 130 qmm für den Inifinity Cache ansetzen, mit 192 MB wären es so grob 195 qmm. Das ist schon eine ordentliche Fläche, die man investiert. Deshalb ist es immer eine Abwägung von Kosten und Nutzen.
RDNA 3 wird in eine mit einer kleineren Strukturbreite gefertigt. Ich weiß nicht wie SRAM im Vergleich zu den anderen Schaltungen skaliert. Die verbreitesten SRAM-Schaltunngen benötigen je Bit 6 Transistoren.
RDNA 3 wird sehr viele Überraschungen bieten, aber natürlich spielt laut Rick Bergman der Infinity Cache auch hier eine wichtige Rolle. Infinity Fabric 3 und X3D-Packaging werden großen Einfluss auf Zen 4, RDNA 3 und auf das Zusammenspiel der beiden haben.
Bei CDNA hat AMD auf den InfinityCache verzichtet, weil HBM 2 als Speicher genügend Bandbreite bietet.
Neue Features:
Bei der Computergrafik sind neue Wege dringend notwendig. Wahrscheinlich sogar komplett neue Denkansätze. Einfach immer mehr Rechenleistung zu verlangen, kann nicht die Lösung sein. Wer über den steigenden Verbrauch lästert, muss sich einmal anschauen, in welchem Maß die GPUs wachsen. Immer mehr kann nicht die Lösung sein. Es wird sehr viel Leistung an Bildinhalte verschwendet, die niemand ansieht.
Es ist Unsinn die Bildqualität von Spielen anhand von Screenshots zu bewerten. Im Spiel kann man immer nur einen Bereich scharf sehen. Den Screenshot schaut man sich eventuell minutenlang an, um dann über 2 Pixel zu lästern. Dieses Missverhältnis wird extremer je größer die Bildschirme werden. Oder bei Konfigurationen mit mehreren Bildschirmen. Variable Rate Shading kann nur der Anfang sein. Früher oder später muss die Software wissen wo der Spieler hinschaut.
Zu Vega:
Man hat viel Häme über Vega ausgeteilt. Zum Teil war AMD selbst Schuld, sie hätten einfach keine überzogenen Erwartungen schüren dürfen. Zum Teil haben viele nicht verstanden, dass Vega ein Kompromiss war. Für die Spieleperformance war dieser Kompromiss nicht gut. Und bei den Rechenanwendungen musste Vega darunter leiden, dass der Softwarestack bei AMD alles andere als optimal war. So stand Vega in beiden Feldern im Schatten von Nvidia.
Wie gut Vega im Prinzip ist sieht man bei den Renoir-APUs. Aber die Vegakarten haben nicht gut mit den CU skaliert und wurden noch mit einem schlechteren Chipdesign umgesetzt. Deshalb wurden sie sehr ineffizient als AMD sie hoch getaktet hat. Das musste AMD machen, weil sie Vega als Gegenspieler zur 1080 stellen wollten.
Schon RDNA 1 war ein riesiger Schritt nach vorne. Man konnte in dieser Leistungsklasse zu Nvidia aufschließen. Das lag sicher auch daran, dass AMD auf die 7 nm wechselte. Aber ein großer Anteil der Verbesserung kam daher, dass AMD die Architektur und die Treiber für Spiele optimiert hat.
Bei RDNA 2 war der wichtigste Schritt, das die Leistung mit der Anzahl der CUs besser skaliert.
Sollte die 6900XT ihre ca. 10% mehr CUs tatsächlich in messbar mehr Leistung umsetzen können, wäre dies ein wichtiger Fortschritt bei AMD.
Beim Skalieren war nämlich Nvidia in den letzten Jahren immer besser. Dies und das excellente Chipdesign auf dem 12-nm-Prozess waren Grundpfeiler für den Vorsprung von Nvidia.