Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Navi 31 (RDNA 3): Ein Blick auf das mutmaßliche PCB der Radeon RX 7900 XT
Ich bin sehr gespannt, was AMD aus der Chiplet Technologie so rausholen wird und ob die Rohleistung auch in reale Performance umgesetzt werden kann und nicht zu viel in Latenzen verpufft. Das wird die interessanteste Generation seit Jahren. Auch wird es interessant, wie sehr AMD die GPU Prügeln wird. Vom Layout der Platine scheint da aber zumindest ordentlich vorgesorgt zu sein, so dass bei Bedarf da auch richtig Strom durchgejagt werden kann.
Könnte durchaus sein, dass AMD sich durch die neue Arch so konkurrenzfähig sieht, dass weniger Infinity Cache in ihren Augen ausreicht.
In dem Fall spart weniger Chache sowohl Strom, als auch Geld ohne Nachteile zu bringen.
Machen sie ja nicht. Die IO Chiplets enthalten ja neben dem Speicherinterface auch grosse Cache Anteile.
Davon ab kommt ja der grosse Chip voraussichtlich dieses mal mit 384 Bit Speicherinterface der Zweite hat immer noch 256Bit, während die 6900XT also der Grösste Chip in der letzten Gen nur 256 Bit hatte. Sprich soviel Cache wie in der letzten Gen wird gar nicht mehr nötig sein.
Machen sie ja nicht. Sie optimieren die Technik aber weiter. Wenn man durch bessere Caching-Algorithmen Cachegröße bei gleichem Ergebnis einsparen kann, nimmt man das sehr gerne mit und investiert das Siliziumbudget lieber in mehr echte Logikeinheiten oder aber kleinere und damit günstigere Chips. Und das man bei der vorausgesagten Leistung auf ein breiteres Interface setzt, verwundert auch nicht wirklich. Wenn man die halbe GPU Fläche für den Cache opfern muss, ist das auch nicht effizient. AMD scheint nicht einfach nur stumpf den Cache aufzublasen, sondern zu verbessern. Ist ähnlich wie beim Sprung zwischen Zen 2 und Zen 3. Man hätte mit gleicher Cachestruktur und doppelter Größe sicherlich auch mehr Leistung generiert, aber durch die Verbesserung der Anbindung konnte Zen 3 mit gleicher Größe den Cache deutlich effizienter nutzen und so Leistung generieren.
Ja stimmt auch wieder. Wobei gerade der Speicher extrem Latenzanfällig ist und das der große Knackpunkt bei Chiplets ist. Wenn das gut klappt, dann ist das schon mehr als die halbe Miete für mehrere Compute Dies.
Ich denke das wird dieses Jahr noch nicht zum tragen kommen ähnlich wie das mit Ryzen 1 war wird das denke ich noch 1-2 Generationen sprich 8xxx oder 9xxx dauern bis wir da wirklich den vollen Effekt sehen.
Ich kann mir einfach nicht vorstellen, wie für eine mindestens verdoppelte Leistung ein kleinerer Cache ausreichen soll. Das sind 2,4x mehr Shadereinheiten als bei Navi 21 bei nicht einmal verdoppeltem Speicherdurchsatz und einem 3/4 des Infinity Cache von Navi 21.
Also lagert AMD zwar IO ebenfalls in einen eigenen Chip aus, statt wie bei Zen aber einen großen IO-Die zu haben, der mehrere Recheneinheiten bedient, ist es hier wohl umgekehrt und ein Rechen-Die wird von mehreren identische IO-Dies bedient. Zusätzlich wandert der Cache dort drauf.
Keine doofe Idee, hält es den eigentlichen Die kleiner und die immer gleichen Cache-Strukturen werden dupliziert.
Also wenn die Grafikkarte mit 3x150PCI-E Netzteil + 50W PCI-E Mainboard benötigt, ist die karte für mich bereits gestorben. Niemand braucht eine Grafikkarte die bis zu 500W+ durchballert für nix. Wenn AMD ein bischen weiter denken würde, sollte ein 8Pin Power reichen. Ich kann mich nicht dran errinnern das das erste Jahr der Strom vom Grafikkartenhersteller gezahlt wird... Eine Grafikkarte die soviel energie durchballert würde ich nicht mehr 100€ zahlen...
Ich kann mir einfach nicht vorstellen, wie für eine mindestens verdoppelte Leistung ein kleinerer Cache ausreichen soll. Das sind 2,4x mehr Shadereinheiten als bei Navi 21 bei nicht einmal verdoppeltem Speicherdurchsatz
Das Speicherinterface vergrössert sich um 50% und der Speicherdurchsatz pro Modul ebenso um mindestens
12,5% wenn sie die 18Gbit Module nehmen.
20 und 24 Gbit Module sind bereits als Samples verfügbar.
Aber schon mit den 18er Modulen sollte 3/4 des Caches ausreichen.
Der erste Hinweis, der mich wirklich davon überzeugt, dass die GPU so aufgebaut sein wird. Finde es aber sehr schade, dass es keine GCD-Chiplets geben wird. So ist der in N5 zu fertigende Die zwar kleiner, aber nicht viel.
@Winxer ja klar, am besten sollte eigentlich ein 6 Pin Stecker reichen für alles. Bei mindestens Doppelter Leistung.
Ich bin ganz sicher kein Fan von diesen Heizkörpern, aber die Hersteller kochen halt auch immer noch mit Wasser. Entscheidend ist AMD's Versprechen von einer wieder um 50% gesteigerten Energieeffizienz. Diesmal gibt es von beiden Herstellern eine unfassbare Leistungexplosion, warum auch immer. Daher überraschen 450W ganz und gar nicht. Nvidia treibts noch weiter mit bis zu 660W.
Wie manche hier schon wieder hart am rotieren sind.
3x 8 Pin heißt nicht automatisch 500W+ Leistungsaufnahme. Eine MSI 3080 Gaming X 10G z. B. hat auch 3x 8Pin und verbraucht im Normal Betrieb "nur" 350W.
Das AMD Referenzdesign hat mutmaßlich auch nur 2x 8 Pin, so wie faktisch alle high End Karten der letzten Jahre.
gesetzt dass ich das ganze richtig auf die Reihe bekomme
und sie können theoretisch auf Zuruf das SI (und somit die VRAM Menge) hoch und runter skalieren. Nie wieder das Problem, dass eine GPU eine tolle Performance aufruft, aber durch die zu geringe Menge VRAM unattraktiv ist (sie rtx3080 mit 10GB Vram und rtx3070 mit 8. denen hätte zum Release jeweils 2GB mehr sehr gut gestanden und sei es nur um im Marketing zu punkten)