Wadenbeisser schrieb:
Der entscheidene Punkt wurde aber bereits angesprochen, was hat das mit der Framerate bei gleichen Bildeinstellungen zu tuen? Seit wann wird dafür mehr Speicher benötigt? Der muss dann lediglich schneller gefüttert werden und steigt mit dem GPU Takt auch der Takt des Cache wäre das wohl das geringste Problem.
furmark passt komplett in den cache, cyberpunk wahrscheinlich eher weniger. spiele sind komplexe 3D last, in denen ständig neue assets und shadereffekte geladen und berechnet werden müssen.
es ist nicht bekannt, ob der cache eine eigene taktdomäne hat. ich würde mal nicht davon ausgehen, dass der in irgendeiner weise an den coretakt gekoppelt ist, zumindest nicht außerhalb von idle und load powerstates.
Prüfling87 schrieb:
ja eben und solange man die selbe Auflösung und Qualitätseinstellungen benutzt ändert sich am RAM Bedarf egal ob von den 128 Mb Infinity oder 16GB eben nichts.
die kapazität des vrams stand nie zur debatte. ich weiß nicht, warum das immer wieder auftaucht.
mir geht es hier um die 128mb cache, und das ist was anderes als vram.
die hierarchie wird folgendermaßen sein:
gpu core <- infinity cache <- vram
man weiß noch nicht, wie genau der cache funktioniert oder was er exakt macht, aber fakt ist, dass der cache von der kapazität her den GDDR6 nicht ersetzen kann - ein puffer eben. wichtige daten zur weiterverarbeitung werden dann in den cache geladen und von da aus von der gpu abgerufen - aber der cache kann nicht alle daten des gddr6 fassen, daher muss man selektieren. die gpu wird bestimmte daten immer zuerst im cache suchen, und dann im vram.
im grunde macht zen2/zen3 mit dem großen L3 cache das selbe - der überbrückt auch die latenzen. threadripper 3000 ist beim gaming auch enorm schnell, aber das liegt an dem gigantischen L3 cache. und der R5 3500 säuft gegen den R5 3500X regelrecht ab, weil er einen beschnittenen L3 cache hat. der ist trotz zen2 chiplets nicht schneller als ein R5 2600.
je mehr arbeit die gpu verrichtet, desto mehr daten müssen durch den cache. und hier sind wir in der situation, wo "konventionelle" gpus mehr vram bandbreite brauchen, um genügend daten in den core zu schieben, damit auch alle einheiten etwas zu tun haben. wir sind uns einig, dass leistungsstärkere gpus einen höheren bedarf an speicherbandbreite = daten haben?
meine vega 56 hat 585gb/s speicherbandbreite (übertaktet) und skaliert in doom eternal von 800mhz hbm2 takt bis zur stabilitätsgrenze von 1150mhz - da ist nie eine sättigung erreicht, wo der core mit dem selben takt aus der gesteigerten bandbreite keinen nutzen mehr zieht. die 6900 XT hat eine speicherbandbreite von nur 512gb/s mit ca 1000mhz mehr takt auf 43% mehr CUs mit 20% mehr IPC.
die frage ist, was passiert, wenn die gpu zu viele daten auf einmal verarbeitet, und der cache ggf. nicht mehr schnell genug oder in ausreichender menge die daten vorhalten kann.
dann passiert nämlich aller wahrscheinlichkeit nach folgendes: die gpu wird wichtige daten, die normalerweise im cache liegen, im cache suchen - aber der cache hat ggf. aufgrund von platz oder durchsatzbeschränkungen die daten nicht - und dann wird das zeug, das nicht im cache ist, im GDDR6 abgerufen - und dann ist der cache teilweise wirkungslos und eine 2,7 ghz 80CU gpu muss dann daten durch ein 256bit nadelöhr beziehen oder warten, bis der cache die daten aus dem GDDR6 geladen hat.
wir sind uns einig, dass dieses szenario eher ungünstig wäre, oder?
es geht hier ja erstmal nur um eine theorie - die ausführung dient hier lediglich der erklärung des offensichtlich mehrfach missverstandenen ausgangspunkts. das soll nicht heißen, dass ich davon ausgehe, dass der cache ein problem ist. es ist ja noch nichteinmal klar, ob überhaupt ein missverhältnis bei takt = performance vorhanden ist. aber falls ja, dann wäre das ein punkt, wo ich mal ansetzen würde. ohne eine karte zum test ist das ganze ohnehin hinfällig.