Simanova schrieb:
Ich hatte in Kingdome Come bei 120fps >300W Verbrauch und im Limit (85fps) direkt nur 130-145W. Bei stärkerem Undervolt sogar nur noch 103-115W.
Was ja dafür sprechen würde, dass ein Chip mit doppelter Anzahl Compute Units in einem viel effizienteren Bereich betrieben werden könnte, so lange man sie vernünftig auslasten kann. Aber da steckt wohl niemand von uns tief genug im internen Chipdesign, um zu verstehen, wie genau das in dieser Architektur funktioniert und ob das möglich ist
Wäre es "einfach" das nach oben zu skalieren, dann stünde einem Highend Modell auch weniger im Weg (ok die Chipausbeute, der Chip wäre ja auch bestimmt 50% größer wenn nicht mehr).
Was dagegen spricht ist aber auch folgendes:
In dem Bereich wo die Karten betrieben werden ist es meines Wissens nach zum ersten Mal so, dass Takt/Verbrauch UND ANZAHL der CUs dermaßen gleichwertig skalieren. Das ist vor allem im Vergleich 9070 und 9070 XT gut zu sehen, wenn man sie auf die selbe TDP beschränkt.
Bei nahezu jeder anderen Generation (korrigiert mich gerne!) war es immer so, bei selber TDP der Chip mit der größeren Anzahl CUs dann zwar auch mit geringerem Takt lief (es waren ja mehr CUs zu versorgen, verhält sich jetzt auch so), aber diese effizienter gearbeitet haben im niedrigeren Taktbereich, während der Chip insgesamt dann schneller war als die kleinere Variante mit höherem Takt.
Bei RDNA4 scheint sich das nahezu komplett auf einem Level zu bewegen, denn der Mehrtakt der CUs des kleineren Chips skaliert in Spielen nahezu 1:1 mit der höheren Anzahl der CUs des größeren Modells.
Vergleicht man stattdessen eine 6900XT mit einer 6800XT im selben TDP Bereich, hat die 6900XT einen deutlichen Vorsprung. Bei Nvidia ist es ebenso ersichtlich.
Es wäre super cool, wenn man das auch im Niedrig-Lastbereich mal genau untersuchen würde (vllt. wie es sich bei 120 oder 150Watt verhält), aber nicht durch einen Frame-Limiter, sondern eben durch eine TDP Begrenzung. In den Bereich kommen wir mit einer XT aber leider nicht herunter.