Taxxor schrieb:
Und was hat das mit dem Thema zu tun, wie eine CPU die eine GPU ausbremsen kann und eine andere nicht?
Ganz einfach: Weil ihr hier in einem hypotetischen Szenario immer wieder die gleiche Antwort liefert, ohne euch mal mit der ganzen Sache zu befassen. Ihr behauptet, dass die CPU dann für die RTX 5090 zu langsam ist und diese einbremst, weil ja die RTX 5090 50 % schneller ist als die RX 9070 XT und deswegen muss die CPU schuld sein.
So "platt" ist das weitgehend falsch und zu kurz gedacht. Sollte - und das ist jetzt alles weiterhin HÖCHST HYPOTETISCH - eine RX 9070 XT in FullHD 10 % schneller sein, als eine RTX 5090, dann kann das mehrere Ursachen haben.
1. Treiber-Overhead, dann müsste Nvidia etwas an ihren Treiber machen oder man benötig eine schnellere CPU, das wäre ein Szenario, in dem die CPU die GPU bremmst, nur trifft das ab diesem Zeitpunkt früher oder später dann auch auf die Radeons zu.
2. Es gibt zu wenig "Pixel" und damit auch verbunden zu wenig Warp/Waves. Wie ich geschrieben habe, benötigt die RTX 5090 680 Warps, damit jede Sub-Tile als auch jede SM wirklich zur gleichen Zeit belastet wird. Die RX 9070 XT wird mit 128 Waves zurecht kommen.
Eine RX 9070 XT ist in niedrigen Auflösungen deutlich einfacher Auszulasten als eine RTX 5090 und das hat mit der Menge an Pixel und den dadurch auch eröffneten Warps/Waves zutun. Es kann also durchaus sein, dass in Full-HD die RX 9070 XT durch einen "höheren" Output pro Wave schneller als die RTX 5090 ist. Die wenigen Daten, die vorhanden sind, gehen halt in so einem Fall schneller durch die CU als durch die SM.
Im ganzen kann dann die RTX 5090 zwar 50 % zwar schneller sein, bringt das aber in niedrigen Auflösungen nicht zur geltung. Es handelt sich hier immer noch um SIMD/SIMT-Konzepte und man benötigt genug Daten und ebenso auch genug "Threads", damit das auch umgesetzt wird.