Du Hast Vega wegelassen.Känguru schrieb:Wenn man sich ansieht von welcher Position AMD kommt, kann es durchaus besser als die 4090 werden:
Was Du nicht erwähnst RDNA1 war mit der RX5700 an den vergleichbaren Nvidia-Karten dran. Es gab aber keine GPUs für die Oberklasse.Känguru schrieb:Mit RDNA1 hat AMD mit der RX5700 gerade mal im Mittelfeld der Grafikkarten mitgespielt.
Indem sie AMD Anzahl der Shader verdoppelt hat und die Frequenz nach oben gepeitscht hat.Känguru schrieb:Mit RDNA2 hat AMD die Leistung im Rahmen der RX6900 glatt verdoppelt und konnte beim Raster zur Oberklasse RTX3090 aufschließen.
Was ich das beeindruckende an RDNA 2 fand, war dass AMD das alles demselben Prozess geschafft hat.
Das ist auch bei RDNA3 die absolute Unbekannte. Anhand der Patente zu urteilen hat AMD hier viel gemacht. Was davon in die RDNA3 einfließt und was es für die Performance bedeutet ist das große Fragezeichen.Känguru schrieb:Beim ersten Raytracing-Ansatz hatten sie noch das Nachsehen.
RDNA3 ist ein größerer Umbau und ob AMD wieder auf eine Verdoppelung abzielt ist reine Spekulation.Känguru schrieb:Mit RDNA3 wird AMD vermutlich dieselbe Leistungssteigerung (Verdoppelung) wie für RDNA2 anvisiert haben.
Was tatsächlich aus den in den Leaks genannten 2,5 fachen Anzahl der Shader und der Frequenzerhöhung rauskommt bleibt abzuwarten.
Sicher ist, dass AMD Nvidia die Leistungskrone abnehmen muss, um mehr Marktanteile zu bekommen. Aber Ob es AMD schafft steht auf einem anderen Blatt. Ziemlich sicher ist, dass Nvidia mit dem Vollausbau keine 1,5 Jahre warten muss wie bei der 3090 TI.
Ergänzung ()
Willst Du provozieren, nur heizen oder willst Du Grafik-Performance?MistressOfAgony schrieb:Ich hasse diese watt Limitation anstatt mal wirklich 600watt biest anzubieten wird überall gedrosselt
Es ist aus dem Test bei Computerbase offensichtlich, dass die 4090 auch mit 100 W weniger praktisch nichts an Grafik-Performance einbüßt.
Selbst wenn Nvidia eine GPU herausbringen würde, die das Recticle Limit voll ausnützt, würde diese GPU die 600 W nicht adäquat in Grafik-Performance umsetzen können. Von den Kosten einer solchen GPU ganz abgesehen.
Zuletzt bearbeitet: