NVIDIA Titan XP = 250W / 16nm
NVIDIA Titan RTX = 280W / 12nm
GeForce RTX 3090 = 350W / 8 nm
Immer das absolute Topmodell der jeweiligen Generation.
Zwischen der Titan RTX und der 3090 liegen 2 Jahre sowie 4nm in der Strukturbreite.
Tatsächlich gehen die 33% Strukturverbesserung in 25% mehr Performance über. Was mir aber nicht klar wird, warum die RTX 3090 "ZUSÄTZLICH" auch noch 25% mehr Energie benötigt wird? Das Verhältnis verschiebt sich sicher etwas mehr zugunsten der 3090 wenn RT Aktiviert wird. Aber trotzdem... 2 Jahre?! Die haben gepennt und sich auf Ihrem Erfolg ausgeruht.
Also tatsächlich würde ich nun so einen Effizienzschritt von NV erwarten müssen wie es AMD zwischen Radeon VII und 5700XT gemacht hat. Wo soll das hin? Absurd das CD's schon ca. 500W mit "EINEM" GPU Core anbieten. 365W hatte die letzte DUAL GPU Karte von NV.
Wenn man das mal AMD ggü. stellt, im Fall von VEGA 20 zu NAVI 10 bis NAVI 20, dann ist das schon sehr Interessant.
RADEON VII = 300W / 7 nm
Radeon 5700XT = 225W / 7 nm
Radeon 6900XT = 300W / 7 nm
VEGA 20 ---> NAVI 10
Strukturverbesserung 0%
Energieverbrauch - 25%
Leistungssteigerung + 0%
NAVI 10 ---> NAVI 20
Strukturverbesserung 0%
Energieverbrauch + 33%
Leistungssteigerung + 100%
NAVI 20 ---> NAVI 30
Strukturverbesserung 28%
Energieverbrauch (geringer?)
Leistungssteigerung (+ 50%???)
Ich sehe den Druck auf NV gerade erst beginnen... werden Interessante Jahre.
Technisch sehe ich die Radeon vorne, auch wenn es jetzt auf der Performance ebene nicht reichen sollte, ist das schon ein wirklich fein durchdachtes Stück Silizium.
Das ganze wollt ich jetzt mal auf Papier bringen, da ich grad drüber Nachdenke ob AMD eine Antwort auf die 3080Ti bringen sollte? Also vom Effizienz Gedanken hats AMD nicht nötig. Vom Presige Gedanken eine 350W - 375W Version als Konter machbar, wenn auch nicht vernünftig.