Verak Drezzt schrieb:
was soll ich sonst vergleichen wie die Leistung der Generation zuvor und da hat nunmla genauso wie Nvidia das letzte aus den Karten gedrückt
Eben dies, du nimmst eine Karte der Vorgängergeneration, die bis an die Kotzgrenze ausgequetscht wurde und vergleichst sie mit einer Karte, die das nicht wurde, obwohl es in der selben alten Generation eine Karte gibt die fast genau so schnell und deutlich effizienter ist.
Natürlich kommt da ein größerer Effizienzvorteil bei rum, als wenn du sie mit einer konservativeren Karte der Vorgängergeneration vergleichen würdest, so konservativ wie die GRE selbst eben auch ist.
Verak Drezzt schrieb:
und selbst gegenüber der 6900XT sind es dann immer noch über 50W, keine Ahnung was du von mir willst
Es sind knappe 50W und das ist eben sehr schwach für so einen Generationssprung nach 2 Jahren und 9 Monaten.
Du warst derjenige der gefragt hat, was das Problem mit dem Verbrauch ist.
Genau das ist das Problem, er ist zu hoch. Und das kaschieren zu wollen indem man sich eine überzüchtete Karte als Vergleich nimmt und sagt „guck mal wie viel die hier verbraucht“ um eine große Effizienzsteigerung zu suggerieren, ist einfach unehrlich.
Es bleibt ein effizientvorteil von ~20% und wenn UV ins Spiel kommt werden es recht sicher noch weniger als 20% sein, da sich die 6900er gut undervolten lassen währen die 7900er stark auf den Takt angewiesen sind(sieht man am großen Abstand der GRE zur XT).
Dazu kommt noch, dass sie sich ja eigentlich weder dem Vergleich mit RDNA2 noch mit Ampere, sondern mit Ada stellen muss