Sagen wir, man ich möchte eine Grafikkarte kaufen und anhand von Testberichten feststellen, wie die Leistung vgl. mit der Hitze ist. Grob weiß ich schon mal, wenn man sich ein "niedriges" Modell (RX 6600 XT) kauft, ist es ja immer ziemlich energieeffizient und kühl. Aber was wenn man ein "hohes" Modell kauft (RX 6800), was weniger energieeffizient sein soll? Wie kann ich mir den Leistungsanstieg im Verhältnis zum Hitzeanstieg anschaulich vorstellen? Hat man grundsätzlich mehr Leistungsanstieg als Hitzeansteig, sodass sich (wenn man den Preis ignoriert) das höhere Modell in dem Sinne lohnt oder wird bei diesem z.B. nur ein Limit freigeschaltet, das der Karte ermöglicht, ultra viel Energie zu saugen und dadurch mit den High-End Spielen zurechtzukommen, während der Hitzeanstieg gleich oder schlimmer ist?
Ich hab mir mal ein paar Beispiel Testwerte rausgesucht und ihr sagt mir bitte, ob ich sie richtig interpretiere:
Laut dem Computerbase Testbericht ist das FPS Performancerating der AMD Radeon RX 6800 29% höher als das der MSI RX 6600 XT Gaming X. Gleichzeitig sehen wir später im Bericht einen Temperaturunterschied von 10%. Entsprechend ist grob gesehen der Leistungszuwachs höher als der Temperaturunterschied und wenn man Budget ignoriert, "lohnt" sich also das höhere Modell. Seh ich das richtig?
(Ich seh im Testbericht ein Problem, es wird beim Performancerating für 1080p ohne Spielangabe getestet und später bei der Temperaturmessung für 4k mit expliziter Spielangabe. So kann man schwerer vergleichen. Außerdem versteh ich nicht, wo man sehen soll, ob eine Karte Ultra Einstellungen oder Medium packt.)
Ich hab mir mal ein paar Beispiel Testwerte rausgesucht und ihr sagt mir bitte, ob ich sie richtig interpretiere:
Laut dem Computerbase Testbericht ist das FPS Performancerating der AMD Radeon RX 6800 29% höher als das der MSI RX 6600 XT Gaming X. Gleichzeitig sehen wir später im Bericht einen Temperaturunterschied von 10%. Entsprechend ist grob gesehen der Leistungszuwachs höher als der Temperaturunterschied und wenn man Budget ignoriert, "lohnt" sich also das höhere Modell. Seh ich das richtig?
(Ich seh im Testbericht ein Problem, es wird beim Performancerating für 1080p ohne Spielangabe getestet und später bei der Temperaturmessung für 4k mit expliziter Spielangabe. So kann man schwerer vergleichen. Außerdem versteh ich nicht, wo man sehen soll, ob eine Karte Ultra Einstellungen oder Medium packt.)
Zuletzt bearbeitet: