Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich

@Taxxor
Der auszulesende Wert ist doch schon direkt vorhanden. Oder nicht?
HWInfo_PWLimit_Entry.png
 
@Esenel Huh? Okay, bei AMD Karten wohl nicht^^
Anmerkung 2019-12-17 204606.png


Hängt wohl auch damit zusammen, dass AMD zwar tausende Sensoren auf den Karten hat, aber kein einziger den Verbrauch der gesamten Karte ausgeben kann.^^
 
Sehr schöner Vergleichstest! 👍 Zeigt mir, dass ich mit meiner EVGA GeForce RTX 2070 Super XC Ultra eine gute Wahl getroffen habe. Meine fps in CoD MW liegen sogar noch ein bisschen höher als hier im Test, da die Graka aufgrund des guten Kühlsystems dauerhaft mit 1950 MHz in CoD MW läuft. Allerdings wird meine I7 4790K irgendwann limitieren, da die CPU-Auslastung während des Spiels schon oft an der 100% Marke kratzt. Fazit: NVidia hat sich bis jetzt immer für mich gelohnt (u. seit der 560 TI ausnahmslos EVGA), auch wenn der Preis manchmal schmerzt 😉
 
  • Gefällt mir
Reaktionen: Laphonso
Taxxor schrieb:
@Esenel Huh? Okay, bei AMD Karten wohl nicht^^

Hängt wohl auch damit zusammen, dass AMD zwar tausende Sensoren auf den Karten hat, aber kein einziger den Verbrauch der gesamten Karte ausgeben kann.^^

Oh man. Das ist doch bescheuert.
Dachte das haben alle Karten. :-/
 
Würde das händische einstellen des Limits auch schwer machen, da man erstmal wissen muss, dass die TDP Angabe aus dem Datenblatt nicht das Limit des chips ist, der Chip aber das einzige ist, was ausgelesen wird.
 
Da Lob ich mir den Nvidia "Sensor".
Auch wenn ich in Msi AB das Limit verstelle, gibt er es mir passend über diesen Eintrag an.
Zumindest wäre mir noch nix anderes aufgefallen.
 
Kraudi2k schrieb:
Der allgemeine Tenor? Schau doch hier mal in das AMD Forum oder auf reddit oder sonst wo. Überall gibt es seit Release Lüfterprobleme bei diversen Modellen.

In Foren melden sich grundsätzlich vergleichsweise wenige vergleichsweise laut... ;)
 
  • Gefällt mir
Reaktionen: PS828 und GERmaximus
Die Leistungsaufnahme "Spiele-Durchschnitt" ist bei einigen (Nvidia)Karten zu niedrig, bei der GTX 1060 ist es sehr offensichtlich auf dem ersten Blick.

GTX 1060 CB-Ø = 104 Watt
Battelfield V = 115 Watt
Metro Exodus = 115 Watt
Shadow of the Tomb Raider = 104 Watt
Korrekt wäre (115 + 115 + 104) : 3 = 111 Watt

GTX 1660 Super CB-Ø = 120 Watt
Battelfield V = 124 Watt
Metro Exodus = 123 Watt
Shadow od teh Tomb Raider = 120 Watt
Korrekt wäre (124 + 123 + 120) : 3 = 122 Watt

RTX 2060 FE CB-Ø = 158 Watt
Battelfield V = 160 Watt
Metro Exodus = 161 Watt
Shadow od teh Tomb Raider = 158 Watt
Korrekt wäre (160 + 161 + 158) : 3 = 160 Watt

usw.


Bei der RX 5700(XT) umgekehrt, also zu hohe Ø-Werte

RX 5700 CB-Ø = 177 Watt
Battelfield V = 182 Watt
Metro Exodus = 169 Watt
Shadow of the Tomb Raider = 177 Watt
Korrekt wäre (182 + 169 + 177) : 3 = 176 Watt


RX 5700 CB-Ø = 212 Watt
Battelfield V = 212 Watt
Metro Exodus = 204 Watt
Shadow of the Tomb Raider = 212 Watt
Korrekt wäre (212 + 204 + 212) : 3 = 209 Watt



Meine Vermutung ohne alles durchgerechnet zu haben, es wurde einfach irrtümlich der Shadow of the Tomb Raider-Wert als Durchschnittswert genommen. ;) Bitte korrigieren @Wolfgang oder @Jan

Edit: Könnten die Effizienzwerte dadurch auch betroffen sein?

Edit2: Ja, die Effizienzwerte stimmen dadurch auch nicht. Ein Beispiel, die RX 5500 XT (128 Watt 39,9 FPS) und GTX 1060 (korrekte 111 Watt 35,4 FPS) liegen nur rund 2% auseinander statt 9%. Auf letzteres kommt man nur wenn man die falschen 104 Watt anlegt.


Edit3:
GTX 1060 = Ø 111Watt / 35,4 FPS@1080p
RX 5700 XT = Ø 209 Watt / 71,6 FPS@1080p
1,88-fache Leistungsaufnahme bei 2,04-facher Performance, die RX 5700 XT hat eindeutig die bessere Effizienz (7-8%) und müsste daher vor der GTX 1060 in der Liste stehen und nicht dahinter.

Bitte alles nochmal prüfen Computerbase-Team.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schuetze27, fox40phil, Iscaran und 9 andere
AMDPower schrieb:
Der Verbrauch siehst Du ja im overlay... Oder ist das nicht brauchbar?
Gewünscht ist ja eine Anzeige in CX, die zeigt ob und wie lange die Karte im Power Limit lag.
Und bei AMD müsste man dazu erstmal das Limit des Chips kennen und es dann einstellen, damit das Tool das Anhand des Verbrauchs bestimmen könnte.
 
  • Gefällt mir
Reaktionen: AMDPower
AMDPower schrieb:
Der Verbrauch siehst Du ja im overlay... Oder ist das nicht brauchbar?

Das ist in der Regel das Package, zumindest bei Vega sollten da noch ein paar Watt für Verluste auf der Platine dazu kommen.
 
also ich bin mit meiner titan rtx mehr als zufrieden :)
 
  • Gefällt mir
Reaktionen: Laphonso
Von insg. 16 Spielen basieren vier, also 25%, auf der UE4. Das sind mMn zu viele. Da hätte mal anstatt Plague Tale zB lieber RE2 drinnen lassen sollen.
 
  • Gefällt mir
Reaktionen: fox40phil und Chismon
ThirdLife schrieb:
Dieser Smiley, den Du hinterlassen hast, fasst Deinen Beitrag gut zusammen: lachhaft.:daumen:

Mein Bruder ist durch seine 2080Ti, gleichwohl eine Waterforce, mit 40-85% (die 85% waren BTW RDR2, DX12, fast eine fps Verdoppelung) mehr fps unterwegs in allen Games auf 3440*1440 als mit der 1080Ti vorher, Rest des Systems 1:1 gleich, alles 1:1 Settings und ingame Benchmarks. Willkommen in der Realität. Deine imaginären 16% sind der Gag des langen Tages, danke dafür;)

Die 1080Ti strauchelt - wie das Pascal Lineup - komplett gegen die 2000er und 16XX Turing lineups im vergleichbaren Chipsatz in aktuellen gfx featuresets und DX12. Das kann man ignorieren oder als „hm, ist ja doof“ hinnehmen. So zu tun als wäre das nicht so, ist albern imho.
Das ändert ja nix daran, dass die 1080Ti eine gute GPU war und ist, aber kein Highend mehr und nunmehr via HW und SW sogar limitiert vs 2070S aufwärts.
 
Zuletzt bearbeitet:
Zurück
Oben