Bericht Grafikkarten 2021 im Test: Leistungsaufnahme moderner GPUs neu vermessen

"der Adrenalin 21.30.11.01 und damit der über Windows Update ausgelieferte AMD-Treiber für Windows 11"

... ist u.U. net die beste Idee!?
Der 21.9.2 wäre deutlich aktueller und unterstützt auch WDDM 3.0.

Nach m.E. gibts momentan ne Pause bei den UWP-Treibern und stattdessen kompatible normale Adrenalin
in kürzeren Abständen.
In gängigen Foren wird deswegen auch der 21.9.2 empfohlen.

Z.Bsp. hat bereits der 21.9.1 etliche neue VLK-Extensions:
 

Anhänge

  • 21.9.1_VLK-Extensions.JPG
    21.9.1_VLK-Extensions.JPG
    91,5 KB · Aufrufe: 259
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Taxxor schrieb:
Und wie kommst du zu der Aussage, dass sie 70% schneller und gleichzeitig 8% genügsamer ist, wenn du diese -8% Verbrach nur aus einem Spiel hier im Test mit aktiviertem FPS Limit nimmst, während du für die Performance das unlimitierte Gesamtrating genommen hast?

Anhang anzeigen 1125868
Jo, mein Fehler. Sind nur 60% statt 70%.
1632404289670.png
 
  • Gefällt mir
Reaktionen: Lamaan und Onkel Föhn
Als relativ professioneller Spieler, kann ich nur empfehlen mit Framelimiter zu spielen. Es ist wichtiger eine konstante Framerate zu haben auf die man sich einspielen kann, als schwankende maximale FPS. Ich verwende wenn möglich den in die jeweilige Engine integrierten Limiter, oder sofern der fehlt, die Einstellung über den Treiber. In jedem Fall habe ich Freesync aktiv. Bei Spielen die nicht kompetitiv sind begnüge ich mich auch mit 60 FPS. Frei laufen lasse ich das System nur wenn ich teste oder vergleiche.

Ansonsten wird bei mir sowieso alles untervoltet und so die Effizienz gesteigert.
 
  • Gefällt mir
Reaktionen: jemandanders, hurcos, Laphonso und eine weitere Person
Warum wird kein FPS-Limit mit 30 und 60 FPS getestet?
Hatte mich erst gefreut zu lesen das man jetzt FPS-Limit zum testen einführt, dann aber gesehen das man nur einen mit 144FPS/Hz macht.

Viele Gamer haben auch noch einen 60 Hz TV/Monitor. Mit einem FPS-Limit von 60 FPS bei 1080p müßte doch eine große Energieersparniss gegenüber 144 FPS rauskommen.

Es wäre interessant zu Wissen wieviel Watt z.b. eine GTX 1080 zur RTX 2080/3080 bei 60FPS@1080p benötigt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Sly123 und Palitore
Das ist mitr schon mein WZ zocken aufgefallen das die 6800XT bei 144FPS weniger Watt beim Spielen zieht als die 5700XT bei ~115FPS
 
  • Gefällt mir
Reaktionen: Onkel Föhn
nukin schrieb:
Der Stromverbrauch basiert hier auf einem Test mit einem Game, oder? Zumal selbst die 6700xt hier angeblich 20%-Punkte mehr verbrauchen soll, als eine 6800.

Hier passt der Autovergleich ausnahmsweise einmal gut.

Wenn du mit einem hubraumschwachen 100ps Auto 160 fährst verbrauchst du auch mehr als wenn du mit einem leistungsstarken Auto mit 160 konstant fährst.
 
  • Gefällt mir
Reaktionen: xRedF und Onkel Föhn
Nochmal schön zusehen was meine 6800 für ein Effizienzwunder ist. Mit UV noch umsomehr.
Dachte eigentlich dass mit den höheren Klassen auch automatisch weniger Strom verbraucht wird mit limitierung der fps.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Sehr guter Test, danke dafür. Spannend wäre noch ein Limit bei 60fps gewesen. Ich denke, dass 60fps Monitore sehr weit verbreitet sind.
 
  • Gefällt mir
Reaktionen: Czk666, Ultharandor und Palitore
Bitte fertigt auch einen entsprechenden Artikel an:
Alte Grafikkarten im Test: Leistungsaufnahme von Retro-GPUs neu vermessen

Das ist nämlich die viel größere und gewichtigere Lücke. Für retrospektive Betrachtungen muss nahezu ausschließlich auf methodisch veraltete Messungen zurückgegriffen werden. Zuverlässige Zahlen zu haben würde das Diskutieren über ein Nachlassen oder Anziehen von Fortschritten deutlich vereinfachen.

Um es noch zu konkretisieren: Jede Oberklasse ab der Einführung von PCIe durchgemessen vorliegen zu haben wäre schonmal ein sehr wertvoller Anfang.
 
DarkerThanBlack schrieb:
Jo, mein Fehler. Sind nur 60% statt 70%.
Anhang anzeigen 1125872
Die haben doch immer noch nichts mit den 8% zu tun, die die 6800 gleichzeitig weniger ziehen soll, weil das mit 144FPS Limit ist, somit die 6800 eben nicht 60% schneller ist, sondern 6%.

Wenn sie 60% schneller ist, ist sie nicht gleichzeitig 8% sparsamer, sondern verbraucht ~30% mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sly123
Ganz interessant wobei ich finder der 144 fps limiter ist etwas niedrig angesetzt. Ja gut in der Regel wird kein Bildschirm verwendet der mehr darstellen kann es gibt sie aber und ich denke selbst bei 144fps würde ich ihn eher auf 160fps einstellen
 
Und genau deshalb habe ich mich für die Karte entschieden, die ich jetzt im System habe. 27cm auf 2,5 Slots uuuund...leise. Es ist halt die modernste Technologie. NV fährt die Intel-Schiene, immer weiter aufdrehen bis es nicht mehr geht. Schneller kann jeder, aber das mit geringerem Volumen und ruhigem Verhalten ist die Herausforderung!
 
  • Gefällt mir
Reaktionen: Eller und xRedF
@Wolfgang Vielen Dank für den tollen Test, der so nochmal deutlich mehr Details zur Leistungsaufnahme einer Grafikkarte liefert.

Gerne würde ich mir einen ähnlichen Test für CPUs durch @Volker wünschen. Dann mit nur einer Grafikkarte, aber verschiedenen Bildwiederholraten auf die limitiert wird. Dann könnte man die Skalierung, wie die Leistungsaufnahme mit steigenden FPS zunimmt, am besten sehen.
Ergänzung ()

Lilz schrieb:
Mich fasziniert, dass sie die einzige Karte im Test ist die im Idle mit 2 Monitoren umgehen kann ohne Verbrauch zu verdoppeln....
HBM sei Dank.
 
Colindo schrieb:
Gerne würde ich mir einen ähnlichen Test für CPUs durch @Volker wünschen. Dann mit nur einer Grafikkarte, aber verschiedenen Bildwiederholraten auf die limitiert wird. Dann könnte man die Skalierung, wie die Leistungsaufnahme mit steigenden FPS zunimmt, am besten sehen.

Das Problem ist, das man die CPU nicht selbst messen kann sondern sich immer auf Tools verlassen muss die was auslesen. Das machen wir ja auch schon: https://www.computerbase.de/artikel...eite-3#abschnitt_leistungsaufnahme_in_spielen

Aber wie gesagt, das ist ja kein messen im eigentlichen Sinne sondern nur "vertrauen darauf, dass das stimmt, was das Tool anzeigt" Und da gab es ja schon das eine oder andere Mal auch deutliche Probleme, weil was ausgelassen wurde, was zu viel drin war usw., selbst AMD und Intel eigentlich nicht wirklich zu 100% da das gleiche aussagen. Und mit Alder Lake wird das sicher noch schlimmer .. und genau deshalb haben wir dafür aktuell auch keine Zeit ;)
 
  • Gefällt mir
Reaktionen: Colindo
Vielen Dank für den interessanten Test! Kommt gerade zur rechten Zeit. 👍
 
Friesisch_Derb schrieb:
Endlich ein Test, bei dem die RX Vega 64 ganz oben mitspielt :D
Puhh - Da habe ich ja Glück das bei mir W11 nicht läuft auf meinem alten System. :evillol:
3 Monitore an RX Vega 64 ( 3 x 2560 x 1440 @144Hz) bei ~7W unter W10...
Vega_Wat_Desktop.JPG

Vega_Fake-Watt_Desktop_W11.JPG

Und gugge mal ... da bin ich auch noch sparsamer als die 6600XT beim Fensterbewegen...
 
Sehr interessante Ergebnisse. Bei den Leistungsangaben für den Idle/Desktopbetrieb wäre generell mal interessant, wie die Lastwechselfrequenz der GPU ist bzw. auch wie oft die Taktraten sich ändern.
Das Energiemanagement in heutigen CPUs und GPUs verlangen schon viel von den Spannungswandlern ab. Auch für die Netzteile.

Die 5W im idle der 6600 XT ist schon beachtlich - Hut ab vor den Designern/Ingenieuren. Auch die 15W im Fensterszenario sind richtig gut, womit sich der Gamingrechner auch wunderbar als Officerechner im Sinne des Stromverbrauchs eignet. Die Stromkosten für den GPU Anteil wären dann mit 15W Verbrauch bei täglich 8 Std. Homeoffice an 200 Arbneitstagen weniger als 8€ / Jahr. Für die RTX 3090 wären es wiederum rund 20€ / Jahr.

Heisst im Endeffekt: Selbst wenn die 3090 gegenüber einer 6600 XT im Fensterszenario das 2,5-fache an Leistung braucht, bedeutet das für den Homeoffice-Anteil (sofern dieser auch in das Fensterszenario passt) nur 10€ mehr pro Jahr. Kostentechnisch für das Individuum also vollkommen uninteressant.

Kollektiv gesehen natürlich eine ganz andere Sache.

Beeindruckend im negativen Sinne sind aber definitiv die Modelle, die trotz gezogener Handbremse nur mäßig den Fuß vom Pedal nehmen.
 
  • Gefällt mir
Reaktionen: xRedF
Sollte wohl echt mal bei meiner UV machen, wobei meine laut hwinfo und AMD Treiber auf 272W begrenzt ist. Mal schauen was man da noch einsparen kann. Wobei meine auch laut AMD im idle bei 5-6 Watt rumgurkt
@CB Team
Sehr geiler bericht, für mich der viel auf P/L/W achtet sehr gut zu sehen das AMD wieder oben mitspielt, nicht nur bei CPUs sondern auch bei GPUs
 
Sehr schöner Vergleich des ganzen :) RDNA2 hat hinsichtlich Effizienz von werk ab einen Vorteil. UV kann sich lohnen, aber man muss halt individuell schauen.
 
  • Gefällt mir
Reaktionen: jemandanders
Zurück
Oben