Bericht Grafikkarten 2021 im Test: Leistungsaufnahme moderner GPUs neu vermessen

Meine 6800 taktet nur runter wenn ich ein monitor betreibe, wenn beiden laufen geht der vram weiter auf volldampf
 

Anhänge

  • Screenshot 2021-09-23 205348.png
    Screenshot 2021-09-23 205348.png
    108,3 KB · Aufrufe: 264
  • Screenshot 2021-09-23 205302.png
    Screenshot 2021-09-23 205302.png
    105,1 KB · Aufrufe: 262
Naja Samsung Fertigung halt, dafür kann NVIDIA den Markt aber mit Karten fluten und verdient richtig gut.
Das heißt für AMD das man nächstes mal auch die wesentlich schlechtere Fertigung nehmen sollte um den Markt zu bedienen. Auf den Preis hat es ja dank der Lieferknappheit keinen Einfluss mehr.
Nur von TSMC abhängig zu sein geht im GPU Markt halt leider nicht.
 
Danke für den interessanten Artikel, wäre vielleicht noch etwas anschaulicher, wenn man die tatsächlich erreichte FPS noch irgendwie in den Verbrauchsbalken unterbringen könnte? ist zwar mehr oder weniger in der Performance / Watt Tabelle drinne, aber gerade bei den 144 FPS fänd ich es gut, wenn man sehen könnte ob diese erreicht werden.

Das runtertakten im Idle ist auch so eine Wissenschaft für sich, das hat mit den ersten Win10 Versionen super funktioniert, aber irgendwann habe ich das Problem bekommen, dass meine GTX 1070 mit 144 Hz ständig hoch getaktet hat, selbst bei minimaler Last wie eine leeres Browserfenster. Letztendlich betreibeibe ich meinen "nur" FHD Monitor seither nur noch mit 120 Hz statt 144 Hz.
Richtig lästig wurde es, seit ich meinen AV zum spielen für die Soundausgabe nutze, leider funktioniert die Ausgabe über HDMI nur wenn der AV als Monitor erkannt wird. Und egal was für eine Auflösung ich einstelle für den AV, solange ich das Bild klone taktet die GK hoch, witzigerweise geht der Verbrauch nicht hoch wenn das Bild erweitert wird. Mußte zwar bisl rumtricksen und den 2ten Monitor (AV) diagonal rechts oben über den Hauptmonitor verschieben, aber so kann nun auch die Maus nicht mehr verschwinden und der Verbrauch bleibt unten.
 
Klever schrieb:
Dasselbe auch bei den 5000er RX Karten.
Nope, sie Takten ganz normal runter bei meinem 144hz Monitor.
 
  • Gefällt mir
Reaktionen: xRedF
Lustig, passend - bin nämlich gerade von einer 3090 auf eine 6900 XT gewechselt. Aus folgendem Grund:

"Gleichzeitig stellt das Spielen mit einem FPS-Limit andere Anforderungen an die GPU-Telemetrie als Volllast, was Radeon-Grafikkarten derzeit besser beherrschen als GeForce-Grafikkarten. Wer also mit einem FPS-Limiter oder mit VSync spielt, kann je nach Spiel ordentlich Energie auf einer AMD-Grafikkarte sparen, was mit einem Nvidia-Gegenstück weniger gelingt."

Perfomance ist nicht alles für mich (die ja immernoch sehr sehr gut ist), Effizienz ist mir wichtiger. Da ich die 3090 etwas teurer verkaufen konnte, wie ich sie eingekauft habe, ist es nicht schlimm, dass ich die 6900 XT nicht von Anfang gekauft habe. So konnte ich beide gut kennenlernen.
 
  • Gefällt mir
Reaktionen: danyundsahne, LukS und xRedF
Mit der neuen Regierung gibt‘s demnächst eine Vergnügungssteuer - insbesondere auf solche Wattfresser für das private Hobby 😁
 
Wenn das Runtertakten der RX6800XT wenigstens unter Linux klappen würde. Leider verharrt der Speicher bei 1000Mhz wenn man größer als FHD unterwegs ist, was sich bei mir recht deutlich in der idle Leistungsaufnahme niederschlägt: 50W (Win) zu 105W (Linux) Gesamtsystem. Sehr ärgerlich und bisher auch noch keine Besserung in Sicht.
Zum FPS Limiter: Der MSFS begrenzt ja gar auf 30 oder 60Hz, daher hat das hier schon durchaus Relevanz. Und die reichen dann auch dicke.
 
Qta schrieb:
naja, sind ja nur ca. 50% Preissteigerung bis 2030 bei den Stromkosten
in 9 jahren 50%? - glaub ich nicht...
EEG Umlage, der derzeitige Haupttreiber wird auf 5ct/kwh gedeckelt bis 2024, ab 2027 wird die EEG-Umlage ganz abgeschafft, somit sinkt der Strompreis um diese 5ct.
Der Preis müsste also ganz ganz dick steigen, ich sehe da aktuell keinen Kostentreiber für.

@topic mir persönlich ist es relativ egal was die karte verbraucht. ich undervolte die karten auch nicht - für was auch...
Ich laufe auf der arbeit (industrie) an stationen vorbei, die im idle(!) alle 400-500W verballern, davon gibt es hunderte. Die laufen 24/7, auch am WE. Was ihr hier alle im thread spart, wird im industriegebiet doppelt und dreifach rausgeballert für nix.
 
Zuletzt bearbeitet:
Ich fände ja mal interessant wenn ihr Journalisten investigativ in der IT etwas voran bringt. Die Effizienz und somit auch die Leistung ist zwar über die Jahre massiv gestiegen, aber dennoch verbrauchen heute Grafikkarten so viel wie noch nie und die nächste Gen soll da nochmal eins drauf legen. 750 bis 1.000 Watt Netzteile Ahoi. Mich würde mal interessieren wie das zu dem ganzen "Green-IT" Geblubber passt. Da wird in der Industrie leider viel an Märchen erzählt. Klar kann man mit so einer Karte viel mehr berechnen als alte die im Umkehrschluss für die Rechenzeit mehr Leistung benötigen, dennoch habe ich letztlich erst mal eine Karte da stehen die real und faktisch deutlich mehr verbraucht. Dazu kommt auch noch das solche Beispiele nur im Rechenzentrum Sinn machen in dem das ganze klar skaliert und 1:1 ausgetauscht wird. Ein Gaming-PC verbraucht derzeit einfach deutlich mehr Strom wenn man oben mithalten will. Was mein PC frisst war früher lange Zeit schon am oberen Ende, jetzt bin ich eher in der Mitte, das ist einfach heftig. Gerade angesichts der Klimakrise wäre es doch viel ehrlicher und zeitgemäßer hier mal den Finger in die Wunde zu legen, denn die Hersteller gehen auf noch mehr Verbrauch.
 
  • Gefällt mir
Reaktionen: Czk666
cruse schrieb:
Was ihr hier alle im thread spart, wird im industriegebiet doppelt und dreifach rausgeballert für nix.
ich spar weil es mein geld ist, was andere machen ist mir egal
wenn ich bei fast gleicher leistung mir 50watt sparen kann wieso sollte ich es nicht tun?
 
  • Gefällt mir
Reaktionen: Steueroase, bad_sign, Wichelmanni und eine weitere Person
@Erzherzog
die karten leisten auch deutlich mehr, sind am ende auch sparsamer geworden - du siehst das zu oberflächlich.

@EmilEsel jo klar, und wieviel sparst du bei den 50w an geld am ende? sinds schon 10€? bei 700h im jahr sparst du knapp 11€ (je nach tarif) - nicht schlecht, klar, aber da falle ich auch nicht vom hocker bei der summe.
 
Witzig, ich spiele mit meiner 6900XT eh mit 144er FPS Limit. Hab ich wohl die richtige Karte gekauft. :D
 
  • Gefällt mir
Reaktionen: danyundsahne, Lamaan und xRedF
als ob ich mir eine rx 6800 aus spargründen kaufe. da hät ich dann eher beim kauf sparen sollen
wobei die 700 damals waren jetzt auch nicht wirklich teuer.
mein gesamtsystem verbrät um die 300 watt bei division2 auf 4k ultra, da reichen auch die 60fps
 
cruse schrieb:
die karten leisten auch deutlich mehr, sind am ende auch sparsamer geworden - du siehst das zu oberflächlich.
Komisch, habe das doch alles ausgeführt und die Effizienz angesprochen. Real verbrauchen die Enthusiast Karten mehr. 300 Watt ist nicht sparsamer, auch wenn die Karte mehr Rechenleistung hat. Es ist einfach effizienter. Real verbrauche ich aber mehr Strom als mit der alten Karte. Wenn die nächste Gen noch eins drauf legt reichen nicht mal mehr 750 Watt Netzteile :P

cruse schrieb:
jo klar, und wieviel sparst du bei den 50w an geld am ende? sinds schon 10€? bei 700h im jahr sparst du knapp 11€ (je nach tarif) - nicht schlecht, klar, aber da falle ich auch nicht vom hocker bei der summe.
Kommt halt aufs Einkommen an, wobei man schon etwas auf seinen Klimabeitrag achten sollte. Ich verstehe es bei Leuten die eh 5-10k Brutto im Monat verdienen (hehe) da schaut man nicht auf jeden Cent, aber selbst ich als Erzherzog habe mir mal durchgerechnet was mich das alles kostet (Kleinvieh macht auch Mist) und mit meinem Smart-Home und so weiter komme ich selbst wenn ich nur den Standby meiner Geräte nehme auf locker über 50 Euro im Jahr am Kosten. Wohlgemerkt nur Standby, weswegen ich Steckerleisten benutze. Bei mir läuft eigentlich nix durchgehend außer der Router (muss auch Nachts erreichbar sein, ist auch Tele dran) kenne aber genug die selbst das abklemmen. Letztlich sollte man nur das laufen lassen was wirklich genutzt wird, sonst kann ich das Geld einzeln zum Fenster raus werfen kommt aufs gleiche an. Gilt generell für die Haushaltsführung. Ich würde das an deiner Stelle daher nicht so sehr belächeln - du siehst das zu oberflächlich ;)
 
  • Gefällt mir
Reaktionen: xRedF
Na, da sieht "Samsung 8 nm" aber schon ziemlich schlecht aus. Ja, RDNA2 ist auch eine sehr effiziente Architektur, aber bei NVIDIA haut der Node doch wohl auch ganz schön rein. Von TSMC 7 nm ist Samsung 8 nm weit entfernt. Das NVIDIA dann auch noch aufs Gaspedal tritt beim Arbeitstakt macht die RTX30XX dann entgültig zu weniger effizienten Stromfressern - Nomen est Omen (Ampere).
 
  • Gefällt mir
Reaktionen: xRedF
Das würde mich auch stark wundern, wenn du LED benutzt sind das nur ein paar Watt und ein PC braucht im Idle auch nicht sonderlich viel, man muss aber sagen im Vergleich zu einem Tablet oder Notebook beim surfen ist das dennoch extrem viel. Da du eine 570er Plattform hast wirst du im Idle wohl kaum unter 60 Watt sein, da du je nach Surfverhalten gleich mal den Takt deiner Hardware anheben wirst (richtiges Idle ist wenn du gar nix machst) dann bewegst du dich locker gleich bei 100 Watt + Display. Ist halt weil du ein sehr stromfressendes System hast, von richtiger Last sprechen wir da ja noch gar nicht. Aber klar, selbst da dreht sich dein Zähler noch nicht wie wild, das sieht man selbst wenn die Klimaanlage läuft nur sehr langsam drehen. Das wäre ja auch etwas merkwürdig für die Abrechnung, da kommt dennoch einiges an kw/h zusammen über die Zeit.
Ich hatte vorher Comet-Lake mit einem einfachen Board, da hat das gesamte System 40 Watt gezogen, da bin ich leider auch nicht mehr ganz ^^
 
  • Gefällt mir
Reaktionen: Thrask
bitte jetzt noch mit UV testen (inkl. MPT und Undervolt von SoC usw.)
 
Danke für die Mühe! Der Fensterverschiebetest hat ja nicht viel neues ergeben, aber super interessant sind die Spieletests mit FPS Limit. Jetzt müssten nur noch die Preise stimmen, dann würde ich mir gleich ne 6600 XT kaufen. Leider weit von den berechtigten 200€ entfernt.
 
Also ich betreibe meine 6800xt an nem 1440p 240hz Monitor mit HDR AlwaysON und sie taktet problemlos runter im idel.

Gut FPS Limit ist halt so ne Sache bei 240hz.. die will man entsprechend genießen.. aber bei älteren spielen schau ich schon das ich um die 240hz limitiere

Ansonten... ich versuche zb im Menü zu begrenzen wenn es das Spiel zulässt


Btw finde ich es erschreckend wie wenige Spiele die Option haben das Menü seperat einzustellen.
Die paar Bildchen und Animationen müssen jetzt nicht unbedingt soviel Leistung fressen.

Wenn ich mir zb warzone anschaue..
da hängste im Menü mit 200-220 fps und kannst sehen wie dein Avatar durch die Gegend läuft..
Während dessen laufen CPU und GPU volle Pulle..
90-120fps tun es da auch..
Zum Glück kann man das Menü da seperat einstellen... Auch wenn ich die Walking Animation am liebsten ausschalten würde..


Battlefield zb läuft sowohl das Menü als auch der Ladebildschirm während man ne Lobby oder Server sucht auch mit max FPS (ok 240fps weil's an die Monitor refreshrate gekoppelt ist)

Tut das wirklich not das dass menü hier volle Pulle läuft?
 
  • Gefällt mir
Reaktionen: ro///M3o und Ray Donovan
Zurück
Oben