Bericht Grafikkarten 2021 im Test: Leistungsaufnahme moderner GPUs neu vermessen

cruse schrieb:
in 9 jahren 50%? - glaub ich nicht...
EEG Umlage, der derzeitige Haupttreiber wird auf 5ct/kwh gedeckelt bis 2024, ab 2027 wird die EEG-Umlage ganz abgeschafft, somit sinkt der Strompreis um diese 5ct.
Der Preis müsste also ganz ganz dick steigen, ich sehe da aktuell keinen Kostentreiber für.

@topic mir persönlich ist es relativ egal was die karte verbraucht. ich undervolte die karten auch nicht - für was auch...
Ich laufe auf der arbeit (industrie) an stationen vorbei, die im idle(!) alle 400-500W verballern, davon gibt es hunderte. Die laufen 24/7, auch am WE. Was ihr hier alle im thread spart, wird im industriegebiet doppelt und dreifach rausgeballert für nix.
https://www.handelsblatt.com/politi...ml?ticket=ST-1296751-eieN53ZMAIj5ZuryWVMN-ap6
 
Zero du solltest doch eigentlich wissen, dass man keine Bilder/Tests ohne Quelle postet.
Die Rahmenbedingungen wären doch sehr interessant, denn AMD hat ja in den letzten Treiber doch ein wenig am Powermanagement gewerkelt
 
  • Gefällt mir
Reaktionen: ZeroStrat
Doom Eternal alleine ist kein gutes Messspiel, wenn man AMD und Nvidia zusammen testet.
AMD hat bei Doom möglicherweise einen leichten Vorsprung und kann daher vor Nvidia die 144Fps erreichen.
Auf ein Spiel alleine bezogen haben daher die Werte leider kaum einen Wert, WENN man Nvidia mit AMD vergleicht.
Da könnte man auch gleich noch Raytracing und/oder 60FPS Limit mit testen, dann sieht es bestimmt anders aus.
In eurem RT-Test in Doom Eternal sind die FPS der AMD Karten um 54% und Nvidia nur um 37% eingebrochen.
 
  • Gefällt mir
Reaktionen: Cohen, Sun-Berg, Thrask und eine weitere Person
Beide Hersteller nehmen sich einfach nahezu nichts. Wenn man die Karten laufen lässt, vor allem im GPU Limit ohne FPS-Begrenzung, dann nehmen die sich sowohl bei Team green, als auch red so viel sie wollen.

Bei der 3080Ti komme ich auf 360W Verbrauch (ohne UV). Das ist bei der 6900XT nochmal eine Nummer krasser gewesen.

Es ist auch absolut Usecase abhängig. Ohne Limit, hat sich die Toxic Extreme satte 429W gezogen bei 2.8Ghz.

Bei Division 2 benötigt die 6900XT etwa 2.8Ghz Takfrequenz um so schnell zu sein wie die 3080Ti bei 1800Mhz.

Wenn ich dort bei 4K High Preset ein FPS Limit von 117 FPS einstelle, schwanken beide Karten zwischen 280 und 350W.

Im Idle war die 6900XT definitiv sparsamer. 6-8W vs. 30W.
 
  • Gefällt mir
Reaktionen: Sun-Berg
Unabhängig von diesem Test habe ich vor ca. einer Woche meine verkaufte 3090 (MSI Gaming X Trio mit 370W TGP) mit der 6900 XT (MSI Gaming Z mit 300W TGP) verglichen. Die 3090 lief mit 0,8v @ 1725 MHz (also schon ziemlich stark undervoltet) und die 6900 XT mit 1100mv/2400 MHz über Wattman.
In allen sechs von mir getesteten Spielen war die 6900 XT effizienter, auch unter Vollast (dort meistens "nur" so 10%). In einigen wenigen Titeln war sie jedoch mit 60 fps cap (bei 60-70% Load) rund 50% (!) sparsamer (ca. 250W zu ca. 120W oder sowas, müsste nachschauen).
 
  • Gefällt mir
Reaktionen: xRedF, Eller, Sun-Berg und 2 andere
Volker schrieb:
da gab es ja schon das eine oder andere Mal auch deutliche Probleme, weil was ausgelassen wurde, was zu viel drin war usw., selbst AMD und Intel eigentlich nicht wirklich zu 100% da das gleiche aussagen. Und mit Alder Lake wird das sicher noch schlimmer .. und genau deshalb haben wir dafür aktuell auch keine Zeit
Wenn die Sensorwerte klar nicht stimmen, ist das natürlich hinfällig. Aber ich dachte mir, wenn man gerade eh Messungen der Sensoren für Tests nutzt...

Für eine richtige Messung bräucht man dann sowas wie PCAT als Adapter für den CPU-Sockel. Vielleicht muss man mal bei Nvidia anfragen :D
 
"Offenbar hat Ampere größere Schwierigkeiten damit, Taktraten und Spannungen zu reduzieren, wenn keine volle Performance benötigt wird, während RDNA 2 dies verhältnismäßig leichtfällt."

Das habe ich schon kurz nach dem Kauf geahnt, auch wenn natürlich detailierte Vergleichswerte gefehlt haben.
Da muss ich gegenüber meiner AMD Karte manuell schon mehr nacharbeiten, dort hat sich viel getan in den letzten Jahren.

Ich betreibe meine 3090 in den meisten Spielen untertaktet, so das mich die maximal möglichen ~340 Watt meiner auch wenig tangieren.

Ein aktuelles Beispiel ist Deathloop.

Die Karte läuft mit 1500 Mhz, das reicht je nach Szene für 70-120 fps und sie zieht ~150 Watt.
Lasse ich ihr freien
Lauf sind es ~340 Watt.
Die mehr fps bringen aber kaum ein besseres Spielgefühl wegen der unsauber arbeitenden engine.
In anderen Spielen brauche ich aufgrund der Art des Spiels schlicht nicht mehr als 60/70/80 fps, etwa in Hitman 3.

Sobald meinen einen Faktor limitiert (z. B. Mhz oder fps), kann man die Leistungsaufnahme ordentlich drücken.
 
@Silentfan86 Vergiss nicht, bei AMD liest der Sensor nur den ASIC aus, also GPU+RAM, da fehlt der Rest des Boards. 255W ASIC entsprechen ~300W der gesamten Karte.
Ergänzung ()

ZeroStrat schrieb:
Leider wird nicht darauf eingegangen, welche(s) Spiel(e) getestet wird/werden
Ergänzung ()

Colindo schrieb:
Wenn die Sensorwerte klar nicht stimmen, ist das natürlich hinfällig. Aber ich dachte mir, wenn man gerade eh Messungen der Sensoren für Tests nutzt...
Normal misst man den Strom über die 12V Kabel die zu den VRM gehen. Da sind zwar Wandlerverluste mit drin, aber besser kommt man nicht ran.
https://www.reichelt.com/de/en/trms...-dc-amp-330-eur-p153576.html?GROUPID=542&&r=1
Mit sowas kann man das messen. Also mit etwas höherwertigem und am besten fürs Oszy^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheOpenfield und Colindo
Hab mal Strange Brigade mit der RTX 3070 Ti getestet. Das sieht mir alles völlig normal aus.
1632497414676.png
 
Besonders was VSync angeht bei NVidia hat sich viel nur durch Treiber getan, vor einer gewissen Zeit verbrauchte eine GTX 1060 beispielsweise mit aktiviertem VSync exakt genausoviel Energie/Strom als hätte man diese ohne VSync und auch ohne FPS Limit laufen lassen.

Durch Treiberupdates wurde das behoben, aber wie es aussieht niemals in einem Changelog erwähnt.
Mittlerweile ist sogar Vsync und oder das FPS-Limit durch den Nvidia-Treiber effizienter als wenn man das FPS Limit über den MSI Afterburner/RTSS setzt.

Warum nur durch die Treiber, nunja was auf einer RTX 2060 passiert, passiert genauso auf einer GTX 1060, man schaue sich einfach zur RTX 2060 an welche Grafikkarten von der Treiberversion noch unterstützt werden, zumindest die 900er Serie ist so also genauso verbessert worden.
472.12 WHQL
NVIDIA TITAN Series:
NVIDIA TITAN RTX, NVIDIA TITAN V, NVIDIA TITAN Xp, NVIDIA TITAN X (Pascal), GeForce GTX TITAN X, GeForce GTX TITAN, GeForce GTX TITAN Black, GeForce GTX TITAN Z

GeForce RTX 30 Series:
GeForce RTX 3090, GeForce RTX 3080 Ti, GeForce RTX 3080, GeForce RTX 3070 Ti, GeForce RTX 3070, GeForce RTX 3060 Ti, GeForce RTX 3060

GeForce RTX 20 Series:
GeForce RTX 2080 Ti, GeForce RTX 2080 SUPER, GeForce RTX 2080, GeForce RTX 2070 SUPER, GeForce RTX 2070, GeForce RTX 2060 SUPER, GeForce RTX 2060

GeForce 16 Series:
GeForce GTX 1660 SUPER, GeForce GTX 1650 SUPER, GeForce GTX 1660 Ti, GeForce GTX 1660, GeForce GTX 1650

GeForce 10 Series:
GeForce GTX 1080 Ti, GeForce GTX 1080, GeForce GTX 1070 Ti, GeForce GTX 1070, GeForce GTX 1060, GeForce GTX 1050 Ti, GeForce GTX 1050, GeForce GT 1030, GeForce GT 1010

GeForce 900 Series:
GeForce GTX 980 Ti, GeForce GTX 980, GeForce GTX 970, GeForce GTX 960, GeForce GTX 950

GeForce 700 Series:
GeForce GTX 780 Ti, GeForce GTX 780, GeForce GTX 770, GeForce GTX 760, GeForce GTX 760 Ti (OEM), GeForce GTX 750 Ti, GeForce GTX 750, GeForce GTX 745, GeForce GT 740, GeForce GT 730, GeForce GT 720, GeForce GT 710

GeForce 600 Series:
GeForce GTX 690, GeForce GTX 680, GeForce GTX 670, GeForce GTX 660 Ti, GeForce GTX 660, GeForce GTX 650 Ti BOOST, GeForce GTX 650 Ti, GeForce GTX 650, GeForce GTX 645, GeForce GT 640, GeForce GT 635, GeForce GT 630

Interessant wäre mal, ab wann das umgesetzt wurde und welcher Treiber zuletzt das so noch nicht unterstützt hat.
Ob das quasi von Heute auf Morgen geändert wurde, oder ob es da differenzen gibt, sprich man das Stück für Stück verbessert hat.

Also ich kann nur sagen, VSync an und dann ist gut, man spart ne Menge Strom und hat zudem kein Tearing, was ein G-Sync oder Freesync (g-sync compatible) nunmal nicht behebt.
Das einzige was das nämlich bewirkt ist, das FPS-Einbrüche man nicht mehr so spürt solange die FPS/Hz syncron laufen können ist der Bildablauf eben nur weicher.
Es verschiebt sich das Tearing von der Mitte auf den unteren Bildbereich, was einem auch reichen kann, weil man es einfach nicht mehr sieht.
Nur es macht einfach absolut keinen Sinn Energie zu verbrauchen für mehr Frames, die der Bildschirm nunmal nicht darstellen kann und es verbessert auch keinen sogenannten "Input-Lag"

Wer beispielsweise mit ner Nvidia-Karte und dem neuen "Quake" was normalerweise an und für sich mit Vulkan läuft beispielsweise ein "Nachziehen" am Bildschirm bemerkt, der sollte einfach mal von Vulkan auf "DX11 API" umstellen.
Das geht beispielsweise über Steam durch die Startoptionen bei diesem Spiel mit "+r_rhirenderfamily “d3d11”"
Unbenannt.jpg


Gruss HL
 
  • Gefällt mir
Reaktionen: herculesgott
bad_sign schrieb:
Leider wird nicht darauf eingegangen, welche(s) Spiel(e) getestet wird/werden

Am Anfang der Seite ist ein Spoiler mit den Details
  • Gaming: Cyberpunk 2077 is running at 2560x1440 with Ultra settings and raytracing disabled. We ensure the card is heated up properly, which ensures a steady-state result instead of short-term numbers that won't hold up in long-term usage.
  • V-Sync: If you don't need the highest framerate and want to conserve power, running at 60 FPS is a good option. In this test, we run Cyberpunk 2077 at 1920x1080, capped to 60 FPS. This test is also useful in testing a graphic card's ability to react to situations with only low power requirements. For graphics card that can't reach 60 FPS at 1080p, we report the power draw at the highest achievable frame rate.

Cyberpunk ist natürlich, auch ohne Raytracing, eher mit Nvidia GPUs performanter, folglich dreht sich das Bild hier auch komplett um und ist ein weiteres Beispiel dafür, dass man solche Limiter Verbräuche nicht an einem einzigen Spiel festmachen sollte.
Über den gesamten GPU Parcours von CB wären 6800XT und 3080 am Ende wahrscheinlich ziemlich nah beieinander.
 
  • Gefällt mir
Reaktionen: Sly123 und bad_sign
Reagiert Vsync anders als FPS Limiter? Vsync ist doch Doublebuffering, also 2 pre rendered Frames oder?
 
@Taxxor @ZeroStrat Vergleiche mit anderen Spielen sind sicher sinnvoll. Dann würde ich aber direkt eine Reihe Spiele mal selbst mit und ohne Limiter testen und das hier einstellen. Sonst fehlen uns die klaren Argumente.

@HasseLadebalken Deine Beschreibung von FreeSync ist nicht korrekt. Das wirkt zuallererst gegen Tearing.
 
Colindo schrieb:
Dann würde ich aber direkt eine Reihe Spiele mal selbst mit und ohne Limiter testen und das hier einstellen. Sonst fehlen uns die klaren Argumente.
Ohne PCAT wird das für mich schwierig, da die Sensordaten zwischen AMD und Nvidia ja nicht vergleichbar sind, das würde lediglich eine Tendenz zeigen, wenn man bei AMD die Board Power grob ausrechnen müsste
 
DarkerThanBlack schrieb:
Mit 8GB Speicher? Ist das wirklich eine Empfehlung wert? 🤔
Die fällt doch automatisch aus dem Raster raus, oder irre ich mich da etwa?
Hat damit nichts zu tun.
Man kann eine kleine GPU die am Anschlag getaktet ist, nicht mit einer großen GPU im Sweetspot vergleichen. Macht null Sinn.
Außerdem ist die 3070/Ti, zumindest in 1440p, sehr gut unterwegs.
 
Wäre ein zusätzlicher Test bzgl Multimonitor noch möglich? An meiner GPU hängt am DP-Ausgang der Monitor und am HDMI Ausgang der AV-Receiver für die Tonanlage.
 
Zurück
Oben