Bericht Grafikkarten 2021 im Test: Leistungsaufnahme moderner GPUs neu vermessen

hurcos schrieb:
Kannst du dir damit für jede Generation ausrechnen.
Das würde bei der Leistung stimmen, beim Stromverbrauch hingegen absolut nicht. Bei der Effizienz/Stromverbrauch waren weder Generationen innerhalb einer Marke noch übergreifend je vergleichbar in dem Sinne, das man "umrechnen" konnte.
Klever schrieb:
Finde ich persönlich auch schade, aber CB scheint da weder über eine 2080 noch über eine 2080 Ti zu verfügen und Tests die eine 2080 Ti beinhalten habe ich bei CB leider auch schon relativ lang nicht mehr gesehen.
Wenn dem so ist, ist das nachvollziehbar aber dennoch schade.
 
  • Gefällt mir
Reaktionen: hurcos
JoeDoe2018 schrieb:
Dadurch kann die 6800XT sogar was das komplette Spiel mit Lüfterdrehzahlen um 550 U/s laufen was dann nicht mehr zu höhren ist.
ich hoffe, dass du U/Min meinst und dein PC nicht im zimmer herum fliegt ;)

@topic:
vielen dank für diese wirklich durchdachte testmethodik mit realiätsbezug. bringt ja keinem was, wenn nur synthetisch etwas berechnet wird...
 
  • Gefällt mir
Reaktionen: Mil_vanderMaas, Colindo, Blende Up und 2 andere
neulich noch gemosert, das CB nur noch in-ears testet und jetzt endlich mal wieder ein richtiger Knaller Artikel: Danke dafür!

Habe gestern aus meinem Wohnzimmer Rechner die 1060 gegen eine RX 6600 xt getauscht.
Ich bin wirklich beeindruckt von deren Leistung bei gleichzeitigem Verbrauch.
Die RX 6600 xt ist auf Augenhöher meiner 1080ti aus dem Hauptrechner bei nahezu der Hälfte an Verbrauch.
Bin echt am Überlegen ob ich mir für meinen Hauptrechner ebenfalls eine 6600 zulege (dort sind 3x FHD Monitore, somit wird eh nur 1080p gedaddelt.)
 
  • Gefällt mir
Reaktionen: danyundsahne, Onkel Föhn und qualeman
Nvidia erkauft sich ihre hohe Leistung durch massiven Stromverbrauch.
 
  • Gefällt mir
Reaktionen: danyundsahne und Onkel Föhn
Wer hätte das vor 1-2 Jahren gedacht, das AMD im High End Bereich mal effizienter sein wird. Betreibe meine 6900xt stabil mit 1100mV
Angenommen RDNA 2 wäre jetzt nicht so stark, dann wäre die Leistungsaufnahme bei Ampere mit Sicherheit geringer ausgefallen.
 
  • Gefällt mir
Reaktionen: Lamaan, danyundsahne und Onkel Föhn
Und ich wette mit Euch dasselbe gilt auch für CPUs. Für 75 oder 144FPS beim Zocken werde ich keinen 11900K oder 5950x brauchen. Da warte ich auch noch auf das Effizienzwunder.
 
  • Gefällt mir
Reaktionen: Unnu
Vielen, vielen Dank für den Test an alle, die daran mitgewirkt haben!!
Faszinierend, wie effizient die AMD Karten sind, wenn man die FPS limitiert. Das Gefühl hatte ich bereits bei meiner 6900XT, kommend von einer 2080Ti. Die AMD Karte taktet wild hin und her, wenn der Limiter greift. Die alte 2080Ti blieb nahezu immer fester "verankert" im jeweiligen Takt.
Aktuell ist die Performance "Krohne" für Performance/Watt sowohl bei den CPUs, als auch bei den GPUs in der Hand von AMD. Bin gespannt, wann und ob Intel bzw. Nvidia kontern wird und was AMD zu sagen hat.
 
  • Gefällt mir
Reaktionen: danyundsahne, hanjef und Onkel Föhn
Ampere läuft praktisch IMMER im Power Limit, die Karten sind so entworfen. In 4K eben mit 1800Mhz bei 800mv und in FHD dann halt 1950Mhz bei 1v - ohne FPS Limiter oder UV wird das PowerLimit eigentlich immer erreicht, außer bei extrem alten Schinken.

Effizienz ist bei Ampere ja leider nicht so toll geworden, aber das ist ein viel kleineres Problem als die Verfügbarkeit.
 
  • Gefällt mir
Reaktionen: Lübke82
Da mein Monitor nicht mehr als 75Hz schafft, kappe ich auch alles bei 75fps. Hinzu kommen einige UV Profile für meine 3070. Das spart es ordentlich Saft an der Dose. Wenn ich inCyberpunk meinen Rechner freien Lauf lasse, sehe ich da rund 445 Watt Verbrauch an der Steckdose (inklusive Bildschirm usw) und mit GPU UV und 1-2fps weniger rund 330 Watt, das ist Wahnsinn. Finde die Entwicklung auch eher schlecht. Dachte früher immer mit steigender Effizienz sinkt der Verbrauch, falsch gedacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und Onkel Föhn
Lilz schrieb:
Danke für die Mühe und Optimierung. Solche Tests finde ich allgemein immer hilfreich!

Mich fasziniert, dass sie die einzige Karte im Test ist die im Idle mit 2 Monitoren umgehen kann ohne Verbrauch zu verdoppeln....
Die anderen Karten müssen für zwei UHD Monitore den Speicher hochtakten, bei der Vega reicht die Speicherbandbreite des HBM auch im idle :)
 
  • Gefällt mir
Reaktionen: Colindo
Interessant, dass die RX6800 mit 144Hz (FPS) weniger verbraucht als die RX6700 XT.
Ich konnte bei mir das gleiche feststellen - spiele mit Limitierung auf 60Hz und da ist in vielen Szenarien meine "neue" GTX 1060 sparsamer als die GTX 1050 Ti. In anspruchslosen Spielen dümpelt die dann bei 810MHz vor sich hin.
 
  • Gefällt mir
Reaktionen: Sascha631
Erkekjetter schrieb:
Das würde bei der Leistung stimmen, beim Stromverbrauch hingegen absolut nicht...
Ich nehme alles zurück und behaupte das Gegenteil.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
DarkerThanBlack schrieb:
Unglaublich aber wahr. Wer seine Grafikkarte mit aktivierten V-Sync betreibt, der spart eine menge Energie.

Bedenkt man einmal, dass eine AMD RX6800 ca. 70% schneller ist als eine RTX3060.
Anhang anzeigen 1125812

Aber gleichzeitig 8% genügsamer ist:
Anhang anzeigen 1125813

So bin ich einmal gespannt auf den Refresh bzw. der neuen Generation in 5nm. 😊
Der Stromverbrauch basiert hier auf einem Test mit einem Game, oder? Zumal selbst die 6700xt hier angeblich 20%-Punkte mehr verbrauchen soll, als eine 6800.
 
Schade, dass es die 2080ti nicht in den Vergleich geschafft hat. Ich glaube die spielt da relativ nah bei Ampere mit. Ich habe für mich jedenfalls beschlossen, dass Ampere nicht gekauft wird. Die Mehrleistung zu meiner 2080ti wird eigentlich fast komplett durch mehr Stromaufnahme erkauft. Wenn man sich die "2080ti vs 3080" Videos auf Youtube ansieht und die Average FPS zusammen mit der Leistungsaufnahme vergleicht, sieht man, dass Ampere zwar ein teilweiser großer Leistungssprung ist, jedoch eben hauptsächlich erkauft durch höhere Leistungsaufnahme.

Auf alle Fälle: Super Test!
 
  • Gefällt mir
Reaktionen: Unnu, Laphonso und Shor
persönliches Fazit. Meine 3090 ist ein Säufer und zwar immer. Evtl wechsle ich nach 2 Generationen grün mi RDNA3 doch wieder ins rote Lager.
 
  • Gefällt mir
Reaktionen: Laphonso, Onkel Föhn und GUN2504
Auch mit neuer Vermessungs keine Änderungen =) AMD hat hier NOCH die Nase vorn. Die Richtung ist O.K. erhoffe mir von RDNA 3 aber mehr bzw. in dem Fall weniger :)
 
  • Gefällt mir
Reaktionen: Lamaan und Onkel Föhn
Ultharandor schrieb:
Ja geil ich hab's zwar noch nicht gelesen aber es klingt so als ob das genau das ist was ich gesucht habe.
Dann lies ihn erst einmal bevor du einen Kommentar ab gibst.:rolleyes:
 
  • Gefällt mir
Reaktionen: Asghan und Zwirbelkatz
Dai6oro schrieb:
persönliches Fazit. Meine 3090 ist ein Säufer und zwar immer. Evtl wechsle ich nach 2 Generationen grün mi RDNA3 doch wieder ins rote Lager.
Ich hatte vor meiner 6800XT eine RTX 3090 und fand die Leistungsaufnahme mit UV eigentlich in Ordnung. Es waren ca. 250W bei 0,8V und 1700MHz. Schlimmer schaut es da mit Preis/Leistung aus. Im Vergleich zu einer RTX 3080 oder RX 6800XT ist die RTX 3090 miserabel - trotz 24GB Speicher.
 
  • Gefällt mir
Reaktionen: Lamaan und Onkel Föhn
Zurück
Oben