Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Grafikkarten 2021 im Test: Leistungsaufnahme moderner GPUs neu vermessen
Erkekjetter
Rear Admiral
- Registriert
- Sep. 2021
- Beiträge
- 5.302
Warum das Testfeld eine 2060 und 2070 Super, aber keine 2080 oder 2080 Ti enthält erschließt sich mir nicht ganz. Entweder die gesamte "alte" Generation weglassen oder komplett drin haben. Aber son Mischmasch ist irgendwie unbefriedigend. Vor allem wenn man anderseits auch noch Karten wie ne Vega 64 drin hat....
Hätte gerne einen Fensterbewegungen + Dual Monitor Test gesehen, da wäre sie wahrscheinlich tatsächlich am richtigen Ende. Den Stromverbrauch bei aktiviertem FPS-Limit fand ich aber amüsantFriesisch_Derb schrieb:Endlich ein Test, bei dem die RX Vega 64 ganz oben mitspielt
Anon-525334
Banned
- Registriert
- Dez. 2010
- Beiträge
- 1.478
Das sieht ja düster für Nvidia aus. Was AMD da für eine Lücke geschlossen hat, nur mit einer Generation, das ist schon beachtlich.
xxMuahdibxx
Fleet Admiral
- Registriert
- Juli 2011
- Beiträge
- 35.818
Erkekjetter schrieb:Warum das Testfeld eine 2060 und 2070 Super, aber keine 2080 oder 2080 Ti enthält erschließt sich mir nicht ganz.
Vielleicht weil die Karten nicht mehr im Lager waren.
Ultharandor
Ensign
- Registriert
- Dez. 2011
- Beiträge
- 185
Ja endlich. Wenn mein Monitor mit AMD Freesync nur 75 Mhz macht reichen auch nur 75FPS oder ggf. auch 150, aber da ist es wohl besser dann Freesync zu aktivieren, schwupps braucht auch die 300Watt Karte nur noch einen Bruchteil der Energie.
Das ist genau das was ich immer wissen wollte. Was bracuhe ich an Strom um meinen Monitor voll auszulasten und dann wähle ich das effizienteste Modell an Grafikkarte dafür. Augenscheinlich ist das aber dann eine AMD Karte. Speziell bei den neuen Modellen Ende des Jahres wird das interessant.
Das ist genau das was ich immer wissen wollte. Was bracuhe ich an Strom um meinen Monitor voll auszulasten und dann wähle ich das effizienteste Modell an Grafikkarte dafür. Augenscheinlich ist das aber dann eine AMD Karte. Speziell bei den neuen Modellen Ende des Jahres wird das interessant.
Ich war mit der Leistungsaufnahme meiner RX 6800XT ab Werk etwas unzufrieden. Jetzt läuft sie 2200MHz bei einer Spannung von 0,881V und hat eine Leistungsaufnahme von ca. 160W. Ab Werk waren es ca. 260W bei 2300MHz, was in 5% mehr fps resultiert - allerdings bei wesentlich mehr Abwärme und Lautstärke.
Jetzt läuft die Karte selbst unter langer Voll-Last bei 25% Lüfter und wird nie wärmer als 72°C.
Jetzt läuft die Karte selbst unter langer Voll-Last bei 25% Lüfter und wird nie wärmer als 72°C.
hurcos
Ensign
- Registriert
- Juli 2013
- Beiträge
- 239
Erkekjetter schrieb:Warum das Testfeld eine 2060 und 2070 Super, aber keine 2080 oder 2080 Ti enthält erschließt sich mir nicht ganz. Entweder die gesamte "alte" Generation weglassen oder komplett drin haben. Aber son Mischmasch ist irgendwie unbefriedigend. Vor allem wenn man anderseits auch noch Karten wie ne Vega 64 drin hat....
Zuletzt bearbeitet:
- Registriert
- Sep. 2009
- Beiträge
- 22.369
Als einer, der seinen ComputerBase Account kurz vor der AMD 5000er Generation eingerichtet hat, musste ich da kichern.Geckoo schrieb:Und wer hatte vor ein paar Jahren gedacht, dass AMD nicht nur im High-end mitspielt, sondern auch die Effizienzkrone tragen wird...
Die Radeon HD 5870 und 5850 waren für die später kommende nVidia GTX 480 einfach unantastbar in Effizienz.
- Registriert
- Apr. 2001
- Beiträge
- 16.023
? Genau das machen wir doch.kaka11 schrieb:Messung direkt an 12V Leitungen,
Klever
Lt. Commander
- Registriert
- Dez. 2020
- Beiträge
- 1.393
Erkekjetter schrieb:Warum das Testfeld eine 2060 und 2070 Super, aber keine 2080 oder 2080 Ti enthält erschließt sich mir nicht ganz. Entweder die gesamte "alte" Generation weglassen oder komplett drin haben. Aber son Mischmasch ist irgendwie unbefriedigend. Vor allem wenn man anderseits auch noch Karten wie ne Vega 64 drin hat....
Finde ich persönlich auch schade, aber CB scheint da weder über eine 2080 noch über eine 2080 Ti zu verfügen und Tests die eine 2080 Ti beinhalten habe ich bei CB leider auch schon relativ lang nicht mehr gesehen.
Würde es auch besser finden wenn man zumindest die 2080 Ti aufführen könnte, schließlich hat man auch Vegas 64 und 1080 in den Benchmarks, die Karte ist ja immer noch verbreitet und wird es mit der jetzigen GPU Situation auch noch bleiben, plus es haben sich ja viele die keine 1500 Euro für eine neue GPU leisten können sich eine 2080 Ti auch gebraucht gekauft. Wahrscheinlich ist die deswegen auch nicht vertreten, zu begehrt um sie für die Benchmarks abzustellen.
Powercolor 5870, damals recht unerfahren gekauft und die Karte, die mich am längsten begleitet hat in meiner ZockerkarriereRickmer schrieb:Die Radeon HD 5870 und 5850 waren für die später kommende nVidia GTX 480 einfach unantastbar in Effizienz.
Seitdem hat mich kein Upgrade so richtig begeistert, aber ich weiß immerhin etwas besser was ich kaufe
- Registriert
- Sep. 2009
- Beiträge
- 22.369
Das PCAT System kann deutlich mehr als 'nur' 12V Leitungenkaka11 schrieb:Trotzdem, andere Seiten bieten bei Tests mehr Details als CB: Messung direkt an 12V Leitungen, Frameratenverläufe und Leistungsaufnahme als Grafik und in Perzentile aufgeschlüsselt.
@Jan Wenn man noch die Peak-Verbrauchswerte mit angeben könnte, wäre das super. Das ist ja mittlerweile sehr wichtig z.B. bei der Dimensionierung von Netzteilen.
Linmoum
Lt. Commander
- Registriert
- Juni 2015
- Beiträge
- 1.437
Also die Werte bei limitierten fps sind extrem überraschend und damit hätte ich nicht gerechnet. Ich hoffe, dass das auch andere Seiten in Zukunft so handhaben werden. Zumal fps-Limits (bzw. V-Sync) vor allem auch in Kombination mit VRR sinnvoll sind und häufig genutzt werden.
- Registriert
- Nov. 2010
- Beiträge
- 430
Danke für diese neuen & aufschlussreichen Tests!
Dieses Teillast-Szenario mit FPS-Limiter ist mir schon vor längerem aufgefallen.
Wenn ich meine 5700XT mit der 2080 meines Bruders oder der 3080 meines Cousins vergleiche, hätte ich genau so ein Ergebnis auch erwartet.
Man sieht bei der 5700XT sofort, dass sie Taktraten und Spannungen absenkt, sobald sie weniger als ~85% ausgelastet ist.
Bei den beiden Nvidia-Karten passiert das fast überhaupt nicht. Da konnte ich teilweise eine Auslastung zwischen 50% und 60% sehen, trotzdem blieben Takt (und damit auch Spannung) auf vergleichsweise hohem Niveau.
Ich glaube vor längerem (beim Test der Fury Nano??) hier auf CB haben wir ja schon gesehen, dass tendenziell hohe Auslastung bei niedrigem Takt effizienter als niedrige Auslastung mit hohem Takt ist.
Was obendrein noch interessant wäre, wäre zumindest in gewissen Szenarien der Verbrauch des kompletten Systems. Nvidias Treiber Overhead soll ja nicht nur für schlechte Performance auf langsamen CPUs sorgen, sondern auch bei CPUs die schnell genug sind den Verbrauch erhöhen.
Je nach CPU gibt es da sicherlich andere Ergebnisse, aber trotzdem wäre es mal interessant zu sehen, ob da wirklich etwas dran ist. (tendenziell)
Falls dem so wäre, würde das auch ein etwas anderes Licht auf Nvidia und das "großzügige" zur Verfügung stellen von PCAT werfen... (IMHO)
Dieses Teillast-Szenario mit FPS-Limiter ist mir schon vor längerem aufgefallen.
Wenn ich meine 5700XT mit der 2080 meines Bruders oder der 3080 meines Cousins vergleiche, hätte ich genau so ein Ergebnis auch erwartet.
Man sieht bei der 5700XT sofort, dass sie Taktraten und Spannungen absenkt, sobald sie weniger als ~85% ausgelastet ist.
Bei den beiden Nvidia-Karten passiert das fast überhaupt nicht. Da konnte ich teilweise eine Auslastung zwischen 50% und 60% sehen, trotzdem blieben Takt (und damit auch Spannung) auf vergleichsweise hohem Niveau.
Ich glaube vor längerem (beim Test der Fury Nano??) hier auf CB haben wir ja schon gesehen, dass tendenziell hohe Auslastung bei niedrigem Takt effizienter als niedrige Auslastung mit hohem Takt ist.
Was obendrein noch interessant wäre, wäre zumindest in gewissen Szenarien der Verbrauch des kompletten Systems. Nvidias Treiber Overhead soll ja nicht nur für schlechte Performance auf langsamen CPUs sorgen, sondern auch bei CPUs die schnell genug sind den Verbrauch erhöhen.
Je nach CPU gibt es da sicherlich andere Ergebnisse, aber trotzdem wäre es mal interessant zu sehen, ob da wirklich etwas dran ist. (tendenziell)
Falls dem so wäre, würde das auch ein etwas anderes Licht auf Nvidia und das "großzügige" zur Verfügung stellen von PCAT werfen... (IMHO)
Ähnliche Themen
- Antworten
- 691
- Aufrufe
- 208.714