Test GPUs von AMD und Nvidia im Test: 9 Jahre Ober- und Mittelklasse im Vergleich

Hayda Ministral schrieb:
Ich muss mal kurz um Hilfe bitten.

Die PowerColor Radeon RX 580 Red Dragon V2 ist bei 220€ angekommen, ich denke ernsthaft über einen Kauf nach.
Sapphire hat die beste Kühllösung unter allen Polariskarten.
Die XFX Black ist auch nicht zu verachten.

Wenn Du sparsam sein möchtest, kannste selbst Hand anlegen. Nix BIOS-Gefrickel.
Alles was Du dafür benötigst ist Wattman und ein wenig Glück.
wattmanFTW.png
 
Zuletzt bearbeitet:
Finde die 7970 für ihr Alter nach wie vor beeindruckend. Aber die Energieeffizienz von Pascal ist fast schon unglaublich. Da ist die Vega eine echte Lachnummer.
 
j-d-s schrieb:
Also werden wohl endgültig die 780 Ti, 980 Ti und 1080 Ti nicht mehr einbezogen.

Es handelt sich doch um einen Vergleichstest von AMDs und Nvidias Mittel- und Ober-Klasse. Mit was soll man Nvidias "Enthusiasten-Klasse" vergleichen? Die spielen in Sachen Leistung und vor allem Preis allein in einer Liga, in der AMD einfach nichts anbietet.

Man könnte sie natürlich noch mal benchmarken um sie dann untereinander zu vergleichen, um den Fortschritt zwischen den Generationen bei Nvidia zu beurteilen. Aber der neue Erkenntnisgewinn wäre doch ziemlich gering, zumal man ja vieles schon aus der Entwicklung der jeweiligen non-Ti-Karten ablesen kann.
 
Hallo zusammen,

@ GUN2504

GUN2504 schrieb:
Ich hab meine ca. 2 Monate nach Release Anfang 2014 für 430 € bei Mindfactory gekauft.Custom Tri-X.

Glückwunsch. Dann hast du schlichtweg einfach mal Glück gehabt. Nicht mehr und nicht weniger.

GUN2504 schrieb:
Also sind die 300€ und deine 500€ nicht wirklich aussagekräftig.

Also langsam Frage ich mich, ob du ein Problem mit Mathematik hast. Der Kollege hat geäußert, die besagte Karte hätte kaum mehr als 300 € gekostet. Der von dir genannte Betrag in Höhe von 430 € ist immer noch deutlich näher an 475 € - das war der Preis der Stock 290X von AMD selbst - als auch nur im Entferntesten in der Nähe von 300 €.

GUN2504 schrieb:
Was kostet eine 1060? 330 € aktuell?

Ich kann da nur noch den Kopf schütteln. Du kriegst gute Custom GTX 1060 für 250 €. Und ich meine, richtig gute. Vor dem Mining-Boom waren die Preise sogar noch günstiger bei einigen Modellen. Und bevor du jetzt anfängst, ja, die 6 Gbyte Version.

GUN2504 schrieb:
Natürlich kann man immer sagen, ich muss Chipklasse vs. Chipklasse (zb. Highend) miteinander vergleichen. Leider ist das high end von heute obzön teuer, also wäre ich doch eher der Meinung, das man Kaufpreis vs. Kaufpreis als Vergleich heranziehen sollte...

Jep, Prima. Dann nehmen wir nur mal die seinerzeitige Spitzenkarte von Nvidia, die GTX 980. Die hat wenige Tage vor Erscheinen der GTX 1060 noch um die 500 € gekostet, einige Modelle eher mehr sogar, teils viel mehr. High-End war immer schon Teuer. Das werde ich wohl einigermaßen gut Wissen, da ich z. b. Karten wie die Geforce 3, die ATI Radeon 9800 XT hatte. Nur mal als Beispiel. Karten die weit über 500 € kosteten seinerzeit. High-End ist eben High-End und da ist der Preis eben auch entsprechend High-Endig implementiert.

So ist das und so war das immer schon.

GUN2504 schrieb:
Und wenn man sich die Leistung der R9290X für 400 € gegenüber einer heutigen Karte von 400€ wie die 1070 anschaut, dann hat sich bei der Performance nicht sooo viel getan

Eine Nvidia GTX 1070 ist um einiges Schneller als eine R9 290X. Und ich rede explizit von Spürbar schneller. Im übrigen, wenn wir schon dabei sind, es gibt Modelle der GTX 1070, welche schon für 375 € zu Haben sind.

Und wie schon geäußert, es hat sich vor allem im Bezug auf die Effizienz / Stromverbrauch einiges getan. Um nicht zu Sagen, gewaltiges, wenn ich mal die GTX 1060 nehme. Das gilt für sämtliche Pascal-Karten. Wie ja auch aus dem Test unschwer hervor geht.

So long...
 
  • Gefällt mir
Reaktionen: incurable
Iscaran schrieb:
Am besten wäre es halt gewesen man hätte nun einfach die Watt der Karten in einem (oder allen Games) gemessen und könnte diese dann einfach durch die jeweils erreichten FPS bei den eingesetzten Settings (die für alle gleich waren) halt nehmen (ggf. über mehrere Games gemittelt). Dann käme vermutlich auch was sinnvolles und interpretierbares raus.
duskstalker schrieb:
wieso wird für die leistung pro watt bitte world of warcraft getestet, in dem die gtx 1080 20% mehr fps liefert als vega 64?

Da die Messmethode von Wolfgang anscheinend so unklar ist, hier nochmal so, wie ich es verstanden habe:
Der Test bei 60fps in WoW wird ausschließlich für die Leistungsaufnahme genutzt, nicht für die fps! Die Effizienz ergibt sich aus der Division von Leistung (fps) aus den Spieletests durch die Leistungsaufnahme im WoW-Test. Dabei wird auch in keinster Weise ein Frame-Limiter benutzt, wie von einigen hier gemutmaßt.

Wie wurde es vorher gemacht? Die Leistung in den Spieletests wurde über den Verbrauch in Witcher 4 bei maximalen Details geteilt. Es kann sein, dass das für die alten Spiele zuviel war oder der Verbrauch bei einigen Modellen durch die Decke ging, ohne dass es einen guten Grund gab (Tesselation?). Oder die Bildraten waren so niedrig, dass die Karte nicht realistisch im Output gefordert wurde. Deshalb finde ich die Wahl eines Spiels, das anscheinend über alle Karten so eingestellt werden kann, dass 60fps geliefert werden, sehr vernünftig. Ob die Methode besser ist als vorher, ist nicht klar, allerdings stellt die jetzt aufgezeichnete Leistungsaufnahme immer eine reale Spielsituation nach.
 
Die Effizienz ergibt sich aus der Division von Leistung (fps) aus den Spieletests durch die Leistungsaufnahme im WoW-Test. Dabei wird auch in keinster Weise ein Frame-Limiter benutzt, wie von einigen hier gemutmaßt.

Genau das ergibt aber eben NICHT die Zahlen die da stehen, wie ich exemplarisch vorgerechnet habe !.

Wie andere schon anmerkten wäre es aber auch sinnvoll ein Spiel zu wählen wo ggf. nicht sehr einseitig optimiert ist (+20% mittlere Abweichung in WoW gegenüber dem Performance mittelwert über viele Spiele)...

etc. Dazu kommt dass je nach Settings die CPU-Last anders ausfallen kann, was bei der CB-üblichen Messung des Gesamtsystems zu weiteren z.t. sehr deutlichen Systematischen Verschiebungen führen kann.

Deswegen wäre es eigentlich am sinnvollsten das Game auf 1 setting einzustellen und die GPUs eben @60FPS oder so zu cappen.

=> CPU-Last für alle gleich, Rendersettings für alle gleich. Verbrauch kann dann einigermaßen gut skaliert werden. Bzw. wie eh und je als FPS/Watt errechnet werden. Welche dann für dieses Spiel stellvertretend über alle Generationen verglichen werden können.
Mit dem hier gewählten Ansatz ist dies eben nicht oder nur sehr bedingt möglich.

Ob die Methode besser ist als vorher, ist nicht klar, allerdings stellt die jetzt aufgezeichnete Leistungsaufnahme immer eine reale Spielsituation nach.

Ja das ist schon richtig - aber dann wird die Effizienzsteigerung über die Generationen betrachtet (bzw. war einer der Gründe das zu machen), denn der Artikel ist ja vor allem als ein "Generationenvergleichs-Roundup" angelegt. Nur ist genau DAS aufgrund der Wahl des Tests nur sehr eingeschränkt möglich bzw. sogar gänzlich unmöglich.
 
Du hast das doch nur für die fps in WoW nachgerechnet, nicht für den Durchschnitt über alle Spiele.
Was die CPU-Last in Abhängigkeit der Settings angeht, stimme ich dir zu. Da müssen wir uns momentan darauf verlassen, dass @Wolfgang das beachtet hat. Da er aber sehr selten in den Kommentaren antwortet, wird es dazu wohl sobald keine Stellungnahme geben.
 
Hallo zusammen,

@ Colindo

Colindo schrieb:
Leistung (fps) aus den Spieletests durch die Leistungsaufnahme im WoW-Test.

Nur ist World of Warcraft eben nicht gerade als fordernd bekannt. Aktuellere Grafikkarten werden im Prinzip im Verhältnis wenig gefordert bzw. im Verhältnis wenig ausgelastet. Ich halte World of Warcraft für wenig geeignet Respektive Verifizierung des Stromverbrauchs.

Und ehrlich gesagt sehe ich mich durch die Daten der Radeon 5870 im Test bestätigt. Denn ich hatte bis vor einem halben Jahr seit 2010 eine Radeon 5850 im Rechner aus meinem Profil. Die hat gut und gerne 160 - 170 Watt zu sich genommen. Im Test hingegen konsumiert eine Radeon 5870 gerade einmal ca. 139 Watt. Das stimmt Hinten und vorne nicht.

Das kann ich übrigens belegen, da ich es mit FritzDECT 200 überwacht habe. Das Game welches ich genutzt habe wär übrigens Crysis 2 u. 3.

So long....
 
Hallo zusammen,

@ Colindo

Colindo schrieb:
Hier geht es aber um den Stromverbrauch nur der Grafikkarte, nicht des Gesamtsystems. Könnte es dann nicht hinkommen?

Von nichts anderem rede ich. Nur die Grafikkarte. Das habe ich auch jetzt nochmal gut selbst belegt bekommen, seit ich die GTX 1060 drin habe. Da ist mir z. b. auch Aufgefallen, daß der IDLE Verbrauch der 5000er Radeons eklatant hoch ist. Die GTX 1060 zieht alleine im IDLE schon über 20 Watt weniger.

Ich kenne die Verbrauchsdaten der Innereien meines Rechners. Habe die CPU z. b. mit Prime belastet und mit FritzDECT mal geschaut, was der Xeon sich so genehmigt, wenn er richtig ausgelastet wird.

Meine Angabe stimmt in jedem Fall. Seinerzeit als der Test der besagten Reihe hier eingestellt wurde, habe ich im entsprechenden Thread schon dargelegt, daß das so nicht Stimmen kann im Bezug auf die Radeon 5870. Und ich mache das an dem besagten Game, also WoW, fest. Da dieses eben eine GPU eher nicht so fordert.

So long...
 
  • Gefällt mir
Reaktionen: Colindo
Schade, meine uralte 6950 hat es nicht in den Test geschafft. Diese wurde erst vor kurzem durch eine 1050ti ersetzt. Erstere schluckte viel Strom, konnte aber noch sehr gut meine geliebten Strategiespiele darstellen. Selbst bei aufwändigeren Spielen wie Mass Effect 1-3 konnte sie noch gut mithalten. Diese AMD Karte ist über die Jahre gut gealtert. Mit Cyperpunk 2077 wird aber die 1050ti wahrscheinlich seine Probleme kriegen. Mal schauen, wie die Zukunft in meinem Gehäuse aussieht
 
Hallo zusammen,

aber was vielleicht auch mal gesagt werden sollte, dem ausführenden Tester hier ging es vor allem darum, eine Vergleichbarkeit der verschiedenen Grafikkartengenerationen herzustellen. Was zweifellos gut gelungen ist.

Insofern sehe ich es als falsch an, hier ein Faß aufzumachen. Mir ist die Diskrepanz auch nur Aufgefallen, weil ich eben bis vor einem halben Jahr noch eine Sapphire Radeon 5850 Xxtreme in der Mühle aus meinem Profil hatte.

So long....
 
  • Gefällt mir
Reaktionen: Colindo
@Luxmanl525:

Wenn du meinst :D
In der gleichen Preisklasse ist heute Mittelklasse = gestern High End (und nicht Enthusiast)

Und du ordnest das einfach falsch ein oder hast es nicht verstanden was ich meine^^
Die damalige 780ti bzw. R9 290X waren damals HighEnd (und somit alles TOP spielbar) im Rahmen von 450€ - 600€... (und jetzt scheiß mal auf Portokasse +-50€)

Heute soll das gleiche Niveau >1.000€ Kosten, und somit einfach völlig realitätsfern^^
Fakt ist, das die Karten einfach obszön teuer werden.
 
Vielen Dank für den ausführlichen Test, so kann man seine alte Hardware vernünftig gegen neue Hardware vergleichen. Meine 7970 steht also noch ganz gut im Saft. Mal schauen wann und ob eine RX 680 kommt :)
 
Herdware schrieb:
Es handelt sich doch um einen Vergleichstest von AMDs und Nvidias Mittel- und Ober-Klasse. Mit was soll man Nvidias "Enthusiasten-Klasse" vergleichen? Die spielen in Sachen Leistung und vor allem Preis allein in einer Liga, in der AMD einfach nichts anbietet.
Stimmt so nicht. Die 290x war zu ihrer zeit etwas langsamer als eine 780Ti und deutlich näher da dran, als an einer 780. Im Uber Mode war die 290x in etws so schnell, wie die Ur-Titan und die ist wiederum etwas langsamer als die 780Ti. Die Fury X war auch dichter an einer 980Ti, als an einer normalen 980.

Erst mit Pascal und dem lange verspäteten Vega passt es nicht mehr zusammen. Vega ist in etwa auf 1080 Niveau, aber gegen die 1080Ti hat AMD noch nichts im Angebot (bezogen auf die Gamingleistung). Wobei in einigen spielen die vega 64 auch zwischen 1080 und 1080ti liegt bzw. fast die 1080ti erreicht bzw. sogar einholt.
 
  • Gefällt mir
Reaktionen: GUN2504
Luxmanl525 schrieb:
Also langsam Frage ich mich, ob du ein Problem mit Mathematik hast. Der Kollege hat geäußert, die besagte Karte hätte kaum mehr als 300 € gekostet. Der von dir genannte Betrag in Höhe von 430 € ist immer noch deutlich näher an 475 € - das war der Preis der Stock 290X von AMD selbst - als auch nur im Entferntesten in der Nähe von 300 €.

Jap, hatte ich falsch abgespeichert.
Ich habe meine Powercolor 290x LCS (mit EK Waterblocks Wasserkühler ab Werk) kurz nach Release für 519€ gekauft (die war im Gegensatz zu ALLEN Luftgekühlten 290x auch sofort verfügbar). Ich hatte abgespeichert, dass die Basis-Modelle deutlich günstiger waren. Daher meine "ca. 300€" Angabe.
Mea culpa !

Und ob das High End war oder Einstiegsklasse ist letztendlich völlig egal. Preislich ist die 290x jedenfalls deutlich näher an einer 1060, als an der 1080 gewesen.
Und wie bereits erwähnt hat sich Leistungstechnisch wenig getan.
Selbst dein 1070 Vergleich sieht das nicht so toll aus, wie du suggeriertst. Die Karte ist gerademal 30% schneller als die 1060.
Wären in Summe weniger als 50% in 5 Jahren ggü. der 290x.
 
  • Gefällt mir
Reaktionen: Seeadler79
Taxxor schrieb:
99th Percentil und 1% Low ist exakt das gleiche

99th Percentil = Der niedrigste FPS Wert der schnellsten 99% / 99% der Frames sind gleich oder höher als das.

1% Low = Der höchste FPS Wert der langsamsten 1% / 1% Der Frames sind gleich oder niedriger als das
Nein die sind unterschiedlich!
Wobei 1%low kein "geschützter Begriff" ist, da er eine Erfindung der techpress ist und ich das so nicht aus der Statistik kenne.
Scheinbar als erstes von TechReport angestoßen, bin ich vor allem durch die Gamers Nexus und Hardware unboxed Videos darauf aufmerksam geworden.

Die Percentile Werte hingegen sind fest in der Statistik definiert.
Auf das Beispiel einer Frametimemessung angewendet, nimmt man die Liste mit den Framezeiten aller Frames und sortiert sie nach der Größe.
CB nutzt in der Regel 25s lange Messungen und nehmen wir an das Spiel läuft im Schnitt mit 60 FPS.
Dann kommen wir auf grob 1500 Frames.....sagen wir mal der Schnitt ist leicht drunter und wir haben zwischen 1401 und 1499 Frames gemessen.
Dann nehmen wie 1% davon und erhalten 14,XX.
dann lassen wir die Nachkommastellen weg und erhalten als Ergebnis für unsen 99th Percentil, den Wert des 14. schlechtesten aller Frametimes in ms.
CB geht noch hin und stellt diesen Wert in 1/s dar, was die gleiche Einheit wie FPS hat, aber eigentlich "1th Percentile der inversen Frametimes" heißen müsste.
Wortklauberei....CB macht das, was sie machen schon richtig....bitte keine Diskussion über solche Spitzfindigkeiten!

In Sonderfällen, wenn (1% x Frameanzahl) keine Nachkommastellen hat...z.B. genau 1500 Frames mit Ergebnis 15, gibt es scheinbar verschiedenen Verfahren.
Manche nehmen einfach den 15. Wert, aber die meisten professionellen Programme wählen in diesem Fall den Mittelwert aus dem Wert des 14. und 15. Frame......diese Feinheit spielt aber beim Prinzip der Percentil Werte keine Rolle.


1%low Werte, wie sie von anderen Testern wie z.B. Gamers nexus verwendet werden, machen erstmal ein sehr ähnliches Verfahren, aber anstatt nur den 14. schlechtesten Wert als Ergebnis zu nehmen und diesen darzustellen, bilden sie den Mittelwert aus den 14 schlechtesten Frametimes.


Also einmal Einzelwerte an der Grenze zwischen den besten 99% und schlechtesten 1% der Frametimes und einmal der Mittelwert über die schlechtesten 1%.

Wann die 99th Percentil Werte problematisch sein können und wann nicht:
Nehmen wir erst einen unproblematischen Fall:

Der Frametimeverlauf über die Testsequenz hat keine unruhigen Schankungen...es zeigt sich ein glatter Frametimeverlauf, der aber an einer Stelle wo die Belastung höher wird einen Hügel hat.
Dann nehmen die Percentile Werte vermutlich einen Wert aus der auf oder absteigenden Flanke diese Hügels .
Die 1% low bilden den Mittelwert über die "Hügel-Frametimes", ab der selben Höhe in der Flanke.
Die 1% low werden also einen höheren Wert in ms beziehungsweise einen kleineren Wert in 1/s ausgeben, aber beides ist legitim.

Leicht problematisch wird es, wenn der Hügel auf Hardware 1 recht rund ist, aber auf Hardware 2 mittig steil aufragt.
Die 1% low bilden diesen Unterschied ab, aber die 99th Percentil geben in beiden Fällen nur den Wert an der Flanke an.

Noch viel schlimmer wird es, wenn die Testszene eigentlich sehr gleichmäßige Frametimes hat, aber zwischendrin immer wieder heftige Ruckler aufweist(50ms und mehr z.B.).
In dem Beispiel mit 25s und ca 60FPS, gibt der Percentile Wert ja nur den Wert des 14. Frame an.
Sind in der Testszene 13 Ruckler, wird der 99th Perentile Wert in der Nähe von 17ms liegen.
Sind es 14 Ruckler oder mehr, sind wir bei 50ms oder mehr.
....das Ergebnis der 14 Ruckler erscheint ca. 3 mal so schlecht wie das für 13 Ruckler.

Auch könnte Hardware A 13 Ruckler haben und Hardware B keine und das Ergebnis wäre das gleiche.....obwohl es sich ganz anders anfühlt.
Die 1% low hingegen machen das deutlich besser, denn sie mitteln alle 14 Frametimes, zeigen also kaum einen Unterschied zwischen 13 und 14 Rucklern, aber einen riesen Unterschied von 13 zu 0 Rucklern.

Natürlich zeigen sie ebenfalls keinen Unterschied zwischen 14 und 100 Rucklern, aber wenn es so viele werden, fangen die Ruckler an die avg FPS zu beeinflussen.
Sowas ist rein theoretisch und kein echtes Problem?...da zitiere ich mich mal selbst:
https://www.computerbase.de/artikel/gaming/forza-7-benchmark-test.61096/seite-3
Im obere Frametimeverlauf bitte auf die Vega Performance achten und im unteren auf die 1080FE mit neuem Treiber.
Der neue Treiber bessert nicht nur die avg FT der 1080FE sondern auch die Anzahl und Höhe der Ausreißer. Trotzdem sieht man noch ca 17 deutliche Ausreißer in diesen 25s. Bei Vega sind es je nach Betrachtung 5-9. Ein nicht zu verachtender Unterschied in meinen Augen, der sich in der Angabe der Perzentil Werte wiederspiegeln sollte...aber schauen wir sie uns an...
1080 neuer Treiber----- avg FPS = 88FPS----- P99 = 75,4FPS
Vega64---------------- avg FPS =83,7FPS---- P99 = 75,3FPS
Warum sieht man keinen Unterschied? Weil in beide Fällen knapp über 2100Frames aufgenommen wurden und die P99 Werte daher die schlechtesten 20 Werte ignorieren.
 
  • Gefällt mir
Reaktionen: Iscaran und GUN2504
der artikel ist für mich hauptsächlich "unterhaltsam", den solche betrachtungen sind vor allem als technischer rückblick interessant.
man könnte die überschrift mit "hinterher weiß man alles besser" ergänzen.

was über die jahre sicherlich auch eine rolle spielt, ist dass die (spiele)entwickler die mehrperformance welche mit den neuen generazionen kommt auch verbraten und immer natürlich schauen was potentiellen kunden überhaupt an hardware zur verfügung steht.
diskussionen in denen es um die treiberpflege (v.a. bezüglich performance) der hersteller geht sind recht fruchtlos; wer hat heute wirklich noch eine gtx460 oder gtx480 "mit ambition" in bezug auf aktuellere titel noch in nutzung?
da hat der autor recht. so als anregung zum upgrade ist es sicherlich nicht. :D
 
Baal Netbeck schrieb:
1%low Werte, wie sie von anderen Testern wie z.B. Gamers nexus verwendet werden, machen erstmal ein sehr ähnliches Verfahren, aber anstatt nur den 14. schlechtesten Wert als Ergebnis zu nehmen und diesen darzustellen, bilden sie den Mittelwert aus den 14 schlechtesten Frametimes.
Aber hat man dann nicht genau das Problem was man mit den Percentil Werten ja umgehen will? Dass z.b. der Start einer Szene mit 0-2fps für 3 Frames das komplette Ergebnis verfälscht?

Bei deinem Beispiel mit 1080 gegen Vega hat CB ja geschrieben dass selbst die Ausbrüche des alten Treibers nicht spürbar sondern lediglich messbar waren, demnach hätten sie sowieso keinen Einfluss auf das Spielgefühl. Und genau deshalb lässt man sie durch die Angabe des Grenzwertes zu den schlechtesten 1% auch weg.
 
Zurück
Oben