Test Grafikkarten von AMD im Test: Radeon HD 5870, 6970, 7970, 290X und Fury X im Vergleich

Da sieht man das ich damals mit der R9 290 nichts falsch gemacht habe :) nach wie vor super zufrieden, BF1 läuft mit über 60 FPS auf High und sieht mega aus :)
 
die HD 7970 soll also knapp 3 mal, nämlich 272% der Leistung einer HD5870 entsprechen? Im Leben nicht. Den ersten test habt ja auch schon vergeigt. Wie kommts? Indem ihr wieder mal den VRAM der Karte zerberstet, einstellige fps-Zahlen mit einer 5870, gehts nocht? 1440p mit max Settings, warum testet ihr nicht gleich 4k damit. Wer beide Karten hatte, weiss, dass es nicht stimmt.

Genauso wenig ist eine 7970 doppelt so stark wie eine 6970. Wann hats denn das schon mal gegeben, dass Karten mal eben 100% zulegen von einer Serie auf die andere. Praxisfremde Einstellungen, das Rezept, um einen Test ad absurdum zu führen. Ihr solltet die Testmethodik mal dringend überdenken.


Bei HT4U liegt dann die 7970 auch mal 30-40% vor der 6970. Das sind halt so dien typischen Zuwächse von einer Generation auf die andere, iwas zwischen 25-40%. Wenns nicht gerade Pascal ist, dann sind auch mal 50-60% drin. Das ist aber schon die absolute AUsnahmen.
 
Zuletzt bearbeitet:
EchoeZ schrieb:
Mein Fazit: 100% Agree.. Danke mehr muss man dazu nicht sagen. Wie du schon sagtest Dogmatische Ausmaße nimmt das alles an. Ich bin auch zu alt für so einen Mist und schon zu lange dabei..
 
@Wolfgang:
Wurde die 290X im Uber Modus getestet oder im Normalen Modus?
Im Launch Artikel war die Karte bei der Leistungsaufnahme im Normalen Modus auf dem Niveau der Tahiti Karten 7970GHz und bzw. 280X und hier ist das Delta zu Tahiti fasst 100W.
Erst im Uber Modus hat die Karte eine Massiv erhöhte Leistungsaufnahme gezeigt.
Dabei hat das hat gerade Mal ein paar Prozent mehr gebracht.
https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/10/

Falls die Karte im Uber Modus getestet wurde, wären sicherlich nochmal Messungen im Normalen Modus interessant bezüglich Leistung und Leistungsaufnahme, denn der Uber Modus würde die Messung deutlich verfälschen.
Weiterhin würde mich noch interessieren ob bei allen anderen Karten (auch bei den Nvidia Tests) der Auslieferungszustand getestet wurde oder mit max. Powertarget.
 
@Gabroum
Die 7970Ghz hat aber auch ~50W mehr geschluckt als die normale 7970, wenn ich mich richtig erinnere.

Was man dem Test vielleicht ankreiden kann, ist das nur die Referenzdesigns verwendet worden sind.
Gut beim Nvidia xx80 Test waren es auch nur Referenzdesigns, insofern hat man da gleiche Maßstäbe angesetzt.
Im Nvidia Generationenvergleich Kepler, Maxwell, Pascal aber nicht :freaky:

Letztendlich dürfte die Anzahl der Leute mit 7970, 290 / 780Ti, 980Ti mit Referenzdesign ziemlich gering sein.
 
Zuletzt bearbeitet:
Ich lese ja eigentlich gerne die GraKa-Tests auf CB, aber den aufgeteilten Generationenvergleichen kann ich irgendwie nicht so richtig was abgewinnen. Ich hab die zwar alle mal flüchtig durchgeblättert, aber das wars dann auch. Einen größeren Sammelartikel samt Benchmarks hätte ich nützlicher gefunden und sicher auch noch das ein oder andere mal als Nachschlagewerk genutzt.

Cool wär auch gewesen, statt nem aktuellen Parkour jeweils ein Spiel aus der Ära der verschiedenen GraKa-Generationen zu benchen.


Klingt ja ziemlich negativ, was ich da geschrieben habe. Ist aber nicht bös gemeint, Geschmäcker sind halt verschieden. :)
 
sdwaroc schrieb:
@EchoeZ: Es ist immer wieder beeindruckend, dass Leute, die sich überlegen fühlen, mit derart sinnlosen und inhaltsleeren Posts andere über ihre Fehlbarkeit aufklären müssen. Bitte teile doch die Erkenntnisse deiner unfehlbaren Messungen und leite am besten noch die richtigen Erkenntnisse ab, dann sind wir alle aufgeklärt und machen keine Fehler mehr.

Ich fühle mich ganz und garnicht überlegen, nur weiß ich als im Kraftwerk ausgebildeter Energieelektroniker einfach mehr über eletrische/thermische Energie ;)

Gerade in den letzten Jahren habe ich - wer weiß wie oft - etwas Sinn- und Gehaltvolles dazu geschrieben, Spätestens ab der nächsten Seite gingen die Haterei ala 'Heizung''Stromfresser' etc weiter!

Was wäre eine unfehlbare Messung.. lass mal überlegen...
Einfach einen Stromzähler zwischen Netzteil und Steckdose schalten, pro Benchmark den Wert ablesen und mit der benötigten Zeit hochrechnen. Voila, man hat Ergebnisse, die wirklich den echten Verbrauch aufzeigen und gegeneinander Vergleichen lassen. Man kann sogar ein billiges Baumarktgerät mit 5-10% Toleranz benutzen, diese Toleranz liegt dann für jede Messung an. Und dazu ist das Messgerät absolut unparteiisch :D

Ich habe diesen Vorschlag an die Redaktionen, die Tester und in entsprechenden Threads geschrieben...ohne Erfolg.
Die einzige Reaktion: Meeh..Fanboy (also mal nVidia(Fermi), mal AMD(Hawaii), mal Intel(P4)) der sich etwas 'schönrechnet'

Wenn ich im Auftrag einen Rechner aufrüste (mach ich meistens auf Lau, für mein Umfeld) darf ich die alten Komponenten behalten. Wenn ich genug Teile für ein vollständiges System zusammen habe, bekommen Kids und Jugentliche deren Eltern finanziell nicht gut dastehen, diesen Rechner geschenkt. Ich mache dann auch Benchmarkdurchläufe mit einem Digitalen Steckdosenzähler, daß ich den Eltern sagen kann "Der PC braucht beim spielen (Bsp.) 200Wattstunden/Stunde, kostet dann 1Kilowattstunde nach 5 Stunden daddeln!"

Nebenbei, die beötigte elektrische Energie ist gleich der abgegeben Wärmemenge
1Wattsekunde=1Joule
1Wattstunde=3600Joule
1Kilowattstunde=3600Kilojoule=860Kilokalorien=955g Banane

Ein Tourenradsportler der 500W am Berg leistet (nach einer Stunde denmach 0,5kWh), auf einen zum Stromerzeuger umgebauten Fahrrad müsste 24 Minuten strampeln um 1 Stunde auf oben genannten System daddeln zu können und als Ausgleich 191g Bananen futtern.

Da ein PC beim daddeln genausowenig kontinuierlich xxxWatt an eletrischer Leistung benötigt wie ein Tourenradsportler auf dem Generatorfahrrad Leistung produziert, ist es besser die geleistete Arbeit (Leistung über die Zeit) in Wattstunden zu messen!!!

Ich hoffe dies war nun Gehaltvoll genug für Dich ;)

Mist, ich hab mich mal wieder hinreissen lassen, nächste Seite ist das wieder vergessen :)
 
Zuletzt bearbeitet:
Wieso kein Wort zu CPU overhead?
Einen generation Vergleich mit GPU bei aktuellen games ist unsinnig
Da laufen alle GPU mit weniger vram in ein limit
Sinnvolle wäre die Test Parcours mit games aus dem Jahr der ältesten GPu zu nehmen
Und dann im Vergleich zu neueren games was diese GPu noch können.
2010 beliebte games

battlefield bad company 2 (dx10)
Starcraft 2 (dx9)
GTA 4 episode of liberty city (dx9)
call of duty black ops (dx9)
mass effect 2 /dx9)
bioshock 2 (dx10)
fallout new vegas (dx9)
metro 2033 (dx11)
crysis warhead (dx10)
wolfenstein 3 (Dx9)

Wie man sieht war kaum DX11 vertreten
der Schub an dx11 games kam erst 2012 3 Jahre nach Einführung
gegen aktuelle games mit reduzierten Texturen (vram limit Vermeidung)
weil so ziemlich alle Spiele die im Parcours sind min 2Gb vram brauchen wird das schwierig
da hilft es die Auflösung zu reduzieren von max details auf FHD auf HD
Schließlich geht es ja um den GPu Leistungsentwicklung und nicht Optik Verbesserung.

An sich muss man sagen das ab 2014 games in nativen 1920-1080 erstellt werden zuvor aufgrund von den alten Konsolen 1280-720
und das sieht man heute extrem
Der optische unterschied zu farcry 3 (2012) auf farcry 4 (2014) ist extrem
und das alles nur weil Texturen auf 1920-1080 Auflösung erstellt wurden
Was auch direkte Verbrauch an HDD Platz Sieht.
bsp Wolfenstein 3 (2009) 9GB, Wolfenstein the new order (2015) 45GB
dazu muss man sagen das wolfenstein 3 open world ist
 
Zuletzt bearbeitet:
GEZ-Verweigerer schrieb:
Genauso wenig ist eine 7970 doppelt so stark wie eine 6970. Wann hats denn das schon mal gegeben, dass Karten mal eben 100% zulegen von einer Serie auf die andere. Praxisfremde Einstellungen, das Rezept, um einen Test ad absurdum zu führen. Ihr solltet die Testmethodik mal dringend überdenken.

Ja schon komisch, sieht man sich den Test zur 7970 an, liegt sie gerade einmal 32% vor der 6970

Und im Test zur 6970 lag diese sogar nur 9% vor der 5870, das würde einen Unterschied von knapp 40% von 5870 zu 7970 bedeuten, aber das scheint mir eigentlich zu wenig.

Auch der Abstand von 7970 zu 290X hier mit 50% angegeben, damals im Test der 290X waren es nur 25-35% je nach Edition.

Sollte AMD wirklich mit aktuelleren Treibern ein plus von 32% auf ein plus von 100% gebracht haben? Kann ich mir nicht vorstellen..
 
Zuletzt bearbeitet:
Naja, irgendwie hätte ich mit diesem Test-Artikel (der ja als Zweck den Vergleich über mehrere GPU-Generationen hat) noch bis kurz nach der Veröffentlichung und Tests der Vega-GPUs gewartet (die kommenden, neuen GPUs mit einbezogen), so gesehen ist das Timing ein wenig unglücklich.

Zudem hätte man auch die Nano - was die Energieeffizienz angeht - nehmen können, was dann bzgl. der Effizienz wohl etwas besser für AMD aussehen würde.

Was die allgemeine Kaufempfehlung angeht kann ich verstehen, dass Fiji GPUs momentan von der Leistung absolut gesehen her nicht mehr empfohlen werden in Gegenüberstellung zu den High-End Pascal GPUs, aber erstens ist das kein fairer/sinnvoller Vergleich (28nm vs. 14nm) und zweitens sollte man den Kaufpreis (die R9 Fury ist schon unter 300 Euro zu haben) auch noch mit einbeziehen und dann steht diese leistungstechnisch (besonders in WQHD) im Vergleich zur langsameren, z.T. genauso teuren GTX 1060, welche gerade einmal 2 GB mehr Speicher hat, gar nicht mehr so schlecht da (trotz 28 nm Fertigung).

Was die HBM2 Speichergerüchte angeht, warten wir es doch einfach ab ... selbst wenn die AMD Vega GPUs dann erst im 2.Halbjahr verfügbar sein sollten, kratzt das wohl die meisten nicht, die auf eine High-End AMD Vega GPU mit vollwertig neuer Architektur und eben keine ein Jahre alte, getunte nVidia Maxwell-Shrink (a.k.a. Pascal) High-End GPU aufrüsten/umsteigen wollen ;).
 
Taxxor schrieb:
Ja schon komisch, sieht man sich den Test zur 7970 an, liegt sie gerade einmal 32% vor der 6970

Und im Test zur 6970 lag diese sogar nur 9% vor der 5870, das würde einen Unterschied von knapp 40% von 5870 zu 7970 bedeuten, aber das scheint mir eigentlich zu wenig.

Auch der Abstand von 7970 zu 290X hier mit 50% angegeben, damals im Test der 290X waren es nur 25-35% je nach Edition.

damals war der Speicherverbrauch noch nicht so hoch (5870: 1GB; 6970: 2GB; 7970: 3GB) ;) Aber die Settings im Test sind viel zu hoch für die alten Generationen, da diese magels VRAM total einbrechen und das Ergebnis "verfälschen"...schade!
 
bin gespannt ob Vega was architektonisch reißt. Bei Nvidia hat es vermutlich hauptsächlich DAS gerissen und sowas soll mit Vega auch kommen.
 
Hallo zusammen,

aus meiner Sicht ist der Vergleich alleine schon durch die gewählte Auflösung teils Obsolet. Die gewählte Auflösung wird noch unverständlicher wenn man mal sieht, wie wenig alleine hier im Forum schon entsprechende Monitore Besitzen. Von den restlichen Test-Einstellungen ganz zu Schweigen.

Und ich bezweifle ebenfalls, daß eine 7970 ca. 272 % mehr Leistung als eine 5870 haben soll.

@ Desmopatrick

Der Test hätte mit Full Hd Auflösung absolviert werden müssen. Die besagten älteren Karten waren zudem nie vorgesehen für höhere Auflösungen, jedenfalls nicht für Spiele. Da geht es schonmal los.

@ GEZ-Verweigerer

Ich gurke noch mit einer 5850 rum. Bis auf das ein oder andere Spiel reicht es bei Full HD immer noch für mittlere Details. Wohlgemerkt unter Full HD. Daß hier eine höhere Auflösung als Full HD für den Vergleich speziell für die älteren Karten genutzt wurde, macht das ganze teils wenig bis gar nicht aussagekräftig. Das ist jedenfalls meine Persönliche Meinung. Von den Einstellungen will ich gar nicht erst Anfangen.

So long....
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Weil Vega vor der Tür steht, empfiehlt ComputerBase in der aktuellen Grafikkarten-Kaufberatung aber: abwarten.
^^
Das kann noch einige Monate dauern mit Vega.
Q2 2017 kann auch erst Juni bedeuten, also noch 5 Monate.

Wahrscheinlich ist eher, dass AMD Vega auf der nächsten Computex vorstellen wird, und die ist Anfang Juni.

Und alle aufzufordern noch 5 Monate zu warten, ist doch etwas lang.
Das schürt nur wieder unnötig den Hype um Vega.
Wie ihr schon richtig geschrieben habt, wer jetzt aufrüsten will kommt an einer 1070/1080 nicht vorbei.
 
DannyA4 schrieb:
@sdwaroc
... nur den Leistungunterschied, nicht aber die jeweilige Stromaufnahme, hast du sicherlich Recht.

Wolln wer mal ein bisschen rechnen.
So ne schicke OC GTX 1070 braucht rund 100W weniger als die Fury X, wobei mir da die Sapphire Fury Trixx oder Nitro besser gefällt und auch etwas weniger verbraucht. Aber egal....
Und kommt mir jetzt nicht mit die 100W mehr muss man kühlen können und blah Lautstärke.
Wer mal so ne Sapphire 390X Nitro bei offenem Gehäuse gehört hat, weiss dass das gar kein
Problem ist und da braucht das Gesamtsys ja evtl über 420W.

Ich geht mal von 5h Vollauslastungs Zocken pro Tag aus, was ich schon als reichlich viel empfinde.
Diese 5h kosten mit 25 cent die KW/h, also 12,5 Cent mehr am Tag mit der Fury, als bei der 1070er.
Wenn ich jetzt jeden Tag zocke sind das 45,62€ im Jahr, wobei ich nicht glaube, dass das einer schafft.

So sehr ich es begrüsse, wenn etwas effizient ist, aber rein finanziell ist es komplett egal.

Und auch wegen Effizienzgründen, wenn ich mit dem Auto einmal etwas sanfter aufs Gas drück
oder den Backofen etwas seltener benutze oder die alte Kühltruhe oder einen Satz Lampen modernisiere oder die Heizung ein paar Grad tiefer stelle, ist so viel Energie gespart, da kann ich sehr, sehr lange mit zocken.
Was ich damit meine, es fällt einfach kaum ins Gewicht und der PC isr echt komplett der falsche Ort um grossartig
Energie sparen zu können.

Wenn ich mir dann noch anschau wie gut die ollen GCN Chips mit DX12 und Vulcan zurecht kommen,
kann das auch ohne schlechtes Gewissen lange so bleiben.

@CB
Nur weil AMD die Shader umbenennt und Front, Backend und Kompression etc. verbessert ist es trotzdem
noch GCN. Die Architektur ist noch lange nicht am Ende.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ modena.ch

Ich weiß nicht, wo du wohnst, aber bei uns kostet die kw/h 31 Cent. Dein Preis für die kw/h scheint ohnedies Netto zu sein. Damit brauchst du gar nicht erst zu Rechnen.

Dann solltest du bedenken, wenn einer, sage ich einfach mal, 1200 kw/h im Jahr braucht, dann macht das den Kohl sehr wohl Fett, wenn da so ein Teil wie die 390 X am Werkeln ist. Nur jetzt mal als Paradebeispiel. Und da rede ich nicht mal davon, daß Strom nur eine Richtung kennt, nämlich immer Teurer zu werden.

Und da die entstehende Abwärme so gering wichtig anzusehen scheinst, dem kann ich nicht zustimmen. So etwas bedeutet auch immer nicht nur erhöhten Aufwand bei der Kühlung, sondern am Ende auch durchaus verkürzte Lebensdauer.

So long....
 
Zurück
Oben