Test Grafikkarten von AMD im Test: Radeon HD 5870, 6970, 7970, 290X und Fury X im Vergleich

Zum Einbrechen der 5870:

Klar säuft die aufgrund von nur 1GB Vram ab. Außerdem ist der Unterschied in der Architektur zwischen 5870/6970/7970 wichtig. Sicher würde es für die 5870 weniger dramatisch aussehen in alten Spielen.
Jetzt stelle ich mir die Frage, wen juckt das? Das ältere Spiele auf der 5870 laufen ist kein Geheimnis.
Die Kritik ist natürlich dann berechtigt, wenn wir die nackte Rohleistung der Karten vergleichen wollen. Die stehen aber zur Not auch im Datenblatt. Was dann aber letztendlich bei rumkommt hängt nun mal von der Anwendung oder auch der Größe des Speichers ab.
 
Luxmanl525 schrieb:
Hallo zusammen,

@ modena.ch

Ich weiß nicht, wo du wohnst, aber bei uns kostet die kw/h 31 Cent. Aufwand bei der Kühlung, sondern am Ende auch durchaus verkürzte Lebensdauer.
.
Wenn ich unsere Tarife rechnen würde währen das minimal 12 Rappen im Sommer am Abend und maximal 18 Rappen jetzt im Winter am Tage. Dazu kommen jeweils noch 2,3 Rappen Netzabgabe und Steuern.

Die verkürzte Lebensdauer ist Blödsinn. 3-4 Jahre übersteht so ein Chip leicht und bis dahin ist er zu langsam. Der Kühler der Sapphire ist dementsprechend aufwendig gestaltet und die Temperaturen sind relativ niedrig.
Und wieso sollte der Strom ständig teurer werden wenn er im Schnitt an den Energiebörsen seit Jahren deutlich sinkt und Deutschland teilweise Überproduktion verschenken muss dass es tatsächlich noch abgenommen wird?

Der Staat und Gier der Stromkonzerne ist der einzige Grund für steigende Preise.
 
Zuletzt bearbeitet:
Ich finde es schade das in keinem Vergleichstest 1080p mit getestet wurde, da dies immer noch eine der gängigsten Auflösungen ist und dann selbst alte Karten teilweise noch für aktuelle Titel reichen.

Wer aktuelle Titel auf 1440p und mehr spielen möchte, baut sich keine 3 oder 4 Generationen alte Graka in den Rechner.


Zumal CB selbst schon VRam Tests veröffentlicht hat, wo gesagt wird das 4 GB VRam manchmal selbst für 1080p schon zuwenig sind.. und dann werden 4 - 5 Jahre alte Grakas mit 1 GB VRam in aktuellen Titeln auf 1440p getestet.
 
Zuletzt bearbeitet:
Danke für den Bericht, ebenso an dieser Stelle auch für die drei übrigen zu den Mittelklassekarten und den High-End-Karten von NVidia :)

Das Fazit kann ich grundsätzlich voll unterschreiben:
Ich hatte bis vor einer Woche eine Fury Tri-X OC eingebaut und war mit der Karte super zufrieden. Auch aktuellere Titel konnte ich eigentlich in einem sehr hohen Qualitätsbereich noch sehr gut spielen.

Aber seit ich vor zweieinhalb Wochen auf VR aufgerüstet habe, ist die Fury in der Tat am Anschlag: Es ging zwar noch, aber nur mit argen Zugeständnissen an die Qualität zugunsten der Leistung.
Jetzt habe ich ne 1080 von NVidia drin, und der Leistungszuwachs ist enorm! Wenn ich den MSI Afterburner korrekt interpretiere, wird allein schon der RAM der 1080 zum Teil mit bis zu 5,5 GB ausgelastet - kein Wunder, daß die Fury da irgendwann nicht mehr richtig mithalten konnte. (Und ja: Neu ist die Erkenntnis nicht, konnte man ja auch hier auf cb schon in diversen Tests lesen. Aber es selber mit eigenen Augen zu sehen, ist nochmal was anderes ;) )

Obwohl ich seit 2003 durchweg nur AMD/ATI-Grafikkarten verbaut habe und mit den Karten immer superzufrieden war, würde ich mich jetzt nicht als Fanboy bezeichen - 2007 und 2015 habe ich es jeweils auch schonmal mit NVidia-Karten versucht, aber diverse Probleme damit führten dann immer wieder zurück zu AMD/ATI.

Nur wenn man zum jetzigen Zeitpunkt mehr Leistung haben möchte - eben beispielsweise für VR -, führt an NVidia schlicht kein Weg vorbei. Ja, Vega kommt im Sommer... irgendwann... und bis die ersten guten Partnerkarten mit OC und leiser, performanter Kühlung rauskommen, wird's Herbst...
Schade :(
Aber da meine 1080 bis dato keine Mucken macht, bin ich's zufrieden :)

Nichtsdestoweniger bin ich auf Vega gespannt und hoffe, daß ATI es damit schafft, wieder aufzuschließen. Zum einen natürlich aus einer gewissen Verbundenheit heraus, aber auch allein schon, was Konkurrenz, Preise und Alternativmöglichkeiten angeht. Es ist nie gut, wenn nur ein Hersteller den Markt diktiert - früher oder später leiden darunter Preise und Qualität.
 
Zuletzt bearbeitet:
ich fänds gut, wenn man die ergebnisse der vier tests dieser reihe in einer übersicht zusammenfassen würde. außerdem hätte ich mir einen älteren synthetischen benchmark gewünscht, um mal die nackte rohleistung aller generationen unabhängig von optimierungen und speicherausbau zu sehen. :)
 
duskstalker schrieb:
[...]zudem ist das PCB winzig, mehr power von einer kleineren platine gibts schlicht nicht. [...]

Gab es damals nicht. Heute gibt es beides, mehr power und von einer kleineren Platine -> GTX 1080 Mini
 
Bei mir steht nun der Sprung von einer alten 5770 zu einer RX 480 an. Da wird der Leistungsschub schon deutlich zu verspüren sein. Heftig, welche Entwicklung diese Technologie hat
 
Bartmensch schrieb:
Es wurde ja auch nicht die HD5830 oder die GF770GTX getestet, warum also die abgespeckte HD7950?
Alle Graka kann man nie testen...

Toller Test, zumal ich auch noch eine R9-280x mein eigen nenne.
Ansonsten habe ich wohl früher eher Mittelklasse gekauft...
Natürlich kann man nicht alle Karten testen, aber gerade wenn man den Hardware Umfragen bei PCGH glauben schenken kann spielen viele/ haben viele gespielt mit einer 7950.
Aber denke das meine mit 1100/1250 vergleichbar mit einer non OC 7970 ist ;)
 
@zakuma

Es geht halt um einen Vergleich der Topmodelle und diese werden selten so oft gekauft, wie die leicht abgespeckten versionen ;) Es hat auch kaum einer die referenzkarte im Rechner, man muss halt ein wenig interpretieren und abschätzen. Eine 7950 ist halt etwas langsamer als eine 7970. Ob es jetzt genau 7,3542fps oder 9,02837fps sind ist dabei ziemlich egal. Es geht nur um die Einordnung der Generation.

Vielleicht macht ja CB noch einen Test der abgespeckten Chips mit ner 5850, 6950, 7950 etc / gtx 470, 570, 670, 770, 970, 1070
 
Hallo zusammen,

modena.ch schrieb:
Wenn ich unsere Tarife rechnen würde währen das minimal 12 Rappen im Sommer am Abend und maximal 18 Rappen jetzt im Winter am Tage. Dazu kommen jeweils noch 2,3 Rappen Netzabgabe und Steuern.

Die verkürzte Lebensdauer ist Blödsinn. 3-4 Jahre übersteht so ein Chip leicht und bis dahin ist er zu langsam. Der Kühler der Sapphire ist dementsprechend aufwendig gestaltet und die Temperaturen sind relativ niedrig.
Und wieso sollte der Strom ständig teurer werden wenn er im Schnitt an den Energiebörsen seit Jahren deutlich sinkt und Deutschland teilweise Überproduktion verschenken muss dass es tatsächlich noch abgenommen wird?

Der Staat und Gier der Stromkonzerne ist der einzige Grund für steigende Preise.

Ich habe den günstigsten Tarif bei uns mit knapp 31 Cent, Brutto mit allem drin. Wie gesagt, deine Preise sind Netto. Und nochmals, wenn jemand gerade einmal einen Verbrauch von ca. 1200 kw/h hat, macht sich so ein Monstrum sehr wohl bemerkbar. Erst Recht wenn es sich um einen Studenten, Rentner - vielleicht sogar Freiwillig gezwungenen Frührentner - handelt.

Die verkürzte Lebensdauer ist alles andere als Blödsinn. Es gibt Leute die, speziell in der heutigen Zeit, Spiele erst nach einer gewissen Reifung Spielen. Ich zum Beispiel. Meine 5850 aus meinem Profil ist von 2010. Und bis auf Spiele wie Witcher 3 kann ich alles noch unter Full HD mit wenigstens Mittleren Details absolvieren. Ansonsten habe ich noch einige Spiele im Schrank, die ich noch zu Absolvieren habe.

Hinzu kommt, daß du eine der besten Kühllösungen genommen hast, nein, sogar die mit Abstand beste. Eigentlich die einzige, welche die R9 390 / 390 X halbwegs ruhig bekommen hat. Wobei die Abwärme nicht nur gleichwohl aus dem Gehäuse geschafft werden muß, sondern auch noch andere Komponenten in Mitleidenschaft gezogen werden. Das hast du wohl Vergessen.

Wieso der Strom ständig Teurer wird? Sag mal, wo wohnst du? Hinter dem Mond? Sorry, nicht Böse gemeint. Aber das ist schon ziemlich daneben. Die Preise kennen seit über einer Dekade nur noch einen Weg, den nach Oben. Und durch was und wieso, tut nichts zur Sache, der Kunde hat es nämlich am Ende immer am Hals.

So long....
 
Zuletzt bearbeitet:
ruthi91 schrieb:
@Gabroum
Die 7970Ghz hat aber auch ~50W mehr geschluckt als die normale 7970, wenn ich mich richtig erinnere.

https://www.computerbase.de/2012-06/test-amd-radeon-hd-7970-ghz-edition/9/
Hier war das Delta keine 30W.
Klar hängt immer ein bisschen von der Chipgüte und vom verwendeten Testszenario ab, allerdings erklärt das dann trotzdem nicht die restlichen ~80W.

Bei HT4U war das Delta zwischen 7970 und 290X damals auch bei ~20W, zwischen 7970 und 290X im Uber Modus dann dank schon fast 100W GPU only.
http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index21.php

Interessant auch noch hier:
https://www.computerbase.de/2015-11/radeon-r9-380x-asus-sapphire-test/3/
dort trennen eine 6970 und eine 290X 28W, hier in diesem Tests sinds auf einmal 115W!
Und selbst die 6970 war ja kein Kostverächter, denn die Karte war auch nicht besser als der Fermi auf der GTX570.
Aber vielleicht schaffts ja RoTR die 290X einfach gut auszulasten während das bei VLIW nicht klappt und viele Einheiten brach liegen und somit die Leistungsaufnahme verhältnismäßig gering ausfällt.

Aber da kann hoffentlich Wolfgang Licht ins Dunkel bringen und erklären mit welchen Einstellungen die 290X bzw. auch die anderen Karten getestet wurden.

Ich hab mit meiner 290X mal einen Test gemacht mit dem RoTR ingame Bench, dort dümpelt das System zwischen 290 und 310W mit Peaks auf 330W.
Allerdings ist meine Testumgebung anders, da Custom design (290X PCS+ 1050/1350MHz) und 4770K NonOC und außerdem weiß ich nicht, welche Testsequenz hier verwendet wurde.
 
Wieso gab es dieses Fury X Resümee nicht zu Release? Das lag doch für den technisch Versierten auf der Hand. Auch anderswo. Rumgelalle, aber das Ding war immer eine Fehlkonstruktion.

Grüße
 
In neueren APIs steht die Fury sogar sehr gut da. Das größte Manko ist und bleibt die Größe des VRAMs. Daher bleibt der beste Deal der letzten Generation mit Abstand die 390 auch Herstellerübergreifend.
 
Noch eine. Anmerkung zu den 1980x1040 Enthusiasten: Klar, eine ältere Grafikkarte würde man normal nicht in noch höheren Auflösungen fahren. In der Praxis leuchtet das auch durchaus ein. Aber im Test kann man die aktuelle Leistungsfähigkeit in höheren Auflösungen wesentlich besser darstellen. In FHD sind die Abstände zwar da, aber längst nicht so deutlich.

Ja und ich spiele auch noch in FHD.
 
modena.ch schrieb:
Wenn ich unsere Tarife rechnen würde währen das minimal 12 Rappen im Sommer am Abend und maximal 18 Rappen jetzt im Winter am Tage. Dazu kommen jeweils noch 2,3 Rappen Netzabgabe und Steuern.

Das will ich auch nicht wissen. Bei mir kostet die kWh 24cent, und im Schnitt kann ich pro Woche so 15h zocken, gilt aber auch nur für die Wintermonate. Da sind selbst 100W Mehrverbrauch banal, da das selbst dann max. 40cent wie Woche und aufs ganze Jahr gerechnet 20€ sind.
Dazu hab ich die Sapphire Fury, das ist wohl die kühlste Highendkarte, die ich je hatte.
 
Kühl vielleicht, aber saugt trotzdem viel Strom. Das ist keine lineare Korrelation, wie du sie unterstellst.
 
derfledderer schrieb:
Kühl vielleicht, aber saugt trotzdem viel Strom.

Wo unterstelle ich das? Die beiden Aussagen stehen komplett unabhängig voneinander. Mein FX-8350 ist auch deutlich kühler als mancher i3, obwohl er deutlich mehr Strom braucht.

Ich sage nur, dass die Karte potentiell keine kürzere Lebensdauer hat, nur weil sie mehr Strom zieht.
Außerdem zahle ich meinen Strom schon seit 15 Jahren selbst und hab mich nie über den Verbrauch meines PCs beschwert. Der ist selbst wenn man nur AMD verwendet im gesamten Haushalt ein verschwindend geringer Posten.
 
Hallo zusammen,

@ hrafnagaldr

Wir hatten die Rede explizit von einer R9 390 / 390 X. Und das ist nochmal eine ganz andere Hausnummer als die Spphire Fury. Wenn du z. b. einen Verbrauch von jährlich 1200 kw/h hast und dann so ein Monster reinmachst, dann wirst du das Überproportional Merken. Ich z. b. habe unterschiedliche Spielzeiten, je nachdem, wie mich ein Spiel fesselt.

Bei Wasteland 2 bin ich z. b. kaum vom Rechner weg gekommen. Da waren teils sogar 6-7 Stunden Spielzeit nicht selten. Nur mal als Paradebeispiel.

So long....
 
Das machst dann wie lange 2-3 Wochen ah 6-7 Stunden?

Danach nimmt das gehörig wieder ab.
Und die Regel ist das keinesfall.

Ich sehe das wie hrafnagaldr. Im Haushalt ist der Verbrauch des PC nur ein winziger Posten.
Zwei, drei Lampen auf LED umgerüstet und der Mehrverbrauch einer solchen Graka ist locker drin.
Und das waren nur zwei, drei Lampen, da gibts potentiell viele im Haus....

Der PC ist der falsche Ort zum sparen auch wenns die letzten Jahre cool ist mit der Verbrauchkeule zu wedeln, ist die GPU weder die ganze Zeit unter Vollast und der Mehrverbrauch sinkt dabei eben gewaltig, noch ist das wirklich ein grosser Posten, das geht unter ferner liefen....
 
Zuletzt bearbeitet:
Zurück
Oben