Test AMD-Grafikkarten im Test: Radeon 5870, 6970, 7970, 290X, Fury und Vega 64 im Vergleich

maaaaaan und wieder wurde nur ne HD5870 mit 1GB statt der 2GB/Eyefinity6 Variante getestet....^^ Würde mal gerne wissen wie sich meine Karte so gegen aktuelle Karten schlägt. Aber ihr testet ja bei diesen ganzen Tests von Ur-Alt-Karten immer nur 0815-Modelle wie die 1GB Variante der HD5870 :(
 
@PickNick:

Nur dass die R9 295 von 2014 ist und die 1080 von 2016. Er hat also seit 2 Jahren (bzw. 2 Jahre länger bereits diese Leistung)
 
@Iscaran mit meinen beiden 980er hatte ich 2014 auch die Leistung von ner 1080 von 2016, nur ist SLI leider vorn Arsch und ich habe grottige Performance bei nem vollen Gehäuse, mehr Stromverbrauch, mehr Abwärme und 1100€ Anschaffungskosten damals + 240€ für die Wasserkühler. Ich denke mal bei bei den zwei 290 wird das so ähnlich sein, Crossfire läuft ja auch nicht besser bei neuen Titeln.
 
  • Gefällt mir
Reaktionen: Haldi
R O G E R schrieb:
Danke für den Vergleich.
Meine 5850 werkelt immer noch in meinem PC :)
Das ist die Grafikkarte die bei mir am längsten gehalten hat.
Bis auf die Voodoo 3 2000 die noch in der Retro Kiste anstandslos läuft.
Die anderen sind irgendwie alle nach einer Zeit gestorben :(

Meine 5850 ging nach 5 oder 6 Jahren kaputt, habe sie durch irgendeine 100 € Karte damals ersetzt, die die selbe Leistung hatte.

Mitlerweile spiele ich wenn dann auf Konsole

Ich kann mich erinnern, dass ich damals auch auf die 5870 scharf war, aber die war wochenlang nirgends lieferbar. Dann hatte aufeinmal ein onlinehändler die 3 von den 5850'er
 
Tja was mir dazu noch einfällt: die 5870 war eine super Grafikkarte und die letzte mit ihrer Architektur. Die 6970 hatte dann einige Änderungen. War Vega schon dieser Schritt für GCN mit dem Wechsel auf nCU und viele neue Technologien, die nie genutzt werden? Navi sollte doch noch relativ ähnlich sein. Wann uns wohl das Ende der GCN GPUs erwarten wird?
 
Der im Test genutzte Benchmark-Parcours scheint der Radeon RX Vega 64 nicht sonderlich zu schmecken. Denn gewöhnlich liegt die Grafikkarte weiter vor der Radeon R9 Fury X. In dem Test sind es in Full HD im Schnitt zum Beispiel nur 27 Prozent, im normalen Grafikkarten-Testparcours der Redaktion sind es dagegen höhere 48 Prozent. Und auch in Far Cry 5, Fortnite und Rainbow Six: Siege zeigen sich teils klar höhere Werte als im Schnitt. In anderen Spielen skaliert das aktuelle Modell dagegen nicht so gut. Warum dies der Fall ist, bleibt unklar.

Man sieht doch, dass der Performancezuwachs unter Ultra HD größer ist gegenüber FullHD. Ergo die Vega wird unter FullHD nicht komplett ausgelastet.

AMD fokussiert kein Dx11 mehr. Da muss man aufpassen, dass man eine AMD Grafikkarte nicht chlechter macht als sie ist. ≥70fps reichen Dicke. Da wird AMD also keine Energie mehr reingesteckt haben.

Nun hat ja Nvidia auch in Low Level etwas zu bieten. Mehrere Jahre Technologie-Bremsklotz haben bald ein Ende. Traurig für AMD.
 
Schöner Test. Interessant ist der Idle Verbrauch, der über die Jahre deutlich gesenkt werden konnte aber dafür der Volllastverbrauch umgekehrt massiv gestiegen ist. Die 7970 sticht für mich als interessanteste Karte heraus, was Rechenleistung und Stromverbrauch angeht. Das war damals der große Wurf von AMD
 
@Wolfgang
https://www.computerbase.de/2018-08/radeon-5870-6970-7970-290x-fury-x-vega-64-vergleich schrieb:
Noch einmal einen Sprung erreicht die Radeon R9 Fury X, die 40 Prozent besser als die Radeon R9 Fury X abschneidet.
Danke für den Test! "HD 7970" sollte da übrigens stehen. ;)

Kvnn. schrieb:
Die gute alte HD5870 war für Jahre eine Dauerempfehlung und wohl die "langlebigste" GPU an die ich mich in den letzten 15 Jahren erinnere.
Übel zu sehen wie heut zu Tage damit quasi nichts mehr vernünftig spielbar wäre.
Steini1990 schrieb:
Hab noch immer eine HD 5870 rumliegen die bis vor kurzem noch hin und wieder im Zweitrechner gewerkelt hat. War wirklich eine Top Karte. Wenn die 2GB VRAM hätte wäre sie auch heute noch für einige Spiele wie Fortnite noch gut verwendbar. Aber mit 1GB ist man heute halt schon wirklich unter dem Limit.
Hab die auch noch im Zweit-PC stecken. Als mein Erst-PC sein Mutterschiff verloren hatte, habe ich vorübergehend mit der HD5870 OC 1G (& Xeon 5450) sogar "Elex" mit reduzierten Details in FullHD/1080p gezockt. Hin-und-wieder abgeschmiert, aber trotzdem noch akzeptable Spieleperformance im Jahre 2017, also ~8 Jahre später. Die 2GB VRAM-Variante war wohl seltener vertreten ... aber lt. Wikipedia gab es sie.

@Seb89
Ja, das hätte ich auch gut gefunden, aber es geht ja um die Flaggschiffe, nicht die Flaggschiffchen. :evillol:

Bin übrigens damals von einer HD 4850 512MB auf eine HD 5770 1GB umgestiegen, weil die HD 5xx0er endlich HD-Audio 7.1 per HDMI konnten.
 
Zuletzt bearbeitet:
PickNick schrieb:
@Haldi
Nun ja, wenn man nicht Wert auf absolute Mehrleistung sondern auf Verbrauch und Lautstärke legt, schon sehr.

Äh, es geht eher darum wann die Leistung erhältlich war.

Seb89 schrieb:
maaaaaan und wieder wurde nur ne HD5870 mit 1GB statt der 2GB/Eyefinity6 Variante getestet....^^ Würde mal gerne wissen wie sich meine Karte so gegen aktuelle Karten schlägt.

Schon mal versucht an so eine Karte zu kommen? Kostet immer noch gerne mal 200€+.
Und kreuzt selten auf bei Ebay.
 
Zuletzt bearbeitet von einem Moderator:
@Shrimpy wir reden aber schon noch über Multi GPU Systeme, oder? CB hat doch letztens in einem Test erst gezeigt das CF und SLI links liegen gelassen wird, da helfen auch keine Grafikkarten mir zwei GPUs.
 
Seb89 schrieb:
maaaaaan und wieder wurde nur ne HD5870 mit 1GB statt der 2GB/Eyefinity6 Variante getestet....^^ Würde mal gerne wissen wie sich meine Karte so gegen aktuelle Karten schlägt. Aber ihr testet ja bei diesen ganzen Tests von Ur-Alt-Karten immer nur 0815-Modelle wie die 1GB Variante der HD5870 :(

1. waren die eyefinity karten SAU teuer.
2. waren sie "nur" mit 2gb ram
3. bringt das nur was bei höheren auflösungen

ich hatte eine, ist erst vor paar monaten abgeraucht durch 24/7 *husten*. in games war sie nicht schneller als eine normale 5870, abgesehen von hammer auflösungen, bei denen dann leider dem 5870 chip auch die puste aus ging. man konnte halt 1440p statt 1080p zocken. die 5870 ist allgemein in dem test de-plaziert. hätte man eine 4870 mit eingepflegt, wäre das gesamte ergebnis ein anderes gewesen.

*edit*
ich habe mal ein wenig bei meiner alten hardware rumgetestet. der verwendete treiber taktet sowieso nur den chip, nicht den ram im idle runter, hätte aber auch auffallen müssen an den idle verbrauchs werten.

mfg
 
@[wege]mini Was für einen Bildschirm bzw. welche Bildschirme benutzt Du? Je nach Auflösung und/oder Bildwiederholrate funktionieren die Stromsparmechanismen schlecht oder gar nicht; bei einer GTX 465, die ich letztens noch im Rechner hatte, funktionierte bei 1080p120Hz kein Stromsparmechanismus mehr.
 
ich hatte das "spielchen" mit den amd treibern immer in meinem clevo p170hm und einer full moddet amd 7870 (im laptop hieß sie dann 7970m) jahrelang. den treiber habe ich nur mal "testweise" gestern frisch installiert. der kann wie so viele andere auch, einige stromspar profile einfach nicht. beim desktop user fällt das halt nicht auf. ich merke aber sofort, ob im windows meine hand warm wird, oder nicht. :D

mfg
 
Zuletzt bearbeitet:
Shrimpy schrieb:
Schon mal versucht an so eine Karte zu kommen? Kostet immer noch gerne mal 200€+.
Und kreuzt selten auf bei Ebay.
Wahrscheinlich mit einem Apple-angpassten GPU-BIOS drauf, damit Leute mit älterer Apple-Hardware darauf anbeißen. ;)

Meine 5870 OC hat sogar ein Accerelo-Kühler drauf, was ihn etwas weniger laut unter Volllast macht.
An das leise Schnaufen meines original Lightning-Kühlers der 290X kommt der jedoch nicht ran. :D

Wie liebe ich da meine AiO mit spezial Lüftern für die 290X.
Läuft OC't mit 1200/1500 und erreicht keine 70°C in Games.
Dabei äußerst diskret als Hintergrundwindchen - dafür jedoch ziemlich warm ... :king:
 
Ich hatte eine 6970, in Form einer geflashten 6950 (highend für 220€ :smokin:), dann die 7970 als 280X und dann noch Hawaii als 390. Wäre gerne bei AMD geblieben, aber Vega war zu teuer und kaum verfügbar, deshalb ist es aktuell eine 1080, RIP Freesync...
 
Wer vor einigen Jahren eine HD 7970 oder GTX 970 gekauft hat, der/die kann diese Karten eigentlich bis heute gut weiterverwenden. Beide Karten liefern bis heute gute Ergebnisse in FullHD mit hohen Einstellungen und sind bezüglich ihres Stromverbrauchs auch nicht schlecht gealtert. Karten wie die HD 6970 oder GTX 570 sind dagegen schlicht zu ineffizent geworden (zu wenig Leistung, zu hoher Stromverbrauch, keine neuen Features, etc.).
Wobei die GTX 970 aufgrund ihrer Unterstützung von DirectX 12 Feature Level 12_1 deutlich besser darsteht als die HD 7970, welche DirectX 12 zwar auch unterstützt, aber nur in Feature Level 11_1.
 
usb2_2 schrieb:
Die müssen Mal an der Effizienz arbeiten. Sowas wie die Nano halt. Einfach im sweetspot

Die meisten Vega 64 lassen sich stark undervolten, wenn du so geizig bist und das bisschen Strom sparen willst.
 
Hmm... interessant.
Ich hab noch ne 290X ungenutzt rumliegen... Bei 1080p hätte die tatsächlich noch sehr respektabel gereicht...
 
Zurück
Oben