Test AMD-Grafikkarten im Test: Radeon 5870, 6970, 7970, 290X, Fury und Vega 64 im Vergleich

bugmum schrieb:
Irgendwie hat sich ein Fehler in der Verbrauchsgrafik eingeschlichen. Die Vega64 soll am meisten bei WoW verbrauchen bei 60fps, hat aber das beste Performance pro Watt Verhältnis? ...
Ja, da stimmt etwas nicht.
Von der R9 390 zur Vega 56 konnte ich bei Framelimit 60fps einen deutlich messbaren Rückgang der Leistungsaufnahme des PCs verzeichnen. Zumindest bei Spielen, die auch schon vorher die 60fps erreicht hatten. Ich nehme stark an, dass es von 290x zur Vega 64 nicht anders sein kann.

Edit;
Ich muss meinen Kommentar relativieren. Die Benchmarks hatte ich mit kompett optimierten Grafkkarten gemacht. R9 390 -80mV und Vega 56 -200mV.
Fakt ist aber, dass sich die Vega besser durch Undervolting tunen lässt, als jede andere AMD-Karte, die ich jemals hatte.
 
Zuletzt bearbeitet:
Ist schon beeindruckend wie die 7970 heute noch liefert.
 
Danke fur den Test! Wird glaube wirklich langsam mal Zeit meine HD 5870 in Rente zu schicken. Ich mein so nach bald 8 Jahren, wäre es an der Zeit. Gut aktuell spiele ich eh hauptsächlich alte Spiele, aber spätestens für Cyberpunk 2077 muss was neues her.
 
  • Gefällt mir
Reaktionen: Unnu
Und wieder ist die Messung des Verbrauchs und der Effizienz so unwissenschaftlich wie sie nur sein könnte. Anstatt die Belastung konstant zu halten (Wieso soll das eigentlich praxisfern sein?), wird sie bei jeder Karte verändert (und nicht angegegben) und daraus ein Graph erzeugt, der nicht aussagekräftig bzw. sogar extrem irreführend ist. Bitte ändert das oder nehmt die Messung komplett raus. Das ist einer kompetenten Redaktion einfach nicht würdig. Abgesehen davon werden Leser dadurch auf den völlig falschen Weg geführt.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Haldi, FCK-THIS und 6 andere
Also ich behaupte mal, dass die HD6970 doch etwas mehr anders ist als die HD5870 und daher auch mit in die Tabelle der Specs aufgenommen werden sollte. Nur die HD6870 SP Edition von Sapphire war eine umgelabelte HD5870. Die anderen HD69xx GPUs basierten nicht mehr auf Cypress (XT), wie die HD5870.
 
Ich habe auch ein Upgrade von der 290 ASUS OC auf eine Vega 64 Nitro+, und bin wirklich zufrieden mit UV ist Sie auch nicht mehr so hungrig nach Energy ;)
 
Als Besitzer einer 6970, 2x7970 und 2x290 hab ich das meiste da miterlebt :) aber die Fury war einfach das Geld nicht wert. Und da Crossfire immer wie schlechter unterstütz wird wollte ich schon ne Karte die auch 2x290 bei 1100mhz schlägt. Und das nicht nur um 15% :(
Da die ersten Infos zur RTX ja recht beschämend sind hoffen wir mal auf 7nm Navi... Auch wenn die Hoffnung nicht allzu gross ist.
 
Hier befeuert immer noch die gute alte MSI 7970 Lightning BE mit WaKü den 4K Monitor. Ist nicht optimal, funktioniert aber, bis die 2080 Ti für ein gewisses Leistungsplus sorgen soll.

Ich hatte lange eine zweite Karte für CF, aber das hat nur Probleme gemacht.
 
Interessant auch die "Performance (1920x1080) pro TFlop - Verglichen mit der Vega 64"

Effizienz.PNG
 
  • Gefällt mir
Reaktionen: xXDariusXx, dohderbert, NMA und 8 andere
Denn gewöhnlich liegt die Grafikkarte weiter vor der Radeon R9 Fury X. In dem Test sind es in Full HD im Schnitt zum Beispiel nur 27 Prozent, im normalen Grafikkarten-Testparcours der Redaktion sind es dagegen höhere 48 Prozent. [...] Warum dies der Fall ist, bleibt unklar.

ich weiß ja nicht, aber könnte das am vram bottleneck von fury liegen, das die karte bei wolfenstein max settings und doom nightmare von einer theoretisch guten leistung ans untere ende der tabelle schiebt?

oder liegt das an den gurkentiteln, die die fury unter eine 1060 drücken?

wenn man nämlich im CB parkours alle titel rausschmeißt, in denen fury entweder im vram limit hängt oder das spiel einfach nicht fur eine fury optimiert wurde, sinds wieder 29% von fury zu vega, sogar in fhd.

normalerweise hat die fury 15-25% abstand zu einer rx580 - und dann stimmt auch der abstand zu vega wieder.

die 48% im normalen parkours kommen nur da her, dass man ca 50% spiele hat, in denen die fury unter der rx580 oder 1060 ist - was aber schon ein hinweis darauf ist, dass da irgendwas nicht stimmen kann.

jetzt kann man entweder mit dem finger auf amd oder auf die studios oder auf die engine oder auf fury selbst zeigen, aber wundern sollte einen das ergebnis nicht.


furyvega.jpg


ist doch euer parkours, wieso ist das ergebnis für die redaktion so überraschend? war doch eure absicht mit doom @ Nightmare das vram limit aller 4gb karten ans licht zu bringen (ironischerweise ist die cb-verhasste fury die einzige 4gb karte).

Faust2011 schrieb:
Radeon RX Vega 64

Endlich ein Hochtaktdesign von AMD, d.h. Taktraten von ~1.600 MHz sind möglich, aber sonst ist es 1:1 auf Fiji-Chip Niveau.

genau wie maxwell -> pascal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck und Iscaran
@Wolfgang vielen Dank, sehr interessanter Artikel.

Ich denke AMDs Baustellen sind mittlerweile (auch AMD selbst) bekannt und mit Navi in 7nm wird sich einiges tun.

Die Jungs und Mädels bei der Radeon Technologies Group schlafen nicht und ich bin gespannt ab wann es mal ein paar handfeste Informationen gibt.

Mit einer Vega RX 56/64 und einer Kombination aus UV und dezenten OC lässt sich schon jetzt viel anstellen.

Zum Übergang hätte ich mich ja schon noch über einen Refresh der RX 580 mit leicht höherem Takt und weniger Verbrauch gefreut.

Liebe Grüße
Sven
 
usb2_2 schrieb:
Die müssen Mal an der Effizienz arbeiten. Sowas wie die Nano halt. Einfach im sweetspot
Einfach das Energiespar Proviel bei der Vega einstellen. Man verliert ca. 10% Leistung und die Leistungsaufnahme der Karte fällt auf ca. 200-220W.
 
Vielen Dank für den schönen Test, habt das gleiche ja auch mit NVIDIA gemacht.

GCN war und ist einfach ein gute Sache, während die alten NVIDIA-Architekturen irgendwann auf der Strecke bleiben, entwickeln sich selbst die alten 7000er Karten heute noch weiter.

Werde meine R9 290x auch bestimmt noch eine Weile behalten. Entweder bis VR für mich persönlich ein Thema wird, oder bis RayTracing in der Spieleindustrie verbreiteter ist und auch AMD die Technik anbietet.
Letzteres nicht, weil es unbedingt AMD sein muss, sondern weil ich glaube, dass realistische Preise und eine ordentliche Technik erst mit der Konkurrenz entstehen. NVIDIA darf gerne Vorreiter sein. Wenn sie schwitzen müssen, weil ihnen AMD auf den Fersen ist, denke ich dass man in einem für Verbraucher angenehmen Markt angekommen ist.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
@Wadenbeisser Oder man nutzt einfach Chill ohne das man auf Leistung verzichten muss.
 
Die HD7970 war genial.
 
  • Gefällt mir
Reaktionen: EntelodonX, xXDariusXx, Otsy und eine weitere Person
Wieso fehlt denn die RX 56?
Bei dem Test hätte man auch noch auf den Artikel von euch zum UV/OC verweisen können.

Weder die RX 64, noch die RX56 verbrauchen über ~230W bei halbwegs gut eingestellten Settings.

Die 7970Ghz Edition wäre auch interessant gewesen.
 
Aus dem Test....
Als Spiel kommt World of Warcraft zum Einsatz und in diesem wird die Leistungsaufnahme bei etwa 60 FPS in der Testszene gemessen. Das hat zur Folge, dass jede Grafikkarte bei unterschiedlichen Grafikdetails gemessen wird.
Wenn ich das richtig verstehe, werden also die Grafikeinstellung so angepasst, dass alle Karten ca. 60 FPS erreichen. Ich kenne nicht die Möglichkeiten von WoW, aber ich denke das dort bei Vega 64 Supersampling genutzt wird um auf nur 60 FPS zu kommen?
Wäre es nicht interessanter und auch praxisnäher bei den Leistungsstärkeren GPUs einen Framelimiter zu nutzen? Ich weiß nicht, wie die anderen User das tun, aber genau so mach ich das in meiner Praxis bei Spielen, die nicht so fordernd in der Grafik sind. Beispiel Guild Wars 2. Das spiel bietet die Einstellung auf 60 FPS zu begrenzen und dann taktet bei meiner Vega 56 sogar der HBM runter und der Verbrauch sinkt drastisch. Bei Spielen die keinen eigenen Limiter nutzen, kann man auch super Radeon Chill benutzen.
 
Hab auch noch 2 der 7970Ghz Editions, eine im Medicenter PC und die andere hat meine Freundin. Damit kann sie immer noch alles aktuellere gescheit zocken, mal schauen wie sich das kommende TombRaider schlägt. Die letzten Teile liefen in mittleren Details alle flüssig (>50fps) mitm nem alten i5-2400@3,4Ghz.

Wobei die Effizienz beim Zocken doch mehr oder weniger egal ist, lieber im Idle wenig Verbrauch und unter Last "egal".
 
l3ohn schrieb:
Aus dem Test....

Wenn ich das richtig verstehe, werden also die Grafikeinstellung so angepasst, dass alle Karten ca. 60 FPS erreichen. Ich kenne nicht die Möglichkeiten von WoW, aber ich denke das dort bei Vega 64 Supersampling

Ganz unabhängig ob AMD,Nvidia oder Intel - Bei WoW hab ich dasselbe "Problem" in dem Test wie du.
Es macht mmn. nur Sinn das ganze in BG's oder Raids zu testen, da diese Szenarien eben die wichtigsten in einem MMO sind und es genau dort wichtig ist eine konstante Framerate zu haben.

Vielleicht auch ein Antoss an die Redaktion mal nach DX12 und dem neuen Addon einen Test genau für diese Thematik rauszuhauen. Ich fänd es interessant was die Karten in diesen Szenarien und außerhalb liefern. Ein Test nur mit WoW/ESO/GW 2 oder Black Dessert Online wäre schon ziemlich cool.
 
Ich liebe die 79XX bzw 280er Serie.
Mit einigen Abstrichen reicht die Karte immer noch für 1080P und mit OC holt man da nochmal knapp 18FPS raus, je nach Titel sogar 25 und mit Tesslationslimitierung (sofern verwendet vom Spiel) auf 6x noch mehr.

Ich liebe diese Karte....ist für mich wie der Intel i7 2600k (hatte ich jedoch nie).

Die 290/X Serie sowie 390/X, 480 und 580 sind aber leider OC Krüppel, bzw die Skalierung ist ein Witz.
 
  • Gefällt mir
Reaktionen: xXDariusXx
Zurück
Oben