Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

Nvidiabase kanns mal wieder nicht lassen, und sei es erst im Fazit:

4-GB-Speicher möglicherweise kritisch in der Zukunft

So einen Satz habe ich beispielsweise bei der 970 nie gelesen, auch wenn die nicht mal 4GB wirklich zur Verfügung stellt.
Ohne so ein wenig AMD-Bashing geht es bei Computerbase ums verrecken nicht, richtig?
 
Eine sehr interessante Karte!

Vor allem die Leistung im Verhältnis zu den Abmessungen ist schon enorm!
Kurz gesagt: Stark, Leise, Kühl, Kurz, Günstig!
[Günstig nicht gleich Billig]

Für mich ist die Fury X der Technologie Träger.
Interessant wird es vor allem bei den Custom OC-Modellen der Fury und der Fury Nano in den nächsten Wochen.
Dann wird sich zeigen, welche OC-Potentiale in der Karte noch verborgen sind!

Und vor allem wenn AMD noch einen optimierten Treiber für die Fury X rausbringt, wird ganze noch ein ticken schneller!

Für mich persönlich warte ich trotzdem auf die zweite Generation Fury X in 2016, da meine Karte in allen Lebenslagen noch vollkommen ausreicht.
 
Ich muss sagen well done AMD. Vor allem der größe schritt vorwärts in der Leistungsaufnahme hat mich überrascht. Das einzige was mich wirklich stört ist das Fiepen der Kühlung alles in allem ist die Karte ja schön Leise aber das fiepen geht mal gar nicht. Wenn AMD das noch in den griff bekommt würden einem hingehend Silent PC im ITX format nichts mehr im weg stehen. Was ich noch toll fände Kühlergebnisse mit alternativen silent Lüfter z.B. Noctua NF-F12 PWM
 
Einen Tick schlechter als ich erwartet hatte aber immerhin mit deutlich besserer Energieeffizienz. Wieviel von der gesteigerten Effizienz wohl im Speicher steckt?
 
Zumindest momentan ist die Fury X nicht günstiger als die 980Ti
Dafür leiser und kühler als das Gleich teure/schnelle Ref. Modell ist doch alles im Lack.
Verstehe die Enttäuschung nicht so wirklich ja etwas mehr OC wäre Nice aber für jemanden der das ding einbaut und vergisst ist das eine solide Leistung.

Zudem die 980 Ti Custom-Modelle ca. 15% an Leistung drauflegen und dabei die Lautstärke teils deutlich reduzieren.
Im luxx steht die einer iChill X3 Ultra gegenüber unter last ist die Fury immer noch leiser und kühler.
http://www.hardwareluxx.de/index.ph...798-amd-radeon-r9-fury-x-im-test.html?start=7

attlefield 4 Test aussen vor gelassen hat: die Fury X stinkt da mächtig ab
Wieder Hardwareluxx ich sehe da nichts stinken.
 
Zuletzt bearbeitet:
Was wollt Ihr mit den DVI Anschlüssen? Altes Zeugs das keiner mehr braucht da kann man ja gleich nach einem VGA Anschluss fragen... ;)

Die Karte gefällt mir eigentlich echt gut aber das geringe OC Potential ist sehr ernüchternd. Bessere Wahl je nach exaktem Preis dann vielleicht echt eine GTX 980TI Custom.

Aber es ist ja eh so wie auch bei Nvidia, die aktuellen Topmodelle sind total sinnfrei, für FHD viel zu viel Leistung da reicht ne Karte die weniger wie die hälfte kostet und für 4K ( bzw. VR ) zu wenig Leistung, also was soll man mit so einer Karte?
 
AnkH schrieb:
Jetzt weiss ich, warum CB den Battlefield 4 Test aussen vor gelassen hat: die Fury X stinkt da mächtig ab, schaut man sich die Benchmarks auf diversen anderen Seiten an...

Jaaa genau. Gekauft mal wieder, diesmal von AMD. Jeden Tag was anderes.
BF4 ist teilweise so krass CPU-limitiert, deshalb ist es vor Monaten bereits rausgeflogen, wie aufmerksame Leser auch mitbekommen haben. Ich weiß auch das sich die Kritik auf HardOCP bezieht: http://www.hardocp.com/article/2015/06/24/amd_radeon_r9_fury_x_video_card_review/8#.VYqmQEafjao
8% Unterschied zwischen Fury X und ner 290X? Sry aber never ever. Da limitiert halt ganz klar etwas anderes, Shanghai ist bekannt dafür im CPU-Limit zu hängen.
 
Bei manchen Kommentaren frag ich mich schon ob diejenigen den ganzen Test gelesen haben.

z.B. "Ich habs gleich gewusst dass 4GB Speicher zuwenig sind"...

Die Karte wird sich preislich auch noch einpendeln und ist ne sehr gute Alternative zu Nvidia.
Die paar Prozente hin oder her sind doch sowas von egal..
 
einfache frage:

meine vapor 290x 8gb gegen die fury x tauschen?*
 
Das kannst ja nur du selbst wissen. Brauchst du mehr Leistung, dann tausche. Ansonsten spricht wenig bis gar nichts dafür.

Ich würde diesen Wechsel definitiv nicht durchführen, da die 290X sehr schnell ist und mit 8GB auch noch besser bestückt (falls es für dich in deinen Settings eine Rolle spielt)
 
Danke für den Test :) Also hat es AMD nun nach knapp 10 Jahren geschafft das Speicherproblem bzw. das richtige runtertakten zu bändigen :daumen: Die restliche Leistung überzeugt dagegen leider nicht so wirklich und bei dem Preisgleichstand werde ich auch sicherlich nicht wechseln.

Dafür dann die Show bei der E3 abzuziehen....Naja :/ Da warte ich getrost auf Pascal :) Es sei denn die schöne Karte hier gibt es mit Luftkühler und für 200 € auf dem Grabbeltisch ;) Das wird ja die Zukunft bringen, wie stark der Wertverlust ist.
 
Zumindest hat AMD mit dieser Karte den Anschluss zum Konkurrenten hinbekommen, auch
wenn es nicht ganz reicht, Nvidia das Fürchten zu lehren. Trotzdem gut für uns Kunden.
Bringt Bewegung ins Preisgefüge.
 
Ok, fassen wir mal zusammen:

- das Ziel "schnellste" GPU wurde leider verfehlt, trotzdem ganz ordentlich was die Karte abliefert (Faktor 1,8 gegenüber meiner 7970GHz ;-)
- Speichermanagement ist auch ganz ok, wie es in Zukunft mit den 4GB aussieht kann man aber trotzdem schwer abschätzen (wird schon schiefgehen...)
- AiO bis auf den Patzer mit dem fiepen auch super (hoffen wir mal das die Aussage mit den verbesserten Modellen für den Handel allgemein stimmt)
- fehlendes DVI / HDMI 2 schon etwas nervig (stört mich aber zum Glück nicht)

Aber eine Frage bleibt offen:

@CB: Wie dick ist der Radiator (mit Lüfter)? Könntet ihr das bitte noch messen und angeben? Danke!
 
Leiser kühler und bei meinem multi-Monitor weniger Verbrauch im idle.
Wasserkühlungsvariante
Ohne HDMI2.0 für mich leider ein eher teures da kurzweiliges Investment :( Hoffe da tut sich noch was bei den Boardpartnern..aber unwahrscheinlich dass die dort Einfluss haben.


@CB wie viel verbraucht eigentlich die wakü genau an watt unter last?
 
Aber mit welchem Aufwand!

Wenn nvidia nun die 980 ti statt mit GDDR5 mit HBM ausstattet (was jetzt nur theoretisch ist und praktisch nicht so einfach funktionieren würde), dann wäre der Abstand beim Stromverbrauch auch wieder größer.

Es ist zwar toll, das AMD so einen Sprung gemacht hat, ich hätte mir aber bei dem technischen Aufwand erhofft, dass man bei gleicher Leistung endlich weniger Strom verbraucht.

So muss es AMD leider auch weiterhin über den Preis regeln, was sie mit dem niedrigeren VK Preis ja auch belegen. Das Signal dabei ist für High-End-Käufer: "kauft nvidia, die sind anscheinend besser".

Ist halt anscheinend leider auch kein wirklich neuer Chip, Tonga, nur etwas verbessert + HBM für kürzere Karten. Und die "tollen" Verbesserungen haben wir bei ja schon bei der 390X gesehen, die machen fast nichts aus, also ist HBM der Heilsbringer für weniger Stromverbrauch gewesen.

AMD wird auch weiterhin weniger verdienen, denn der Chip, bei der Größe, ist garantiert nicht billiger als maxwell.

Für die Weiterentwicklung der nächsten 2-4 Jahre sehe ich schwarz. HBM2 und 14nm werden nocheinmal für einen kleinen Sprung sorgen, aber ansonsten dümpelt der Bereich vor sich hin und die Leistungsentwicklung ist jetzt schon klar abzusehen.

Jetzt muss man allen ernstes Hoffen, dass intel ihre APUs stärker beschleunigen und mehr Speicher reinpacken (Evtl. auch HBM?), damit nvidia und AMD mal was neues bringen.

Gut für mich, meine 270X kann ich wohl noch viele Jahre nutzen :evillol:
 
wieso ist in den tabellen "Kühlung & Lautstärke" und "Temperatur" die GTX 970 nicht aufgeführt..?
 
what? meine Guete jetzt muessen sich hier aber echt einige amd hater ihre 980ti schoen reden, darf ja nicht sein das sie ne teurere leicht schlechtere Karte gekauft haben... mein gott ihr konntet sie ein paar wochen frueher geniesen und so viel besser ist amd nun auch nicht das ihr euch so schlecht fuehlen muesst.

Was fuer laecherliche Argumente gegen die Karte gebracht werden:

- kein dvi anschluss?

What? Hat hdmi wenn jemand noch nen Monitor mit diesem sterbenden anschluss hat soll er das verwenden werden eh die ganzen oems nen adapter mit bringen, wenn nicht kostet 5 euro maximal. Eines der daemlichsten Argumente die ich jeh gehoert habe sorry

- amd musste so viel aufwand treiben um die 980ti (uebertakter edititonen kosten mehr)

Was? Wen interessiert wieviel aufwand man treiben muss? Weniger wie Nvidia offenbar, sonst koennte AMD Nvidia nicht Preislich unterbieten.

...
 
Zurück
Oben