Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

Wobei die 390X sich ja ziemlich von der 290X absetzen kann, wie man sieht.
Wann gibt´s denn jetzt den Test zur 390X? CB scheint ja schon mindestens ein Exemplar zu haben, wo haben sie sonst die FPS-Werte her? Oder gibt´s für die 390X noch ein NDA?
Der Artikel letzte Woche war ja nun nicht soo umfangreich, dass er als Test durchgeht.
Andererseits, wenn die Unterschiede so gering ausfallen...
 
Zuletzt bearbeitet:
Solide Karte, und extrem aufwändiger Test,d anke an CB dafür :)

Die Wakü ist so ein zweischneidiges Schwert. Einerseits ists leise unter Last, andererseits sind diese kleinen Pumpen im Leerlauf immer heraus zu hören, wohingegegen man mitlerweile auf luftgekühlten Karten die PRopeller abschalten kann und gänzlich Ruhe herrscht. Muss wohl jeder slebst entscheiden, was ihm da besser gefällt.

Die 4GB Speicher sehe ich aber sehr kritisch. Bessere Nutzung hin oder her, so eine Karte kann man 3 oder 4 Jahre lang verwenden, und obs dann noch reicht? Mit 8, oder noch besser 12GB "herkömmlichem" Ram wäre ich persönlich zufriedener und würde deswegen lieber zum NVidia Gegenstück greifen.
 
Finde die Karte gelungen und Konkurrenz belebt bekanntlich das Geschäft und kann somit nur gut für den Verbraucher sein.

Bin schon auf die kleineren Fury gespannt.
 
Guter Job von AMD! Jetzt müssen halt noch alternative Luftkühl-OC-Modelle und HDMI 2.0 her, dann lässt es sich auch mit entsprechenden TV's vernünftig in 4K spielen. So wie es jetzt aussieht, ist für mich die GTX980ti (noch) das rundere Produkt.
 
johnniedelta schrieb:
Tolle Karte, und das leidige 4GB-Thema wäre damit auch endlich geklärt. Wer hätte gedacht, das HBM soviel effizienter ist? Das Fiepen ist sicherlich bei den Partnerkarten kein Thema mehr, nur der FPS-Limiter von AMD ist etwas lächerlich:
warum die Limitierung auf 95Hz? 144 Sollten das Limit sein, und die Abweichung von einem FPS ist auch nicht so doll.

Wobei ich vermute, dass AMD sämtliche gängigen Spiele "per Hand" im Treiber optimiert hat und man bei neuen Spielen dann jedes Mal bis zum "Fix" per Treiber verschissen hat.
Aber mittlerweile ist man es ja gewohnt, dass mit AMD-Karten die meisten neuen Spiele die ersten paar Wochen nicht laufen.^^
Und ich vermute mal, dass Nvidia noch mehr auf die Spieleentwickler einwirken wird, Spiele für sie vorteilhaft zu programmieren und die Grafikoption fest zu verdrahten, ohne die es auf AMD Karten (oder auch Nvidia-Karten der Vorgeneration^^) auch gut laufen würde.

Das mit den 95fps verstehe ich auch nicht. Es wäre das perfekte Mittel, um für Freesync das Spielerlebnis besser zu machen bei Spielen ohne eigenen Framelimiter.

p.s. Bevor mir einer den AMD-Fanboy unterstellt...ich benutze seit über 10 Jahren nur Nvidia. Jetzt soll es das erste Mal eine AMD Karte werden.
 


Full HD @ Hoher Quali

Wie man sieht skaliert Maxwell von der GTX 960 über die Flops quasi Linear. 300% Shader = 293% Flops bei der TITAN X.
Gaming Leistung kommt davon "nur" noch 232% an, bei ~3% weniger Takt.

Bei GCN 1.2 geht nur Fury und Tonga, und da sieht es ja eigentlich noch viel besser aus.

Fury hat quasi doppelte Daten der Tonga R9 285 und bringt auch 214% Gaming Leistung, wobei die R9 285 auch 10% weniger Takt hat. Dennoch erstaunlich. So gesehen kommen fast 100% der Shaderpower auch an.

Gut, Rops/TMU/SI und das ganze Drumrum geht hier natürlich unter. Und bei GCN 1.2 gibst bisher nur 2 Karten...

Im Vergleich zur R9 285 skaliert Fiji hervorragend.
 
Zuletzt bearbeitet:
göschle schrieb:
Wird doch bereits mit der Nano der Fall sein. Da ist dann schon ein kleiner Refresh des Fijis drauf, deswegen der Release erst im Herbst. AMD saß ja nicht rum und machte dumm di dumm, während sie ein halbes Jahr auf die fertigen HBM Speicherchips warten mussten?
 
Was ich mich die ganze Zeit frage: Warum hat eine R9 290 eine höhere Leistungsaufnahme als eine 290X? Entweder ich kann nicht lesen oder es ist wirklich so..
 
Lobos84 schrieb:
An die Experten hier: kann mir einer einen Beweis dafür liefern, dass die 6GB der 980ti zukunftsfähiger sind als 4 GB HBM?

Also Mutmaßungen liest man ja hier genug aber das hilft nicht wirklich was - der Speicher verhält sich schließlich ganz anders.


Nein, das wurde nicht getestet. Getestet wurde leider nur die effizientere Kompression von Tonga. Ich mein, nichts anderes ist es, als 2x Tonga xt...

Die eigentlichen tests hierzu fehlen.

coolmodi schrieb:
Das beste finde ich ja, dass ENDLICH auch der Stromverbrauch bei Multimonitor und Blueray gefixt wurde! Imho ne echt geile Karte.


Und dazu sagt formatc , dass fiji so extrem schnell mit dem powergate schaltet, dass die lastspitzen im idle 21w seien, aber in Endeffekt Sau wenig Strom braucht. Je nach Messung kommt man auf sagenhaft niedrige Werte im idle und dazu die Neuerung, dass jeder chip gebinnt wird und nicht alle xhips eine einheitsspannung verpasst bekommen. Also kann der Verbrauch je nach Karte deutlich schwanken.

volker schrieb:
Wir haben einen umfangreichen runden Test abgeliefert, was auch die 90%+ der Kommentare hier bestätigt, insofern kann ich damit mehr als ruhig schlafen :)

An sich ja, die Überschrift ist positiv und sonst fehlen leider sondertests zum hbm, aber kompressionstests von "tonga" sind echt nett bzgl Belegung.

Zur Karte:

Klar benanntwurden die Flaschenhälse, die verhindern, dass die CUs ausgelastet werden können. .. schade. Missverhältnis von front zu back-end und dazu noch beides unterdimensioniert um die shader auszulasten.

Letztlich bin ich aber froh und positiv überrascht, dass Tonga xt verdoppelt wurde, wodurch mit dem, was carrizo technisch bietet, das modernste an Technik geboten wird.

Dazu geniales powergating, eeeeeendlich sehr guter multi-monitor-verbrauch und mit bluray erträglich. Im idle sehr gut.
Das Fiepen von Karten im Handel soll laut pcgh (oder so) auch deutlich besser sein. Dazu sehr leise (bis auf die samples) und würde mir nach Abzug der early adopter Aufschläge als bessere Alternative zur 980 ti erscheinen.

Trotz deren vram.

Bin mal gespannt, ob man bei cb und so mal den hbm später richtig auf den Zahn fühlen kann ...
 
kisser schrieb:
Ich nehme mal an, du beziehst dich auf diesen Test der R9 285:

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/AMD-Radeon-R9-285-Test-1134146/3/

Der ist leider nicht vergleichbar mit dem aktuellen Test, da anderes Spiel/Einstellungen genutzt.


Richtig, nicht vergleichbar. Darum hab ich ja auch die Werte bei der Rechnung jeweils von THG genommen, da vergleichbar.

Übrigens sieht man den Effizienz-Fortschritt durch die PowerTune Überarbeitung gegenüber Tonga deutlich beim Stresstest wenn sehr gut parallelisierbare Aufgaben genutzt werden.

Tonga: Gaming: 168W, volle Shaderlast: 178W (+11%)
Fiji: Gaming: 221W, volle Shaderlast: 347W (+57%)

Fiji hat 100% mehr Shader und braucht bei voller Shaderlast 94% mehr Strom. Liegen wechselte Lasten an braucht man nur noch 31,5% mehr Strom für +115% mehr Leistung. -> Eindeutige Verbesserung bei PowerTune.

Bei voller Shaderlast paßt auch plötzlich deine Rechnung.

Das gleiche zeigte ja schon Nvidia mit Maxwell. Bei Gaming ist man Kepler haushoch überlegen, da Maxwell bedeutend besser mit den wechselnden Lasten umgehen und die Leistungsaufnahme noch gezielter an die tatsächliche Last anpassen kann. Bei voller Shaderlast ist kaum ein Fortschritt erkennbar. AMD hat bei Fiji an der gleichen Schraube gedreht wie Nvidia bei Maxwell.
 
graysson schrieb:
Bei vielen wird es auch einfach der gesunde Menschenverstand sein, der ab und zu wieder einsetzt und sagt, dass 600€ oder mehr für eine Grafikkarte einfach inakzeptabel ist.
Bei mir z.B. wäre dann auch noch gleichzeitig ein Monitor fällig, da mein gerade mal 1,5Jahre alter 144Hz Monitor nur DVI kann.
Soviel zu den Sprüchen, wer benutzt heutzutage noch DVI...alle mit einem 144Hz Monitor der ersten Generation spielen.
Aber 1400€ auf einen Schlag sind mir dann doch etwas zuviel.

Deswegen überlege ich auch sehr stark, die Zeit bis zur nächsten Generation mit einer 390 bzw. 390X zu überbrücken.
Nur frage ich mich dann wieder, ob die für 1440p (z.B. für BF4 bei 144Hz) ausreichen, wenn ich dann doch den Monitor haben will.

Hm, ich hätte bei mir da auch die Wahl zwischen neuem DP-Kabel oder DVI-zu-DP-Adapter. Letzterer wäre aber in jedem Fall günstiger für Dich als ein komplett neuer Monitor.

Zudem würde ich an Deiner Stelle noch zumindest den Test der normalen Fury abwarten (evt. auch der Fury Nano, die sparsamer sein soll und preislich zwischen 390X und Fury landen dürfte, wenn Du die Zeit hast), da einerseits die Preise noch weiter purzeln werden, die Treiber sich verbessern dürften und anderseits schon Win10 Performance getestet werden könnte (mit DirectX12 Spielen wird es wohl leider noch ein Weilchen dauern). Die Fury X ist jedenfalls ein vielversprechender Ausblick auf die kleineren Fury Modelle, die evt. dann mehrere Wochen nach offiziellem Erscheinen/Testen unter 500Euro sinken könnten (Fury) bzw. dürften (Fury Nano) und hoffentlich etwas großzügiger zu übertakten sein werden.
 
Zuletzt bearbeitet:
Pisaro schrieb:
Warum hat eine R9 290 eine höhere Leistungsaufnahme als eine 290X?

Chipgüte, ergo höhere Spannung und damit mehr Verlustleistung. Im Endeffekt ist der Chip somit schlechter, auch wenn er mMn der wesentlich bessere wäre. .. Abstand zur x ist einfach zu klein.

johnniedelta schrieb:
Wobei die 390X sich ja ziemlich von der 290X absetzen kann [...] Oder gibt´s für die 390X noch ein EDA?

Ohje...
1. NDA
2. Test sind schon ewig draußen
3. 290(X) und 390 (X) sind die gleichen Karten, außer von vram...
=> 290 wird mit neuem Treiber genau gleich liegen...

Krautmaster schrieb:
Bei GCN 1.2 geht nur Fury und Tonga, und da sieht es ja eigentlich noch viel besser aus.

Fury hat quasi doppelte Daten der Tonga R9 285 und bringt auch 214% Gaming Leistung, wobei die R9 285 auch 10% weniger Takt hat. Dennoch erstaunlich. So gesehen kommen fast 100% der Shaderpower auch an.

Gut, Rops/TMU/SI und das ganze Drumrum geht hier natürlich unter. Und bei GCN 1.2 gibst bisher nur 2 Karten...

Im Vergleich zur R9 285 skaliert Fiji hervorragend.

NICHT im Vergleich zu Hawaii. Hawaii hat zwar ganz andere Probleme, aber durch die schlechtere Gewichtung von front-end zu shader wurden die technischen Verbesserungen fast wieder zu Nichte gemacht. Klar, back-end ist auch nicht optimal.

Steht ja in dem Test, dass bei höherer Auflösung die shader überproportional mehr zu tun haben und daher das Verhältnis "besser" wird. Ergo: statt AA muss man downsampling betreiben. ..

e:/
Und weniger AA würde auch den Verbrauch an VRam drücken, weil Auflösung erhöhen fast nichts am bedarf ändert. Wie auch immer:
Wenn man sich alle hausgemachten Flaschenhälse ansieht, kann man auch ausrechnen, was AMD beheben wird bei GCN 2.0 (oder so) ungeachtet generellen, möglichen Verbesserungen in der Architektur.
 
Zuletzt bearbeitet:
Guter Test, ein dickes Danke von mir! Sehr ausführlich, gefällt mir wirklich außerordentlich gut!
Karte ist da wo man sie erwartet hat.
Eine 980 Ti mit 4GB, nein 4GB sind noch immer ungleich 6GB... Hat Shadow of Mordor bei der 980 Ti gestottert?
Weinger OC Potenzial, was mich sehr überrascht hat.
Dafür WaKü (subjektiv, für mich positiv)

Für 1080p sehr gut, für 1440p besser :D
 
TheBloodyNine schrieb:
Der Fiji-Chip ist bereits voll auf DX12 optimiert und wird mit den entsprechenden Treibern/Spielen unter Windows 10 alles zerstören. Oder auch nicht. Man wird sehen.

Quellen im übrigen http://stellicheinfachindenraum.de und http://mankannvielbehaupten.com. Last but not least http://manchmalhabenspinnerdochrecht.net

Stichwort: ACE, Asynchronous Compute Engine

Erstmal abwarten, was echte DX12-Programme an Leistung zeigen. Die bisherigen Draw-Call-Overhead-Benchmarks, bei denen AMD die Nvidias im Regen stehen lässt, sind nicht wirklich praxistauglich. Zumindest ist das zu bezweifeln. Außerdem hat Nvidia seit Maxwell-2 auch das Feature mit den diversen Queues und deren asynchrone Abarbeitung innerhalb des Chips.
 
an die DVI Fraktion : Kann man nicht einfach n HDMI-DVI Adapter nehmen? Der liegt doch der Karte denk ich eh bei...

Und HDMI/DVI sind doch praktisch identisch bis auf den zusätzlichen Soundkanal. Oder hab ich was verpasst?
 
Ich bin froh, dass es eine AMD Grafikkarte gibt, die leistungstechnisch wieder annähernd mit Nvidia aufschließen kann. Leider kann ich einige Aussagen hier nicht nachvollziehen.
- Die Fury ist absolut überhaupt nicht effizient. Es wird hier immer das Wort effizient in den Mund genommen, das ist totaler Bullshit. Im Mittel aller Messungen ist die Karte langsamer und hungriger als beispielsweise ein Nvidia Pedant. Darüber hinaus kommt der Karte sehr zu gute, dass eine AIO WaKü verbaut ist, ohne diese würde die "Effizienz" nochmals ne Stufe düsterer aussehen.
- 4GB vRAM sind aktuell noch genug, das wurde dank CB nachgewiesen. Jedoch bietet Nvidia dennoch mit beiden vergleichbaren Modellen 6GB vRAM. Durch Optimierungen sind die 4GB momentan noch in Ordnung, aber das wird sich garantiert in der Zukunft ändern. Die AMD-Karte kostet das selbe, als eine 980Ti und muss sich daher auch mit dieser messen. Und da steht es leider so, dass die 980Ti im Mittel leicht schneller ist, weniger Strom verbraucht und dabei 50% mehr vRAM hat. Optimierungen hin oder her, irgendwann wird der Speicher doch gebraucht und da finde ich den Preis zu hoch.

Insgesamt finde ich die Karte nicht schlecht, aber leider deutlich zu teuer für das gebotene...
 
Zurück
Oben