Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

hrafnagaldr schrieb:
Für mich ja, wenn durch den HDMI 2.0 ein DP verloren geht.

geht dir aber nicht. Die GTX 980 TI hat auch 3x DP + HDMI 2,0 + DP oder gar Dual DP zum Teil. Aber das nur am Rande.
 
joa und 4K X265 Decode bringt mir ja auch viel wenn ich max 30p ausgeben kann gell deine Argumentation is genauso löchrig
Wieso denn nicht das meiste material ist doch ohnehin in 24p. Ich gebe zu das fehlen von HDMI 2.0 stört mich allerdings auch etwas ( ja ich hab nen 4k TV) es sollen aber allem Anschein nach Adapter kommen. Aber ohne HDCP 2.2 das auch der 980 fehlt ist da ja sowieso erst mal nichts mit legalen quellen.
 
Zuletzt bearbeitet:
hrafnagaldr schrieb:
Ähm, warum hast Du dann überhaupt gewartet? Dass die Fury X ne Wakü hat war schon ewig bekannt :rolleyes:

Außerdem muss es grad nen Megaumsatz bei 4k-Fernsehern geben im Zockerbereich, muss da morgen mal vorm Mediamarkt lauern.

ich hätt die wakü und die 4gb in kauf genommen aber nicht zu der Performance die die furyX nun abliefert. hoffe es war nun verständlich für dich?

k.a. schau mal vorbei beim mediamarkt. ich hab meinen ausm interdiscount und im game-Modus lässt sich wohl sehr gut drauf zocken! :rolleyes:
 
Im großen und ganzen hat AMD gleichgezogen. Wie vorab schon einmal gepostet muss nun - eigentlich wie immer - jeder für sich entscheiden, welche Features für einen selbst wichtig sind (die zähl ich jetz nimmer auf). Die Preise nehmen sich ja nun wirklich nicht mehr viel. Beim Preis/Leistungsvergleich ist die Einbeziehung der Customs durchaus gerechtfertigt, da es die Fury X nicht als Custom gibt. Auch gehe ich davon aus, dass die Fury X aufgrund der aktuellen Knappheit noch einige Zeit ihr Preisniveau halten wird. Ob Nvidias 980TI Preis wieder steigt, kann ich nicht beurteilen, jedoch möglich.

AMD muss sich allerdings die Kritik gefallen lassen, mit Dingen geworben zu haben, die so absolut nicht zutreffen; von "Overclockers Dream" ist man meilenweit entfernt. Unabhängig davon, ob man OC betreibt oder nicht; man wurde ja nicht müde, dies in der PC Gamer Pressekonferenz gebetsmühlenartig zu wiederholen. Könnte natürlich sein, dass AMD die Taktraten erst zum Schluss an die 980TI angeglichen hat und damit das eigentlich vorhandene OC-Potential schrumpfte; sprich ein wenig OC ist in alle Karten vom Stand weg geflossen (was für den geneigten Standardkäufer wieder von Vorteil wäre).
Die 4GB schlagen sich indes wacker, hätt ich so gar net erwartet. Allerdings vermute ich, dass das mehr an Treiberoptimierungen liegt (ähnlich bei Nvidia mit der 970er Allokation) und weniger an HBM. Egal wie, der Kunde profitiert Stand heute. Leider dürften uns auch weiterhin so Perlen wie Batman über den Weg rollen und Witcher 3 Niveau die Ausnahme bleiben. Düster düster...

Hinzu kommt die Komplexität des HBM Aufbaus, der einen Kühlertausch weg von dieser in den Tests allesamt fiepende Wasserpumpe (mag im Verkauf dann abgeschwächt sein) nicht erlaubt. Jedweder Handgriff lässt Garantie und Gewährleistung in Rauch aufgehen und ich bezweifle, dass der Händler/Hersteller hier nachsichtig ist. Daher gibt für mich persönlich die Fury keinen Platzvorteil; man spart sich zwar die Breite am PCIe Slot mit den nur 19cm, muss aber den Radi irgendwo unterbringen. Bei Standard-ATX hab ich aber eh die 33cm Breite zur Verfügung, doch auch das ist natürlich situativ bei jedem verschieden.
 
Hm... ich bin insgesamt auch etwas enttäuscht. bei ~1000 Stream Prozessoren mehr trotzdem "nur" die gleiche Leistung bei gleichem Preis wie eine 980Ti. Da bekomme ich allerdings noch Gameworks/PhysX dazu, was ebenfalls viele Spiele nutzen sowie minimal besseres G-Sync, was die Low-FPS betrifft. Die AMD-Features wie Sound werden ja doch recht wenig unterstützt.

Insgesamt hätte ich dann doch eine Preisschlacht erwartet, aber auch hier ist der Preis ja "noch" identisch. Sei es drum, insgesamt ja eine solide Karte und mischt oben gleichauf mit, das man wenigstens überhaupt mal wieder eine Wahl zwischen zwei Unternehmen hat und Konkurrenz das Geschäft belebt.
 
Breaker10 schrieb:
Mir ist der Strombedarf bei Last zu hoch, gerade im Bezug auf meine GTX980. Sollte AMD irgendwann dies mal wieder in den Griff bekommen, dann wechsel ich gerne wieder zu AMD, bis dahin bleibt bei mir nur der HTPC von AMD.

Sind >190W für ne GTX980 OK aber 220W für eine deutlich schnellere Fury X zu viel?
 
BOBderBAGGER schrieb:
Wieso denn nicht das meiste material ist doch ohnehin in 24p. Ich gebe zu das fehlen von HDMI 2.0 stört mich allerdings auch etwas ( ja ich hab nen 4k TV)

geb ich dir recht. Ging nur um den HEVC decode den er angesprochen hat. Wer das wirklich 100% braucht an einem 4k TV braucht Stand heute ne GTX 960.
Ergänzung ()

zeedy schrieb:
Sind >190W für ne GTX980 OK aber 220W für eine deutlich schnellere Fury X zu viel?

wir reden schon über die Werte bei CB oder?
https://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/10/

^^

nicht dass mich Stromverbrauch @ Load interessieren würde... dennoch frag ich mich was hier den Unterschied ausmacht. Beim Gesamtsystem sind es gut 70W von der GTX 980 OC Modell und gut 40W von der TI. Schon komisch wieso das AMD derart hohen Lastverbrauch zeigt.

Siehe auch http://www.guru3d.com/articles_pages/amd_radeon_r9_fury_x_review,10.html
 
Zuletzt bearbeitet:
Natürlich. Das sind 30 Watt mehr. Unter last. Ok ich will fair sein. Ich hab auch eine neue cpu, die 30 Watt weniger schluckt. Aber a) im Idle und b) sind die Spiele jetzt im schnitt 20 % schneller.
 
Zuletzt bearbeitet:
hrafnagaldr schrieb:
Ähm ich gehe von mir aus. Meine Blurays laufen mit 60fps, über DP 1.2, auf einem 60HZ Display

genehmigt. Da spielt es eine Rolle :) Aber die meisten dürften ihre BDs wohle her am 4K TV als am 4K PC Monitor anschauen... würde ich mal meinen.
 
Sapphire Radeon R9 Fury X, 4GB HBM, HDMI, 3x DisplayPort, full retail (21246-00-40G) ab €692,--

preis-fall hat schon begonnen
 
Krautmaster schrieb:
genehmigt. Da spielt es eine Rolle :) Aber die meisten dürften ihre BDs wohle her am 4K TV als am 4K PC Monitor anschauen... würde ich mal meinen.

Warum sollten die TV Nutzer dann einen PC anstatt eines Blu-Ray Players nutzen?
 
hrafnagaldr schrieb:
Die 50 Watt macht Sie dafür im Idle mit drei Displays locker wieder wett, dazu kann ich die alle nativ mit Displayport ansteuern. Naja, jeder hat andere Vorlieben. Übertaktet hab ich schon ewig nix mehr, dafür schau ich relativ viele Blurays.

Schlechtes Argument. Wer hauptsächlich Filme guckt oder Officeanwendungen betreibt, braucht keine Grafikkarte, die fast 700€ kostet.
 
Krautmaster schrieb:
Aber die meisten dürften ihre BDs wohle her am 4K TV als am 4K PC Monitor anschauen... würde ich mal meinen.

Mit Sicherheit. Ich hab mir extra dafür Power DVD 14 gekauft.

addicT* schrieb:
Schlechtes Argument. Wer hauptsächlich Filme guckt oder Officeanwendungen betreibt, braucht keine Grafikkarte, die fast 700€ kostet.

Ich kanns noch ein paar mal wiederholen, für mich ist das interessant. Wenn ich von zuhause die Server unserer Kunden administriere, nehm ich dafür auch nicht mein Geschäftsnotebook her. Bei mir wird an der Kiste ebensoviel gearbeitet wie gespielt.

Quasi eine super Karte für den Zocker, der nebenbei noch als Admin arbeitet...
Aber dann stehen bei mir bei Witcher 3 auch schon 105 Stunden...

Bei mir macht ein PC genau das, war er kann: nämlich alles. :D
Genauso vielseitig muss dann auch eine Grafikkarte sein.
 
Zuletzt bearbeitet:
Für mich ist von allen AMD-Neuvorstellungen der letzten Tage die R9 390 noch das überzeugendste Angebot: Preis + Leistung wie bei der GTX 970, mehr Stromverbrauch, dafür aber 8 GB RAM, und vl. (hoffentlich!) geringere Fiepneigung. Die R9 390 X ist auch noch ein fairer Deal, zwar etwas langsamer als die GTX 980, aber auch preiswerter und ebenfalls mit 8 GB.

In der 700 €-Klasse tut sich die Fury X aber m.E. schwer, wenn ich sie etwa mit der nur 10 (!) € teureren Gigabyte GTX 980 TI G1 vergleiche: Mit ihrem Boosttakt von stolzen 1291 MHz (Werksangabe, de facto wohl eher noch höher) dürfte sie die Fury X bei den meisten Spielen schlagen, selbst in höheren Auflösungen, und gleichzeztig sparsamer sein. Gut, es gibt Lüfterrauschen, aber das ist subjektiv für die Meisten angenehmer als das leise, aber unangenehm hohe surren, was allerdings typisch für die kleinen, hoch drehenden und nicht entkoppelten AiO-Pumpen ist. Zudem ist die GTX 980 auch flexibler einsetzbar (was machen User, die nur einen Lüfterplatz verfügbar haben und bereits eine AiO für die CPU im Einsatz haben?).

Mit 6 GB kann man die GTX 980 Ti auch nicht gerade als "VRAM-Krüppel" bezeichnen.

Hinzu kommt: Wer 700 € nur für eine GraKa löhnt - viele andere kaufen sich dafür einen ganzen PC :D -, betreibt wohl nicht selten eine Custom-WaKü: Eine GTX 980 Ti lässt sich problemlos in den Kühlkreislauf integrieren, die Fury X dagegen nicht, alternative Kühler sind da ja offenbar nicht möglich. M.E. ein nicht zu unterschätzender Wettbewerbsnachteil (es sei denn, es kommen doch noch Custom-Wasserkühler für die Fury X wie in #552 gepostet. Dann wäre dieses Contra-Argument natürlich hinfällig.)

Loben muss man AMD dagegen für den innovativen HBM-Einsatz. Mal abwarten, vielleicht können Fury Pro und Nano ja unter'm Strich mehr überzeugen...

LG N.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Warum sollten die TV Nutzer dann einen PC anstatt eines Blu-Ray Players nutzen?

Wieso soll ich mir ne zweite Komponente hinstellen? Klar, wer viel BDs schaut wird da wohl kaum umherkommen nen BD Player zu kaufen. Ich für meinen Teil leg eh alles an Bildmaterial aufs NAS und nutze meinen HTPC. Auch den könnte ich ablösen indem ich zb vom PC auf Bildschirm 2 (HDMI) dann Kodi laufen lasse, beispielsweise, und da mein Live TV (vom TV Server) und die Filmesammlung abspiele. LiveTV sendet ja zB auch in 50hz und dann wird idR der Ausgang direkt automatisch auf 50p umgeschaltet... bei HDMI 1.4 müsste man die ganze Ausgabe auch noch in Auflösung umschalten. Aber naja. Speziell bleibt es in jedem Fall, Filmewiedergabe in 4K und bis 60p is nicht die Regel. Auch hier gilt halt, was man hat das hat man, Fehler kann es keiner sein.
 
Ansonsten bin ich hier mal raus. Habe kurz nach der Mittagspause noch ganz vorne nen Kommentar verfasst, zum Feierabend dann durfte ich mich durch 500 teils total blöde Kommentare wühlen. Das pack ich in meinem Alter nicht mehr :D
 
Oh Gott AMD.

Nvidia hat mit der 980 Ti eine Karte mit mehr VRAM, ja er ist langsamer als HBM aber was bringt das bei Spielen?nix, die schneller ist und dazu noch gleich teuer.

Was ist passiert? Ich hätte nie erwartet dass Nvidia eine High end grafikkarte stellt die ein besseres P/L verhältnis hat als AMD.
 
Manche hier sind noch im Stadium des Kindergartens hängengeblieben echt :D. Kauft doch was ihr wollt. Lasst den anderen doch ihre Freude meine Güte.

Ich für meinen Teil bin sehr scharf auf die Fury X2.
 
Zurück
Oben