Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

Dittsche schrieb:
Und HDMI/DVI sind doch praktisch identisch bis auf den zusätzlichen Soundkanal. Oder hab ich was verpasst?
in wie fern identisch? monitore unterstützen die anschlüsse oft unterschiedlich
 
Jedesmal wenn "irgendwann" der RAM gebraucht wurde, war der Chip eh zu langsam, oder hat schonaml jemand seine Grafikkarten RAM aufgerüstet ?
 
flappes schrieb:
...oder hat schonaml jemand seine Grafikkarten RAM aufgerüstet ?

wie darf man das verstehen? :eek:

Edit:

Ich spiele zb W3 mit Texturen hoch statt niedrig bei spielbaren Frameraten. Es macht genaugenommen kein Unterschied ob ich Texturen auf hoch oder niedrig stelle, dank meiner 2GB VRam auf der HD6950 ^^
Ergo Chip nicht zu langsam (für Ultra klar) aber dank Texturen sieht es definitiv besser aus, deutlich besser als wie wenn ich es zwanghaft auf unter 1 Gb Pressen müsste mit ner 1Gb Karte...

Bei der VRam Diskussion vergisst man oft dass man bei nicht spielbaren Frameraten einfach den Chip entlasten kann. Es gibt genug Einstellungen dafür. Nur testet das halt keiner...
 
Zuletzt bearbeitet:
Die Nutzung des HBM Speichers ist beeindruckend!
Überhaupt nicht, in Sachen Effizienz immer noch meilenweit entfernt von einer NV Karte die vorne und hinten alles voll geklatscht hat mit dutzenden ineffizienten Vram Chips, die noch dazu ohne Wakü auskommen muss und bei 85 Grad vor sich hinkocht: http://www.techpowerup.com/reviews/AMD/R9_Fury_X/32.html

Auch der Idle Stromverbrauch schmeckt mir nicht. HBM scheint zu saufen.

Dazu nur 4GB zum Start. Bin enttäuscht.

Gut für die AMD Fraktion die wieder um jeden € feilscht, könnten die Preise interessant sein. Die AIO Wakü ist wie zu erwarten einfach genial. Das Spulenfiepen ein no-go.

Ich hoffe wirklich das es zum neuen Standard wird bei den schnellsten Karten AIO Waküs zu verbauen, die Dinger haben so enorm viel Power, die Lautstärke und die Temps sind einfach ein Traum.

Habs mir schon gedacht, Big Maxwell schafft mal wieder das eigentlich unmögliche. Als schnellster Chip überhaupt quasi die Effizienz Krone inne, da können nicht mal die kleinen Chips mithalten. Theoretisch unmöglich, aber irgend wie schaffen die es wieder. Wahnsinns Chip. So sehen perfekte Architekturen aus. Ein würdiger G80 Nachfolger.
 
Zuletzt bearbeitet:
hitman66 schrieb:
Also mal ehrlich Leute. Die Karte ist wirklich toll, aber was sind das für Preise ?

ÜBER 600 Euro für eine Grafikkarte. Als ich mir damals die Hd 6970 geholt habe war die Neu für 280. Auch meine Gtx 680 hatte ich damals zu beginn für cirka 350 bekommen. Vor 3 Jahren war das die Spitzenmodelle (Glaube waren 3 Jahre :D).
Nichts rechtfertigt den Preis von über 600 Euro für die AMD noch für die NVIDIA, meiner Meinung nach, da die Grafikkarten sowieso zu lahm für 4k sind.


Tja, allerspätestens seit die Titan raus ist und die Grafikkartenhersteller bemerkt haben, dass man probemlos horrende Preise verlangen kann, ist das einfach so. Sind die Leute selber schuld dran.
Ich erinner mich noch an die HD 5870. Technologievorreiter und mehr oder weniger Wunderkarte, mit großem Abstand schnellste Karte auf dem Markt für 340€. Und was bekommt man heute? Man muss 300€ mehr zahlen, bekommt einen VRAM-Krüppel der notgedrungen auf eine Wasserkühlung zurückgreifen muss, weil dank horrendem Verbrauch wohl die Temperaturen durch die Decke gehen würden.

Aber gut, das ist die Vergangenheit....
 
flappes schrieb:
Jedesmal wenn "irgendwann" der RAM gebraucht wurde, war der Chip eh zu langsam

Eh, ernsthaft? HD 4870 512MB war unterdimensioniert und ist extrem eingebrochen, die 9800GTX 512MB (v.a. 9800GX2!), ggf die GTX 770 usw.
Bei der HD4850 512MB würd ich mal nicht unbedingt davon ausgehen, aber sehr knapp... Ach, die HD 3850 256MB war auch so ein Kandidat.
 
bei dem DVI Thema waren es glaub nur DIV D oder diese 144hz User...

@Kreisverkehr

sign, genau genommen musste ich jedes mal GPU aufrüsten wenn der zukleine Ram die Karte unbrauchbar gemacht hat. Und aus dem 2 Jahres Rythmus wurden dank den 2GB der HD69XX (damals mega üppig) nun über 4 Jahre...
 
Wenn ich mal was fragen darf, wie fuktioniert das mit er speicherbelegung bei HBM? Funktioniert das Chip intern oder Optimiert AMD das momentan für jedes spiel per treiber damit die 4gb hbm ja nicht zum flaschenhals werden?
 
tic-tac-toe-x-o schrieb:

Nur zu, Mod-Bios, Lüfterkastration raus, Throttle bei 100°C einstellen. :D :D

Grievous911 schrieb:

Wäre schön, wenn die 2. Fury noch schneller als Fury 1, TI und X ist, damit die Nvidias weiter im Preis fallen und dann schnell Pascal kommt. Dann gibt es mit dem kleinen GP204 schon gute Mehrleistung. Muss dann nur der TI widerstehen. :D
 
Dittsche schrieb:
an die DVI Fraktion : Kann man nicht einfach n HDMI-DVI Adapter nehmen?

Das Problem sind Monitore mit 144Hz. Die erste Generation hatte nur DVI. Displayport kam im Grunde genommen erst so richtig mit den Gsync-Monitoren. Es scheint, dass der Adapterkram nicht immer so funktioniert, wie er soll.
 
Zuletzt bearbeitet:
@Precide, du bist der nächste der sich einen Käse über den Grund für die Verwendung einer Wasserkühlung der Fury aus der Nase zieht und das ins Forum kotzt... langsam wird es nur noch öde... :freak:

@Thema:
Sobald die Partnerkarten der Fury-Varianten und der 980 TI erscheinen, ist das Thema 28nm wohl abgeschlossen. Aus diesen werde ich eine Variante wählen, wahrscheinlich die Nano, und dann auf 14/16nm schauen und von dieser wahrscheinlich die 2.Generation (ausgereifter in Architektur und Produktion) wählen. :)
 
noch wird da nicht allzuviel "Optimierung" nötig sein. Würde ich annehmen. Wenn nun aber Fury X 8 GB kommen sollte oder die nächsten Mainstream Chips ist die Fury 4GB halt irgendwie recht schnell nicht mehr das Maß mit dem gemessen wird. Nvidias nächsten Mittelklasse Chips aka 970 Nachfolger werden dann 8GB haben, oder min 6GB. Bei AMD ja mit der 390 schon heute...

Vielleicht bringt NV jetzt ja auf die R9 390 /390X noch 8 Gb Versionen der 970 /980...

Wenn die Anzahl der >4 GB Karten zunimmt (gerade jetzt der Fall) dann gehen die Engines wie in der Vergangenheit auch... mit den Texturen hoch. Kann sich noch gut Jahre hinziehen absolut. Aber es wird einem wohl auch keiner ausschließen können, dass in 3 Jahren selbst ein niedrigeres Setting einfach an den 4GB scheitert obwohl die Rohleistung mehr als ausrechen würde. Und keiner kann mir sagen dass bessere Texturen nichts mehr bringen würden. Selbst bei FHD würde man da optisch noch Verbesserungen erzielen, bei 4k sowieso.

Ich schraube lieber die Regler für Effekte runter und lass die Details oben... und das geht nur mit genug Vram. Selbst ne 980 TI is meines Erachtens nicht üppig bestückt. Die 390X is da genau richtig. Gut möglich dass die der Fury X 4Gb noch irgendwann den Rang abläuft.
 
Zuletzt bearbeitet:
dcdead schrieb:
Overclocker's dream und dann macht die bei +65 MHz schlapp? Guter Witz. Schade, aber so bleibt die 980 ti
Selbst wenn es 200 - 300Mhz wären, was würde das bringen um auf die Fury umzusteigen? Zu viel Geld? Ich kann dir gerne meine Kontonummer nennen.
 
@CB
Vielen Dank für den sehr umfangreichen Test.

Zur Karte:
Was soll ich sagen ? AMD hat da eine sehr schöne Karte aus dem Hut gezaubert. Leistungstechnisch nehmen sich weder die Fury X noch die Titan X/ 980ti was.
Ich habe mich trotzdem für die 980 ti entschieden, weil sie minimal mehr FPS ausgibt und mehr VRAM hat.
 
Zuletzt bearbeitet:
Schöne Grafikkarte bin sehr erstaunt, dachte erst das es ein neuer Stromvernichter wird aber sogar etwas weniger als der Vorgänger bei viel mehr an Leistung.
Das die karte mal so klein ist finde ich sehr gut, auch wenn man den Kühler jetzt so dazu extra hat, der Preis scheint auch relativ fair zu sein auch wenn er für mich jenseits von Gut und Böse ist für eine Karte.
 
Eines fällt mir bei der ganzen Diskussion um die Effizienz doch immer wieder belustigend ins Auge.
Hat irgend jemand der Anwesenden die Testergebnisse auch mal WIRKLICH angesehen?
Mir fallen vor allem immer wieder 2 Sätze auf.
1. Die 980Ti benötigt weniger Strom.
2. Die OC Modelle sind noch schneller.

Und nun kommen wir zu dem Punkt ob sich jemand die Testergebnisse auch mal WIRKLICH angesehen hat.
Wem ist aufgefallen dass das OC Modell der 980Ti im Stromverbrauchstest sogar 5W mehr als das Pressesample der Fury X gefressen hat und das auch noch bei einem Spiel (Ryse: Son of Rome) wo die Fury X vor allem bei den hohen Einstellungen auch noch schneller war?

Wie definiert man nochmal die Effizienz?
 
Wolfsrabe schrieb:
@Precide, du bist der nächste der sich einen Käse über den Grund für die Verwendung einer Wasserkühlung der Fury aus der Nase zieht und das ins Forum kotzt... langsam wird es nur noch öde... :freak:


Sehen wir dann wenn die Fury erschienen ist, ob das so ein Käse ist :)
 
Zurück
Oben