Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

max_1234 schrieb:
Die Customs sind lauter und ab 2/4k ist die FuryX trotzdem schneller.
Wie immer - bitte hör auf mit deinen "Tatsachenbeschreibungen" oder begründe sie zumindest so detailliert, dass Sie nachweislich der Wahrheit entsprechen.

ähm was? Zeig du doch erstmal Benchmarks auf wo in 2k / 4k die Fury X schneller als die Custom 980 TI sind... bevor du mir schonwieder irgendwas anhängst und selbst vollkommen quellenlos argumentierst.

Siehe Lautstärke:

Desktop:
Fury X Retail -> 32db
Custom GTX 980 TI 3 Modelle ->27,5db

Last:
Fury X Retail -> 36db
Custom GTX 980 TI Inno -> 34,5 db
Custom GTX 980 TI EVGA SC -> 41 db
(alle drei sind da leise...)

Die Inno ist dabei 16% schneller als eine Referenz GTX 980 TI, die EVGA ist 12%.

https://www.computerbase.de/2015-06/geforce-gtx-980-ti-custom-test-partnerkarten-vergleich/4/

Und jetzt zeig du mir wo die Fury X schneller in 2k und 4k ist - also mindestens 12%. Danke ;)

Wie weit man die FuryX wirklich übertakten kann sehen wir wenn AfterBurner diese unterstützt oder es eigens dafür ausgelegte Bios Mods gibt ;)
Potential hat die Karte in der Hinsicht mehr als die 980ti, da kühler.

richtig. Das bleibt spannend. Das OC im CCC scheint bisher aber ultra schlecht zu skalieren. Da müsste die Fury X schon gegen 1300 mhz gehen um mit den standard Customs der 980 TI gleichzuziehen. Und ob sie das auch mit mehr Spannung schafft wird sich zeigen.
Bisher verhält sie sich da total komisch, Spannung hin oder her.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Dabei skaliert die Karte sehr gut. Einmal 23%, einmal 20%, einmal 21% und damit exakt linear wie es auch zu erwarten ist.

Dann gib der Fury X mal 20-30% mehr Takt, dann sehen wir, wie die skaliert. Mit diesen 7% vs. 4% sind keine aussagekräftigen Ergebnisse zu erwarten.

Ich glaube, dass die bei PCGH schon die real anliegenden Taktraten angeben. Bei manchen Spielen hast du ja durchaus 7% fps Steigerung und damit wunderbare Skalierung, woanders aber nur 3%, und nu? Egal ob die den Basis- oder Turbotakt angeben, das kann man drehen wie man will. 1stelliger % Bereich kannst du notfalls auch unter Messtoleranz verbuchen.
 
@BOBderBAGGER

Bei CB sollte es dasselbe Case sein. Da dürfte die Art der Lasterzeugung viel wichtiger sein. Wie testet da Hardware Luxx? InGame oder so Furmark Scherze?

Außerdem geben sich dennoch beide Werte kaum was. Defakto sind beide Karten leise.

@ToniMacaroni

wie gesagt das ist offen. Fakt ist, zahlreichen Seiten kommt die bisherige OC Skalierung unterirdisch und spanisch vor. Ist sie bisher auch. Vielleicht passt da auch einfach etwas nicht
 
Was mich hier ziemlich nervt, ist der Umstand, dass hier von vielen Usern andauernd Äpfel mit Birnen verglichen werden: "Ja , aber, aber, aber, ... die ... die äähhmmm .... ja ... 980Ti .... äääähhhh .... (*meistens langsamer als Fury X* *wie komm ich da wieder raus, damit nVidia besser da steht*) .... ähhh ... ES GIBT JA NOCH DIE OC-VARIANTEN, DIE SIND VIEL SCHNELLER, ALSO IST AMD UND DIE FURY X SCHEIßE!!".

Leute, mal eine Analogie: Nehmt euch auf der einen Seite einen BMW und auf der anderen Seite eine C-Klasse oder A4. Ihr müsst schon die Standard-Varianten miteinander vergleichen, ihr könnt doch nicht einen Stock-3er mit einem AMG63 oder (R)S4 vergleichen, klar hat da der BMW keine Chance...

Die Standard-Karte ist offiziell erst seit 2 Tagen draußen, und das Gerücht, dass AMD keine Custom-Varianten der FuryX ermöglichen wird, ist schlichtweg falsch, es gibt schon einige Seiten mit Hinweisen bzw. Tests mit alternativen Kühllösungen für die Fury X, siehe z.B. hier:

https://www.computerbase.de/2015-06...ersten-kuehleralternativen-setzen-auf-wasser/

Zum anderen mal zum Mythos der vermeintlich besseren Treiber von nVidia. Schaut euch mal an, wie das Verhältnis der Anzahl der Posts in beiden Hausforen sind:

https://forums.geforce.com/default/board/33/geforce-drivers/1/ (mann muss hier 7!!!! Seiten zurück gehen, um Posts zu erhalten, die älter als 2!!!!! Tage als sind...)

https://forums.geforce.com/default/...y-driver-feedback-thread-released-5-31-15-/1/

https://forums.geforce.com/default/...-driver-feedback-thread-released-2015-06-22-/

https://community.amd.com/community/support-forums/amd-catalyst-drivers-software

Ein Hersteller bietet ein Produkt mit bestimmten festgelegten (unveränderbaren) Eigenschaften (Takt/Spannungen/etc.) an. Diese sind in der Vergangenheit immer schon fix gewesen und stellen den eigentlichen Normalfall dar (um damals einen 2/3/486er zu übertakten, musste man noch einen Oszi auf dem Board tauschen!!). Will man schnellere Varianten, muss(te) man eben tiefer in die Tasche greifen, ganz normal. Heute jedoch will der 08/15-User eine Karte für 300€, welche mindestens soweit übertaktbar sein MUSS, damit man sich die 200€ für die Stock-Karte entsprechender OC-Leistung sparen kann. Der Umstand, Leistung "für lau" zu bekommen ist in meinen Augen ein schönes "nice-to-have", aber keinesfalls ein "must-have". Leider haben sich die User über die Jahre schon so weit konditionieren lassen, dass OC praktisch PFLICHT sein muss, ansonsten taugt das Produkt nichts. Kommt mal runter von dem Film. "Ich will alles, am besten sofort und kosten darf es natürlich auch nichts!!"-Film...

Erste Tests bescheinigen der Fury X eine schlechte Übertaktbarkeit. Dies ist nur die halbe Wahrheit. Pro % erhöhtem Takt skaliert die Fury X in genau demselben Maße, wie eine 980Ti oder Titan X, hinsichtlich der fps-Steigerung in %. Außerdem wartet doch einfach mal ab, bis die Ausbeute der Chips, welche stabil mit höherem VCORE laufen erhältlich sind, das BIOS mach da nämlich von Karte zu Karte einen Unterschied, je nach Stabilitäts-Spielraum, aber Geduld ist eine Tugend, welche den meisten ROXOR-Konsum-Kiddies völlig abgeht...
 
@Schnixus

wieso Äpfel & Birnen? Muss man jetzt Fury X vs GTX 980 TI Refrenz vergleichen nur weil es das Wort "Refrenz" gibt? Muss ich nun auch mit ner R9 390X Referenz vergleichen nur weil es die gibt?

Von Treibern, Vram usw war eben gar keine Rede. Treiber seh ich zb keinen großen Unterschied, bzw kann es nach 6 Jahren AMD GPUs auch gar nicht beurteilen.
 
Sinnfrei schrieb:
Ist das so schwer zu verstehen, dass die Tools derzeit einfach nicht in der Lage sind die Spannung zu erhöhen, weil die mit dem Chip noch nicht klar kommen? Gebt den Entwicklern vom MSI-Afterburner (oder was auch immer) halt mal ein paar Tage Zeit die Unterstürzung für Fiji einzubauen. Das ging bei neuen NVidia-Karten auch nicht immer von Anfang an.

Was hast du denn fürn Problem?? Also neben dem Leseproblem?
 
BOBderBAGGER schrieb:
Die Messungen stammen doch aus unterschiedlichen Systemen bzw. Gehäusen.

Hier im vergleich mit der inno ichil
http://www.hardwareluxx.de/index.ph...798-amd-radeon-r9-fury-x-im-test.html?start=7

Unter last ist sie sicher leiser, wobei die dB(A) - Messungen nicht berücksichtigen, dass hochfrequente Töne (wie beispielsweise Spulenfiepen oder das Fiepen einer Pumpe) vom menschlichen Ohr als wesentlich lauter wahrgenommen werden können, als es der reine dB(A)-Wert anzeigt.

Mir persönlich ist es am wichtigsten, beim arbeiten, also unter Officeanwendungen auf dem Desktop, nichts zu hören - und da ist die 980 Ti leider vorne :(
 
Wichtig dabei ist auch wie die Last erzeugt wird, find ich. Das sollten die Jungs bei Lux angeben. Unabh. davon sind viele der Custom Karten so leise dass es beim Gaming 0 Unterschied machen dürfte oder zockt hier jeder ohne Ton?

edit. aber ja, die Referenz 980 TI ist klar lauter unter Last. Keine Frage.
 
EadZ1 schrieb:
Ich muss ehrlicherweise zugeben, dass ich das Fiepen als kaum hörbar einschätze. Ob das jetzt tatsächlich an dem Pressemuster liegt oder auch daran, dass meine Gehäuselüfter wohl lauter sind, kann ich nicht genau sagen. Rein subjektiv kann ich aber sagen: Das Fiepen ist nicht störend.

Wow.... hast du echt einen Phenom II mit der Fury X kombiniert? :eek:
Solange DX12 nicht weit verbreitet ist, würde ich einer solchen Grafikkarte nur einen möglichst aktuellen i7 zur Seite stellen.
Fury X: 2015 High End
Phenom II X4: 2009 gute CPU, heute völlig veraltet.
 
Bei CB sollte es dasselbe Case sein. Da dürfte die Art der Lasterzeugung viel wichtiger sein
Ich bin mir nicht 100% sicher meine aber das weder das R4 noch das CM690III im normalen Testsystem benutzt werden es wäre hilfreich wenn das verwendete System incl. Gehäuse irgendwo im Test aufgeführt würde.
Wie die im Luxx Last generieren kann ich dir leider nicht sagen aber spielt mMn. kaum eine Rolle solange das immer einheitlich geschieht.

wobei die dB(A) - Messungen nicht berücksichtigen, dass hochfrequente Tönevom menschlichen Ohr als wesentlich lauter wahrgenommen werden können
dB(A) ist eine bewertete Größe und Berücksichtigt die Hörschwellen des menschlichen Ohrs
 
Zuletzt bearbeitet:
Krautmaster schrieb:
was soll daran spekulativ sein? Schlechter werden die 6Gb keinesfalls sein, siehste ja auch jetzt schon wenn 4 GB eng werden. HBM allein taugt eigentlich über die Bandbreite was und die limitiert bei der GTX 980 TI sowenig wie bei der Fury X.
Da trägt auch die gute Kompression einiges bei.

Wenn die Zeitungen alle zu völlig verschiedenen Ergebnissen kommen, ob 4GB HBM nun ausreichend sind oder nicht, glaube ich nicht, dass Du das beurteilen kannst. Dazu warte ich dann doch eher auf Erfahrungen von den Usern und was sich ggf. noch bei den Treibern tut.
Das einzig halbwegs sichere ist, das eben nichts sicher ist. :-D Aber ich verstehe Dich insofern, dass man bei 6GB GDDR5 zumindest sicher mal ein Jahr Ruhe hat wenn man es nicht völlig übertreibt.
Alternativ gibt es ja ab Herbst dann evtl. auch die 8GB Variante der Fury, falls sich rausstellen sollte, es reicht doch nicht.

Aber Stand jetzt ist mir alles noch zu spekulativ und schließlich ist Sommer - da kann ich anderen Hobbies fröhnen...
 
Krautmaster schrieb:
@Schnixus

wieso Äpfel & Birnen? Muss man jetzt Fury X vs GTX 980 TI Refrenz vergleichen nur weil es das Wort "Refrenz" gibt? Muss ich nun auch mit ner R9 390X Referenz vergleichen nur weil es die gibt?

Von Treibern, Vram usw war eben gar keine Rede. Treiber seh ich zb keinen großen Unterschied, bzw kann es nach 6 Jahren AMD GPUs auch gar nicht beurteilen.

Ganz einfache Antwort. Ja, muss man...

Die Treiber-Geschichte habe ich nochmals aufgegriffen, da es im Jahr 2015 anscheinend immer noch Leute zu geben scheint, die dieses Märchen von besseren nVidia-Treibern erzählen und glauben...

Nochmal: Ich bin KEIN AMD/nVidia/intel/BMW/AUDI/MB/*beliebiges Unternehmen einsetzbar*-Fanboy, mich stört nur das regelmäßige Aussetzen von Verstand, Vernunft und Gewissen bei vielen Usern hier, allerdings spiegelt das auch ganz gut eines der Hauptprobleme unserer heutigen Gesellschaft wider...

P.S.: An welcher Stelle habe ich von VRAM gesprochen?!
 
Zuletzt bearbeitet:
SimsP schrieb:
Fullquote entfernt.

Auch wenn sich das jetzt hier etwas offtopic entwickelt. Die geposteten Arbeiten sind publizierte Promotionen - also bestanden. Ob dieses Gute oder schlechte Arbeiten sind kann ich nicht bewerten. Bestanden bedeutet dass Sie wissenschaftlichen Arbeitsmethoden entsprechen und etwas signifikant neues für den Forschungsstand erzeugt wurde. Der DAC den ich dir zeigte ist mehr Digitaltechnik als das RAW Signal über USB an IC's vorbei zum eigentlichen DAC. Die Kommunikation ist hier basierend auf einem alten I2C Bus den es seit den 90er gibt. Also ähnlich wie bei deinem FPGA "easy to use" da man selbst keine Logikschaltungen als Halbleiter entwickeln. Abgesehn davon bei einem DAC ist die Analoge nachschalttechnik das einfachste. Operationsverstärker als Impedanzwandler um ein genügend starkes Signal für den angeschlossenen Vorverstärker zu erzeugen.

Um den Bogen wieder auf AMD zu machen. FPGA noch I2C IC's sind vergleichbar mit der Arbeit die an einem GPU Speicherinterface das in "fester nicht programierbarer" Form auf den Die hergestellt werden muss. Also zusammenstöpseln ist das nicht. Nebenbei ist auch jedes Digitalsignal erstmal Analog. Für die Logikschaltungen sind Pegel und oder Flankensteilheit wichtig. Ab gewissen Frequenzen muss man das Signal sogar stärker Analog betrachten weil Leiterbahn- Form und Abstände sich zu passiven Bauteilen entwickeln sogenannte parasitäre Kapazitäten und Induktivitäten. Da is dein 500Mhz Rechtecksignal schnell nur noch ein Rauschen. (dreh mal nen RAMRiegel um- hast du dich schon mal gefragt warum da fast nur noch Schlangenlinien drauf sind ?). Auch bei Siliziumhalbleiter hast du die Probleme. Man muss das mit dem Halbleiterhersteller gemeinsam entwickeln weil Fertigung <-> Schaltung hier Hand in Hand gehen und das ganze ein itterativer Prozess ist. Über das muss man sich bei 5Mhz nur bedingt Gedanken machen und FPGA's, DAC's oder irgendwelche Atmels haben die kritischen Schaltungen schon integriert.

GPUs egal ob Nvidia oder AMD sind keine FPGA's. Das was du mit FPGA über Logikausdrücke einprogrammierst musst du per Hand als Schaltung entwickeln. Dadurch kannst du aber eine höhere Performance erzielen die man niemals mit einem FPGA erreichen wird.

Ob jetzt ein schneller RISC oder ein hochcomplexer CISC die schwierigere Mikroprozessorentwicklung hat lässt sich sicherlich nicht so schnell nicht sagen. Fest steht aber ein Speicherinterface von 512Bit auf 4096Bit aufzubohren in einem Entwicklungsschritt ist eine beachtliche Leistung. Wenn es so einfach wäre hätten wir nicht ewig gebraucht um auf 512Bit zu kommen. Zumal gerade Nvidia zeigt dass Sie es nicht mal auf 512Bit schaffen und dazu sogar Probleme haben 4Gb in der 970 voll mit gleicher Bandbreite anzusteuern. Sondern das muss auf 3,5 +0,5 aufgesplittet werden und dann hat man nicht mal mehr als 224Bit + 32Bit möglich. Quelle Wikipedia https://de.wikipedia.org/wiki/Nvidia-Geforce-900-Serie. Also auch das so gelobte Nvidia unternehmen hat das nicht erreicht.
 
Zuletzt bearbeitet von einem Moderator:
und wieso muss man? ;)

Es geht den meisten doch um schlichtes P/L. Vollkommen egal ob das ne Custom oder ne Referenz Karte ist.

Ich für meinen Teil fände Vergleiche zwischen Referenz GTX 970 und Referenz R9 290/290X zb unpassend da es von beiden deutlich leisere Customs gibt.

@Lobos84

CB hat das ja gut evaluiert. Die 4 Gb limitieren heute in den seltensten Fällen, bei anderen Reviews kommt man weitestgehend auf selbes Ergebnis. CB schreibt aber auch, vollkommen richtig, dass das nur fürs hier und jetzt gilt. Wie sich das mit dem VRam Bedarf entwickelt ist, wie du korrekt sagst, reine Spekulation und schwer abschätzbar. Die Speichertechnologie selbst spielt dabei wenig eine Rolle. Zumindest zeigt das kein Test.

Bei HBM geht es in erster Linie um Bandbreite in Relation zur Leistungsaufnahme.
 
Zuletzt bearbeitet:
zeedy schrieb:
Wow.... hast du echt einen Phenom II mit der Fury X kombiniert? :eek:
Solange DX12 nicht weit verbreitet ist, würde ich einer solchen Grafikkarte nur einen möglichst aktuellen i7 zur Seite stellen.
Fury X: 2015 High End
Phenom II X4: 2009 gute CPU, heute völlig veraltet.

Die Fury kam gestern an. Als ich nach Hause kam, hatte ich keine Lust mehr, das ganze System auszutauschen. Daher werkelt sie noch mit dem Phenom. Deshalb will ich auch noch keine eigene Leistungseinschätzung abgeben. ;)
 
Es geht den meisten doch um schlichtes P/L. Vollkommen egal ob das ne Custom oder ne Referenz Karte ist.
Korrekt, um das dann abschließend beurteilen zu können sollten wir fairer weise aber warten bis die Preise sich einpendeln. Die 980ti ist pünktlich zum Fury Start immerhin ordentlich im Preis gerutscht.
 
Krautmaster schrieb:
und wieso muss man? ;)

Es geht den meisten doch um schlichtes P/L. Vollkommen egal ob das ne Custom oder ne Referenz Karte ist.

Weil ein objektiver "Vergleich" nur Sinn macht, wenn man von der gleichen Basis aus vergleicht (stock mit stock / custom mit custom), aber man kann doch nicht stock mit custom vergleichen, da ist das Ergebnis des Vergleichs natürlich schon prädeterminiert, weil beide Produkte eben nicht die selben "Startvoraussetzungen" besitzen. Ist wie den einen beim 100m-Lauf mit Spikes starten zu lassen, den anderen barfuß. Klar ist der Mensch mit Spikes schneller, allerdings nur vermeintlich, der andere sollte eben auch mit Spikes laufen, um einen fairen Vergleich zu gewährleisten...
 
Zurück
Oben