Test Radeon R9 Fury im Test: AMDs kleiner Fiji von Sapphire perfekt interpretiert

Chiller24 schrieb:
Erst mal verstehe ich nicht wie man einen Test auf 4K Benchmarks aufbauen kann, die Auflösung kann man sicher am Rande mit reinbringen, aber 1080p und dann erst mal 1440p sollten den Fokus bekommen. Nicht nur, daß 4K fast überhaupt niemand nutzt, heutige Grafikkarten haben dafür sowieso nicht durchgehend die nötige Leistung.

vollkommen egal. Es ist absolut richtig mit 4 K zu testen da man GPU Limit will um GPUs zu testen. Das war noch nie anders... zudem gibt es ja die Tests der niedrigeren Auflösungen nach wie vor.
 
X2me2 schrieb:
Das passt ja hinten und vorne nicht. Die Fury X soll von mir aus 699,- kosten, die kauft doch eh keiner. Unser Händler sitzt seit 2 Wochen auf seinen beiden Karten fest. Die will einfach keiner. Die normale Fury wäre mit 500,- ein Preis, wo sie auch Stückzahlen absetzen würden. So bleibt sie ein Ladenhüter, genauso wie die R9 390.

Ja ne ist klar, was erzählst du da für Geschichten? Die Fury X will also keiner haben? Warum war sie dann am ersten (!) Tag komplett ausverkauft und bis heute kaum lieferbar? Weil AMD insgesamt 100 Stück in Auftrag gegeben hat? Dann guck dir mal die Verkaufszahlen allein auf Mindfactory an. Weit über 100 Stück verkauft, ich würde sagen nicht schlecht für eine 700€ Karte.

Und die R9 390 ist momentan übrigens sehr beliebt. So schnell wie eine GTX970 OC aber eben mit 8GB, mMn derzeit die attraktivste Oberklasse Karte. Wer aber Strom und VRAM sparen will, sollte vermutlich dennoch zur 970 greifen :lol:

Was den Kühler der Fury hier angeht: klar der ist wirklich toll, im Idle unhörbar und unter Last extrem leise. Aber ich halte die AiO Lösung der Fury X dennoch für die bessere Kühlung. 1. viel leistungsfähiger (nur 60°C bei gerade einmal ~1200 rpm), 2. unter Last trotzdem sehr leise und 3. verteilt keine Abwärme im Gehäuse.

Was ich nicht verstehe ist dieser Backplate Trend. Was soll der Quatsch eigentlich? Okay bei sehr langen Karten noch sinnvoll. Aber es muss trotzdem kein Brett sein, das die Wärme die die Karte erzeugt, nicht entweichen lässt! Es müsste viel mehr Löcher bei den Teilen geben. Aber bei kurzen Platinen wie bei dee Fury X ist so eine Backplate wirklich total unnötig.
 
Zuletzt bearbeitet:
Chismon schrieb:
Hm ja genau, spätestens Anfang nächsten Jahres, nur dass bis dahin noch keine 14/16nm Fertigungen für die Chips bereit stehen, es sei denn Du wünschst Dir diese herbei oder gibt es dann Pascal auf tollen 28nm um noch einmal beim Kunden abzusahnen?

28nm niemals, technisch gar nicht drin. Mitte Ende nächstes Jahr wird man Pascal mit HBM sehen, aber nur im Tesla Segment und vielleicht den GP204 Mainstream Chip als High End Karte ;)
 
m.Kobold schrieb:
So lange es keine 4k Monitor mit 1ms Reaktionszeit und 144Hz gibt sind die Teile zum zocken nicht geeignet.

so ein Quark lol... ich hab hier nen 4K 40" und mit der GTX 980 TI zockt es sich darauf sogar ganz ganz ganz ausgezeichnet. Nicht jeder braucht 144hz und 1 ms :rolleyes:
Zumal das nicht mal DP 1.3 schaffen würde...

Und ja, 40FPS bei sauberer Ausgabe sind in meinen Augen richtig gut flüssig.
Ergänzung ()

Gpu-murks schrieb:
Aber der Chipsatz da drüber nicht...;)

nur weil ein Bauteil 120°C hat strahlt das noch nicht viel Wärme ab. Verschwindend gering sogar. Auf irgendwas auf dem Mainboard hat das genau 0 Auswirkungen...
 
Zuletzt bearbeitet:
Also die Asus R9 Fury im Test von HWLuxx sieht noch einmal besser aus als diese Sapphire. Nur 71°C unter Last und ebenfalls sehr leise. Verbraucht 40W weniger als Fury X. Darüber hinaus schlägt sie dort die GTX980 in höheren Auflösungen als FHD ganz schön deutlich.
Auf dem Papier hat die Radeon R9 Fury durch ihre Beschneidungen in der "Fiji"-GPU einen Rückstand von etwa 13 Prozent auf die Radeon R9 Fury X. In den Benchmarks stellt sich der Rückstand aber mit gerade einmal 7 bis 9 Prozent ein. Damit lässt man auch den direkten Konkurrenten, die GeForce GTX 980 in den meisten Benchmarks weit hinter sich.
 
Ich sage es auch hier nochmal.

Warum bringt man diese Karte nicht zum Launch?

Ich war so dermaßen enttäuscht von der FuryX als ich diese hier hatte.

Bei der Asus Strix scheint man wirklich ALLE meine Kritikpunkte eliminiert zu haben. Sogar mein geliebter DVI-D ist mit an Bord.

Ich kann und werde meine 2. 970 aber jetzt nicht wieder umtauschen. Dieses ewige hin und her ist ätzend irgendwann.

Diese Strix Fury zum Launch und ich wäre jetzt mit 99%iger Wahrscheinlichkeit AMD User.... regt mich auf!
 
Junge Junge... Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis Preis....

Das Ding ist nicht mal im Handel(ab14. Juli), Der Gelistete Preis hat mehr etwas von einer UVP als sonst was. Aber das am meisten in diesem Thread benörgelte ist der Preis. ...Was zur Hölle geht mit euch ab?!
 
Overclockers dream?
 
yui schrieb:
Maxwell war ein großer Schritt nach vorne in sachen Effizienz. AMD rennt nur noch hinterher. Spätestens anfang nächsten jahres kommt Pascal. Was macht AMD dann?
Ja Maxwell Effizient weil DP Einheiten rausgeflogen sind.
Und dann kommt Pascal. Richtig, wie AMDs GCN Architektur eine mixed precision Unit Architektur.
Von da an war es das dann mit der achso tollen Effizienz, da nvidia hier nicht einfach DP Einheiten rausnehmen kann. Uuuuups
 
Zuckerwatte schrieb:
Ich glaub er ist eher an der 2 Beiträge /Seite Grenze angelangt.

Sieht interessant aus.... wenn der Preis dann mal gefallen ist. Müsste aber schon ein super Preis sein, um meine 290x Ligthning dafür raus zu hauen.
8GB HBM würde ich auch bevorzugen.

VG Max

Kauf Dir ne 2te 290x Lightning und die Welt sieht schön aus. Mehr Leistung fürs Geld gibts nicht.
 
Also bei 500 Eur schlag ich bei der Asus zu. Das ist mein Limit und in der Preisklasse ist explizit die Asus die beste Lösung. Fantastische Kühlleistung, oc-nachteil bleibt aber bestehen. Hab mein CF-System verkauft und gurke mit ner 7900 GT rum :D . Muss dann nur geklärt werden ob der alte i7 die Fury nicht ausbremst^^
 
Zuletzt bearbeitet:
t3chn0 schrieb:
Ich war so dermaßen enttäuscht von der FuryX als ich diese hier hatte.

Warum warst du denn so dermaßen enttäuscht? Wegen des Fiepens? Was bereits quasi behoben wurde?

Wenn ich mich nicht täusche hast du doch einen 144Hz 1080p Monitor oder? Da sind zwei 970er eh besser...
 
@OT weil hier viele mit der Pascal mit HBM 2.0 Argumentieren hab ich da was verpasst? wurde offiziell bestätigt das pascal mit HBM 2.0 kommt hab ich schon einmal bei einen andere news gefragt weil dort ebenfalls damit argumentiert wurde hab aber keine Quelle/n bekommen.
 
Also mir sind 3-Lüfter-Grafikkarten suspekt, die saugen doch nur warme Gehäuseluft an und führen die bitte wie nach außen ab? Die Dinger sind zu 100% auf eine zusätzliche gute Gehäuselüftung angewiesen, erzeugen in jedem Fall aber erst mal nur kräftige Warmluftwirbel zurück ins Gehäuse.

Ich finde da hat die GTX Titan X mit ihrem nur verkapselten Einzellüfter, klar das bessere Konzept, die saugt die Luft nämlich an und führt die dann erhitzte Warmluft auch direkt durch ihr eigenes Gehäuse nach außen, ähnlich wie bei einer Turbine. Da muss man sich also auch nicht wundern, wieso die in den meisten Benchmarks noch vorne liegt, bei auch einem wesentlich niedrigeren Energieverbrauch!
 
Zuletzt bearbeitet:
ruegen1 schrieb:
Lese ich das richtig, dass, wenn ich jetzt zwei R9 290 Tri X OC unter einem 750W - Netzteil betreibe, ich diese Karten gegen zwei Tri X der Fury Tauschen kann, ohne das Netzteil zu wechseln?

Mit 750W bist du gut gerüstet für Multi GPU. Selbst wenn die Karten zusammen als Peak 600 W ziehen bleiben noch 150 für den Rest des Systems. Ich hatte jahrelang eine 200W Karte und einen extrem übertakteten C2D, der theoretisch auch 150W abgeschnorchelt hat und das Messgerät hat an der Steckdose nie mehr als 330W angezeigt.

autoshot schrieb:
Was spricht gegen eine Sapphire R9 290 für 285€? Die hat in meinen Augen im Moment mit Abstand das beste P/L-Verhältnis.

Wer in FullHD spielt und keine Rot /Grün Präferenzen auslebt sollte mit der R9 290 als Tri-x wirklich happy sein.

Marc Bühl schrieb:
Die Karte ist zwar nicht schlecht, aber der Preis?

Mittlerweile gibt es offensichtlich zwischen verschiedenen Generationen für den gleichen Preis nichts leistungsfähigeres, sondern nur für mehr Geld auch mehr Leistung.

Daraus kann ich für mich nur eine Konsequenz ziehen: Ich warte auf 2016, vielleicht wird durch eine neue Fertigung ja endlich das Preis-/Leistungsverhältnis besser. Denn für mehr Leistung in einer neuen Generation auch mehr Geld ausgeben - nein Danke!

Der Markt wird immer kleiner aber die Kosten werden bei jedem Shrink größer. Das wird mit 14nm noch heftiger. Die Zeiten wo ein Shrink die Chips billiger gemacht hat sind leider vorbei. Das sich nvidia und AMD die Mehrleistung vergolden lassen ist auch dem billigen Euro und dem schrumpfenden PC Markt geschuldet.

Tomahawk schrieb:
@Wurschti
Der Fokus wird genau darauf gelegt, wo das Produkt besonders gut abschneidet. Dass über 90% der Fury/Titan-Käufer nicht in Ultra HD spielen ist doch sehr zweitrangig.

Zeige uns mal die Quelle die besagt das 90% der Käufer dieser Karten nicht in FullHD spielen :-D
Und selbst wenn es so wäre, ist es ein Problem der Produkte wenn die Kunden etwas kaufen was sie nicht brauchen?
Mal davon abgesehen das man mit solchen Dickschiffen 1a downsamplen kann, was in Zeiten in denen viele Spiele nur FXAA anbieten ein top Feature ist.

eXe777 schrieb:
Egal ob Tomshardware, anandtech, bit-tech oder whatever - in keinem Review verbraucht die Karte jemals auch nur ansatzweise das Doppelte. Ich glaub du siehst einfach das, was du sehen willst. Aber gut, ist nicht mein Problem. Und das hat an dieser Stelle auch nichts mit Fanboy oder sonstwas zu tun, aber PCGH ist bislang der einzige Review mit diesen absurden Messwerten. Sorry aber laut der Mehrheit erzählst du Käse.

So manch einer leidet unter selektiver Wahrnehmung, was aber bei nvidia Fanboys und paid Foristen auch kein Wunder ist.

yui schrieb:
Die nächste Enttäuschung von AMD. Die Fury Karten kommen alle gut 1 Jahr zu spät. So wird das nix mehr mit AMD bei den Pixelpumpen.
Maxwell war ein großer Schritt nach vorne in sachen Effizienz. AMD rennt nur noch hinterher. Spätestens anfang nächsten jahres kommt Pascal. Was macht AMD dann?

Maxwell ist vor allem ein überteuerter Midrange Chip der zwar eine niedrige TDP mitbringt aber trotzdem gut Strom zieht. Es gibt genug Benchmarks die bestätigen das die Maxwell Karten über 200W Peak verbraten. Und bezüglich Pascal sollte man erstmal warten bis ein Produkt verfügbar ist und nicht im Vorwege schon irgendwas Hypen was gerade mal sein tapeout hinter sich gebracht hat..

FormatC schrieb:
Wer mit der höheren Leistungsaufnahme und dem extrem hohen Gewicht der Sapphire leben kann, den kann eigentlich nur der empfohlene Preis davon abhalten. Keine schlechte Karte per se, man muss sich halt damit arrangieren können :)

Der Preis ist vor der Markteinführung immer etwas zu hoch um vorbesteller abzuziehen. Ich habe eine R9 290 Tri-x mit einem vergleichbaren Kühler und die Karte hängt weder im Slot durch, noch braucht sie ein Stützbein wie so manche Direct CU von Asus.
 
Zuletzt bearbeitet von einem Moderator:
Gpu-murks schrieb:
Aber der Chipsatz da drüber nicht...;)
und die 120°C auf der GPU-rückseite kommen natürlich noch am PCIe-slot an, und natürlich auch am chipsatz.

AshS schrieb:
Ich finde da hat die GTX Titan X [...] das bessere Konzept [...], ähnlich wie bei einer Turbine.
ähnlich wie bei einer turbine ist auch die lautstärke bei solchen kühlern in der leistungsklasse.
natürlich sind karten mit axial-lüftern auf ne vorhandene gehäusebelüftung angewiesen, das dürfte keinen überraschen. sollte in der zielgruppe solcher karten auch kein "hindernis" darstellen.

tek9 schrieb:
Maxwell ist vor allem ein überteuerter Midrange Chip der zwar eine niedrige TDP mitbringt aber trotzdem gut Strom zieht. Es gibt genug Benchmarks die bestätigen das die Maxwell Karten über 200W Peak verbraten.
soso, der GM200 auf der Titan X und 980ti ist also ein midrange chip? Maxwell ist ne architektur, kein chip. über fanboys herziehen (lustigerweise nur die von nvidia, als ob die von AMD besser wären) und dann selber sowas bringen, sehr gut.
 
Zuletzt bearbeitet:
AshS schrieb:
Also mir sind 3-Lüfter-Grafikkarten suspekt, die saugen doch nur warme Gehäuseluft an und führen die bitte wie nach außen ab? Die Dinger sind zu 100% auf eine zusätzliche gute Gehäuselüftung angewiesen, erzeugen in jedem Fall aber erst mal nur kräftige Warmluftwirbel zurück ins Gehäuse.

Ich finde da hat die GTX Titan X mit ihrem nur verkapselten Einzellüfter, klar das bessere Konzept, die saugt die Luft nämlich an und führt die dann erhitzte Warmluft auch direkt durch ihr eigenes Gehäuse nach außen, ähnlich wie bei einer Turbine. Da muss man sich also auch nicht wundern, wieso die in den meisten Benchmarks noch vorne liegt, bei auch einem wesentlich niedrigeren Energieverbrauch!

Du sagst es. Gegen die Fury ist es ne überteuerte Turbine.
 
Zurück
Oben