Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

wenn man sich doch den linearen Zusammenhang hier quasi durch eigens gewählte Beispiele selbst so gestalten kann.
Selber gewählt, aber mit Fakten untermauert. Die 2011er 580 3GB plättet heute eine 1,5GB locker oder die 570 1,3GB. Hat alles Hand und Fuß und basiert auf Fakten die du selber auch rausfinden kannst. Eine 2011er 580 1,5GB(980TI 6GB) hätte einfach doppelt so viel Vram gebraucht. Zu der Zeit gabs die selben Argumente wie heute... Heute heulen die Vram Krüppel Käufer nur noch rum während ich mit 2,8GB Vram flüssig zocke und von Nachladrucklern noch nie was gesehen habe. Und das in Zig Spielen. 4 Jahre nach dem Kauf mit dem Vram/Rohleistungs Verhältnis noch top mit dabei. Gerade zu perfekt würde ich sagen.

Vor 8 Jahren bei der 8800GTX das gleiche. Perfektes Vram/Rohleistungs Verhältnis, das sich 1:1 mit dem Graphen deckt. Nicht umsonst die Legende unter den GPUs. Mit kastrierten Vram(G92 512MB) unmöglich.

Und bei der Titan X 12GB wird es wieder so sein. Für das Fazit sehen wir uns in 4 Jahren wieder. Versprochen.
 
Zuletzt bearbeitet:
hrafnagaldr schrieb:
Für mich ja, wenn durch den HDMI 2.0 ein DP verloren geht. Wenns der vorhandene ist egal, er wird nicht genutzt werden. OC-Potential auch, es würde bei mir nicht genutzt werden. Meine Liste ist auch ganz simpel: die Ti kann ich ein paar Sachen, die ich nie nutzen würde (HDMI im allg. / OC) und die 2GB mehr Speicher, die ich wohl nie bemewrken würde.

Dem entgegen steht H.265 dekodierung bei wenig Stromverbrauch, ebenso bei Triple Display (wobei das für mich aus Platzgründen leider nicht in Frage kommt.

Also manchmal wird's echt lustig.
Bei den Anschlüssen wird jenseits der Realität rumkonstruiert, obwohl die 980Ti bei allen Modellen 3 DP hat und der ebenfalls immer vorhandene HDMI eben 2.0 ist, nur um etwas schlechtes dazu sagen zu können. Dann alles mit dem Grund "ich nutze das nicht" abschieben, aber der Stromverbrauch mit 3 Displays, den man ja leider auch nicht nutzt (aber 3 DP sind trotzdem wichtig?), ist dann ja wieder relevant? 9 Watt weniger Leistungsaufnahme beim Abspielen von Videos eines bestimmten Codecs und dann noch mal ein Stück mehr Frames, die der Bildschirm selbst bei geeignetem Bildmaterial nicht mal mehr annähernd darstellen könnte, sind dann ein Argument, aber die Möglichkeit einen Fernseher anzuschließen und 4K mit mehr als 30 FPS darauf abzuspielen ist keins? 2GB mehr, die immerhin schon in Shadow of Mordor ein spürbares Ruckeln verhindern sind auch keins?

Da muss doch irgendwo ne Kamera sein, das ist doch Comedy.
Naja, ich guck mir jetzt mal lieber mein total übliches 144Hz-Videomaterial auf meinem 60Hz Monitor an und weine eine Runde, weil meine Grafikkarte es nicht schafft, über 400 FPS zu decodieren. Vielleicht steck ich aber auch meinen Fernseher an und freue mich dann, dass meine 4K-Videos ja in 30Hz absolut vollkommen ausreichen sind.

PS: Bitte nicht als Fury X Hate kategorisieren, wollte nur den Widersinn der Argumentation aufzeigen.
 
xeonking schrieb:
Weil du vollkommen recht hast und AMD dazu noch einen guten Tag verkaufen sie dir die Fury X für geschmeidige 300€ und legen noch 3 Spiele on Top! :king:

Jetzt mal ehrlich, wie kann man so ein quatsch von sich geben?

gruß

Ich finde die Karte auch zu teuer. Letzlich ist AMD diesmal nicht P/L mäßig vorne, sondern platziert seine Karten genau nach Nvidia- Preispolitik. Damit setzt man Nvidia natürlich überhaupt nicht unter Druck, sondern eher den Kunden. Ich denke darüber hinaus, dass sich diese Strategie für AMD nicht auszahlt, denn sie müssen bei gleichem Preis eigentlich besser sein... viele werden daher eher zur 980 Ti greifen. AMD hätte die Grafikkarte über den Preis deutlich aggressiver am Markt platzieren können. Der von dir zitierte Beitrag übertreibt natürlich total mit 500€, aber tendenziell hätte ich beispielsweise auch 599€ angemessener gefunden ;)
 
Schade, ich hatte mehr erhofft von der Fury X. Selbst mit neuem Chip und HBM schafft sie es nicht in Sachen Effizienz. Leistung lässt sich da sicherlich noch mehr ruaskitzeln wenn AMD das will, aber dann geht der Verbrauch wieder durch die Decke. Wenn das der große Wurf war und nun erstmal nichts neues mehr kommt siehts schlechter aus als erhofft. :(

Wenn Nvidia mit Pascal auch HBM einführt machen die Karten vermutlich einen gewaltigen Satz nach vorn und dann siehts für AMD wieder ganz mies aus. Immer nur günstige Preise reichen auf Dauer nicht. Damit macht man keinen Gewinn.

Ich hoffe ja dass die Nano irgendwie nochmal was bringt...

Warum AMD kein HDMI 2.0 auf ihrem superneuen Flaggschiff bringen ist mir auch ein Rätsel. Ich favorisiere zwar den DP aber dennoch sollte HDMI 2.0 dabei sein. Das sollte man bei so einer Karte erwarten können.
 
Zuletzt bearbeitet:
oder durch die geringere Temperatur taktet der Turbo sie dauerhaft höher (mit der entsprechenden Spannungserhoehung) und die Karte verliert sogar an Effizienz.
Never, steigt ja die Effizienz schon bei den Luftgekühlten, wenn man zb. 10% mehr FPS bekommt, aber nur 6% mehr Leistung braucht.

Fakten von PCGH. Hol dir ein Abo wenn du mir nicht glaubst. Der Big Maxwell Effizienz Speet Spot liegt nicht bei den Standard Taktraten.

Wenn Nvidia mit Pascal auch HBM einführt machen die Karten vermutlich einen gewaltigen Satz nach vorn und dann siehts für AMD wieder ganz mies aus
Genau das denke ich mir auch, die sehen kein Land mehr bei dem aktuellen Rückstand. Kommt noch eine AIO Wakü auf Pascal wirds Zappenduster für AMD in Sachen Effizienz.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Jaja, träumt ruhig weiter mit euren 2 und 3GB Vram Krüppel Karten. Ich geb hier mal wieder eine Warnung raus, 2015 sollte eine neue Karte 12GB Vram haben, ansonsten seht ihr mit 6GB Vram in 2 Jahren die Konsequenzen, mit 3,5 und 4GB noch früher. Ich hab meine 12GB Vram, von mir aus könnt ihr machen was ihr wollt, die nächsten 4+ Jahre hab ich wieder Ruhe, in Sachen Vram und Rohleistung, das ganze ohne Spulenfiepen. https://www.computerbase.de/forum/attachments/12052015492-jpg.492553/

Ist das Realsatire von dir? lol
Du kaufst dir also eine 12GB VRAM Karte für 1000€ (oder mehr).
Ein anderer kauft sich jetzt eine, als Beispiel, 6GB VRAM Karte für 700€.
Glaubst du etwa wirklich, dass dieses Mehr an Speicher 300€ wert sind...?
 
Krautmaster schrieb:
noch wird da nicht allzuviel "Optimierung" nötig sein. Würde ich annehmen. Wenn nun aber Fury X 8 GB kommen sollte oder die nächsten Mainstream Chips ist die Fury 4GB halt irgendwie recht schnell nicht mehr das Maß mit dem gemessen wird. Nvidias nächsten Mittelklasse Chips aka 970 Nachfolger werden dann 8GB haben, oder min 6GB. Bei AMD ja mit der 390 schon heute...

Vielleicht bringt NV jetzt ja auf die R9 390 /390X noch 8 Gb Versionen der 970 /980...

Wenn die Anzahl der >4 GB Karten zunimmt (gerade jetzt der Fall) dann gehen die Engines wie in der Vergangenheit auch... mit den Texturen hoch. Kann sich noch gut Jahre hinziehen absolut. Aber es wird einem wohl auch keiner ausschließen können, dass in 3 Jahren selbst ein niedrigeres Setting einfach an den 4GB scheitert obwohl die Rohleistung mehr als ausrechen würde. Und keiner kann mir sagen dass bessere Texturen nichts mehr bringen würden. Selbst bei FHD würde man da optisch noch Verbesserungen erzielen, bei 4k sowieso.

Ich schraube lieber die Regler für Effekte runter und lass die Details oben... und das geht nur mit genug Vram. Selbst ne 980 TI is meines Erachtens nicht üppig bestückt. Die 390X is da genau richtig. Gut möglich dass die der Fury X 4Gb noch irgendwann den Rang abläuft.

Wozu soll das gut sein. 4GB reichen bis zur nächsten Konsolengenration mehr als locker aus und bisdahin hat wird jeder längst eine neuere 14/16nm mit HBM2 Speicher Karte besitzen. Wer nun vorhat die Karte nach 4-5 Jahren, nach dem eine PS5 rausgekommen ist noch weiter zu behalten, der wird vllt mal mit den 8gb VRam was anfangen können aber bisdahin bleibt 8GB für FHD einfach nur unnütz.
 
Der HBM Speicher ist echt mal eine Wucht das ist schon mal klar. Der neue Chip von AMD überzeugt mich jetzt nicht so 100%ig. Skaliert schlecht mit OC und lässt sich auch nicht so gut übertakten. Die Wasserkühlung braucht Platz und die Wasserpumpe fiept anscheinend. Ein kleiner fader Beigeschmack. Mal gucken ob auch welche mit Luftkühlung kommen.

Schade das sie in niedrigeren Auflösungen so zurück fällt. Hätte es AMD echt gegönnt zumindest knapp vor der GTX 980 TI zu landen. Somit hätten wird uns eventuell über günstigere Karten freuen können... 699 Euro ist aber auch mal eine ungewohnte Ansage seitens ATI bzw AMD....

Bin gespannt wie sich der 4GB große HBM Speicher zukünftig schlagen wird.
 
@Krulemuk

wir wissen doch alle das sich der Preis noch einpendeln wird. Das wahr immer so und das wird auch immer so bleiben. Aber so lächerliche Aussagen wie 500€ oder so sind quatsch. Weshalb sollte AMD das auch machen, die Grafikkarte ist wie es auch vorher zu erwarten war kein Weltwunder aber dennoch eine ordentliche Karte die zum groß auf 980TI Niveau befindet. Ich verstehe es einfach nicht weshalb alle immer davon ausgehen das AMD bei gleicher Leistung immer deutlich günstiger sein muss. Gute Arbeit muss auch mal belohnt werden, belohnt diese gute Arbeit aber niemand dann weiß jeder wohin das führt oder führen könnte. Und dann ist das gejammer noch deutlich größer weil sich niemand mehr solche Karten leisten kann. Ich bin da deiner Meinung, 600-650€ gehen für so eine karte in Ordnung.

gruß
 
Kasmopaya schrieb:
Selber gewählt, aber mit Fakten untermauert. Die 2011er 580 3GB plättet heute eine 1,5GB locker oder die 570 1,3GB.[...] Heute heulen die Vram Krüppel Käufer nur noch rum während ich mit 2,8GB Vram flüssig zocke und von Nachladrucklern noch nie was gesehen habe.[...]

Also, ich will ja wirklich nicht zu kleinen VRAM schönreden, will aber zum Ausdruck bringen, dass du extrem übertreibst. Damals waren die 1,5GB sicher wenig, 2GB bei AMD besser etc, nur: Heute mit 12GB sehe ich nicht als "ausreichend", sondern schreckhaft überdimensioniert bei Spielern.

Kleines Detail am Rande: Du überdramatisierst, redest mMn. den Kauf schön (also ne 8800GTX hätte demnach ggf 1536MB gehabt) und weigerst dich, statt einer 1000€-Karte eine "rationalen 500€" zu kaufen, die zwar weniger lange hält, aber nach 4-5 Jahren für weitere 500€ in einer neueren Karte mit mehr Vram UND mehr Rohleistung als die dann damalige 1000€-Karte münden würden.

Klar, möglichst lang Ruhe vs. am Ende mehr Leistung bei insgesamt längerer Nutzungszeit. Außerdem wärst flexibler bei der GPU-Wahl.

Deine Sache, aber selbst die 980 TI würds doch tun, oder zumindest - wenns um das Mehr an Vram geht - die 290X/390X mit ihren 8GB. Dafür hast andere Schwachstellen. Wenn du das Geld aber für das andere aufbringen kannst/willst, darfst du das natürlich gerne, aber als allgemeine Empfehlung?
 
Zuletzt bearbeitet:
D3Spieler schrieb:
Wozu soll das gut sein. 4GB reichen bis zur nächsten Konsolengenration mehr als locker aus und bisdahin hat wird jeder längst eine neuere 14/16nm mit HBM2 Speicher Karte besitzen. Wer nun vorhat die Karte nach 4-5 Jahren, nach dem eine PS5 rausgekommen ist noch weiter zu behalten, der wird vllt mal mit den 8gb VRam was anfangen können aber bisdahin bleibt 8GB für FHD einfach nur unnütz.

Wird man sehen ob die 8 GB unnütz bleiben. Damit wäre wohl auch die ganze R9 3XX Serien bisher quasi unnütz. Nur 2x so viel Ram wie meine 4,5 Jahre alte HD6950 geht mir halt iwi nicht rein. ^^


@ GTX 980

Fury X muss sich dann preislich trotzdem was tun. HBM und AIO hin oder her. Die GTX 980 war ja schon immer das schlechteste Beispiel für P/L aber wenn ich mir die anschaue:

http://geizhals.de/evga-geforce-gtx...2-0-04g-p4-2983-a1168427.html?hloc=at&hloc=de
549€

...dann ist die im CB Test mit 12-14% vor der Referenz GTX 980, siehe hier - dazu noch leiser und sparsamer ohne auch nur einmal Hand anlegen zu müssen. Vollkommen out of box genau so schnell wie die Fury X wenn man nicht grad 4 K zockt.

Hmmm auf einmal sind die Custom GTX 980 Modelle dann schon P/L den Fury X vorzuziehen, bitter, und bieten dabei halt noch HDMI 2.0 + DVI und genauso viel weiteres OC Headroom.
 
Kasmopaya schrieb:

Never, steigt ja die Effizienz schon bei den Luftgekühlten, wenn man zb. 10% mehr FPS bekommt, aber nur 6% mehr Leistung braucht.

Fakten von PCGH. Hol dir ein Abo wenn du mir nicht glaubst. Der Big Maxwell Effizienz Speet Spot liegt nicht bei den Standard Taktraten.
Solange du deine Aussage nicht belegen kannst hast du sie für mich aus nem Lolli gelutscht.
Belege erstmal deine Aussage und DANN sehen wir weiter.

Genau das denke ich mir auch, die sehen kein Land mehr bei dem aktuellen Rückstand. Kommt noch eine AIO Wakü auf Pascal wirds Zappenduster für AMD in Sachen Effizienz.
Bis dahin bringen eh beide HErsteller war neues raus, die Frage ist nur wer eher damit raus kommt. Witzlose Argumentation die du da lieferst.
 
Glaubst du etwa wirklich, dass dieses Mehr an Speicher 300€ wert sind...?
Ihr versteht das falsch, wir reden hier nicht über den Preis des Vrams, das ist ein anderes Thema das NV seit der Titan Classic 500€ mehr für den Vram will. Ich hab 2011 500€ für einen Vollausbau und verdoppelten Vram bezahlt. Das ist wirklich nicht schön die Entwicklung. Ich sage nur was ihr braucht um 4 Jahre zu überstehen, nicht was es euch kosten wird, oder wie ihr das am besten mit Preis/Leistung schaffen könnt.

Wenn ihr jemanden die Schuld geben wollt dann Apple und co. mit ihren Smartphone und Tablet Chips die TSMC fluten und somit wohl die Waferpreise ins unermessliche steigen lassen.

Solange du deine Aussage nicht belegen kannst hast du sie für mich aus nem Lolli gelutscht.
Juni Ausgabe, Seite 86 unten. Bääm.

Bis dahin bringen eh beide HErsteller war neues raus,
Jo die Pascal Architektur, wenn die nicht komplett versagt müsste die effizienter werden als Maxwell dann noch HBM Effizienz Boost, und vielleicht AIO Wakü Effizienz Boost. AMD muss den Massiven Rückstand alles über die Architektur schaffen und dann noch NV überholen wenn möglich. Herkulesaufgabe. Nicht unmöglich, aber da brauchen sie schon Glück wie bei einem 6er im Lotto. Logisch oder.

Lasst euch ja nicht einfallen jetzt auf Pascal zu warten wenn ihr eine Karte heute braucht. Die ersten Karten werden mini Chips wohl Vram Krüppel wenn ihr Pech habt.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Juni Ausgabe, Seite 86 unten. Bääm.

Dann zeig oder troll dich. Wozu soll ich mir die Mühe machen und deine Aussage für bare Münze nehmen?
Ich bin doch nicht so bekloppt mir nen Abo an die Backe zu nagelt um zu schauen ob du schauen ob du Mist schreibst.
 
@ Wadenbeisser,

die Juni Ausgabe Seite 86 liegt vor mir, Es geht um die Thematik "Preiwerte WQHD-Monitore" aus Korea !!!

Ohne Worte !

Es war ein Trollposting von ihm.
 
Kreisverkehr schrieb:
Kleines Detail am Rande: Du überdramatisierst, redest mMn. den Kauf schön (also ne 8800GTX hätte demnach ggf 1536MB gehabt) und weigerst dich, statt einer 1000€-Karte eine "rationalen 500€" zu kaufen, die zwar weniger lange hält, aber nach 4-5 Jahren für weitere 500€ in einer neueren Karte mit mehr Vram UND mehr Rohleistung als die dann damalige 1000€-Karte münden würden.
Was heißt hier 500€ vs 1000€. Fury X und GTX 980 Ti liegen beide bei 700€. Es steht 4GiB vs 6GiB. Man hat die Wahl zwischen 0 Fortschritt seit 2013 und dem üblichen Wachstum mit 6GiB. Mag jeder sehen wie er will, aber erst über 4GiB der 970/980 nörgeln und jetzt zurückrudern ist inkonsequent. Ganz besonders bei 700€ Karten.

Das gewisse Leute auch über 6GiB meckern ist klar. Doch 6 ist immerhin Fortschritt, auch wenn ich persöhnlich lieber gleich 8 hätte. Und daher vermutlich wieder alles ignoriere.
 
Wozu soll ich mir die Mühe machen und deine Aussage für bare Münze nehmen?
Jo und ich kaue euch nicht alles vor, entweder ihr glaub es oder eben Pech gehabt. PCGH Abo ist eh Pflicht in Sachen GPUs. Die mit Abstand besten und ausführlichsten GPU Tests weit und breit. Ein Hoch auf Vötter und co. an dieser Stelle. :schluck:

Es war ein Trollposting von ihm.
Denkt ihr ich weis jede Seite wo ich was vor kurzen was gelesen habe aus dem Stehgreif? :rolleyes: Lest die ganze Ausgabe(der letzten Monate) dann findet ihr das schon. Ansonsten wie gesagt Pech gehabt.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Wird man sehen ob die 8 GB unnütz bleiben. Damit wäre wohl auch die ganze R9 3XX Serien bisher quasi unnütz. Nur 2x so viel Ram wie meine 4,5 Jahre alte HD6950 geht mir halt iwi nicht rein. ^^


Was soll eigentlich dieses "möglichst lange Ruhe haben" für einen nennenswerten Vorteil bringen?

Warum gurkst du noch mit einer 6950 rum?

Ich habe selbst eine 6950@unlocked 2GB im Besitz gehabt aber irgendwann schon nach 2 Jahren war mir die Karte einfach nur zu langsam trotz 2GB Vram.
 
Zurück
Oben