Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

@Krautmaster
Ich halte die Warscheinlichkeit für bedeutend höher das sich jemand an nen TV einen Blu-Ray Player anstatt eines PCs anschliesst und mal ehrlich...die Dinger bekommt man schon für deutlich unter 100€ und sind dabei vermutlich auch noch leiser und sparsamer als der PC.
Die HTPC User sind wohl eher die Ausnahme als die Regel und damit eine deutliche Minderheit.
Wem das nicht passt baut einfach ne andere Karte ein.
 
Wie kann es sein das gta 5 bei der 980 ti schlechter abschneidet als meine 780? Im praxistest hab ich in 1440p einiges mehr fps auf ultra?!
 
Chucky111 schrieb:
Rundum eine überzeugende Karte zum fähren Preis, aber Pascal steht ja auch bald schon wieder in den Startlöchern :D Nvidias Vorsprung von einem halben bis dreiviertel Jahr wird AMD wohl so schnell nicht einholen, aber es zeigt sich wiedermal, dass die beiden hersteller sich letztendlich nichts schenken, außer bei der Leistungseffizienz.

Nvidia's Architektur ist deutlich ausgeklügelter, besser optimiert, skalierbarer. Pascal soll die Rechenleistung vervielfachen, und wird ein harter Schlag für AMD werden. AMD's GCN ist nämlich nur eine mehrfach verbesserte Version der seit der HD2000 verwendeten Terrascale Architektur - AMD würde eine komplett neue Architektur brauchen, um Nvidia übertrumpfen zu können.
 
Preisanpassungen nach Markteinführung werden (wie immer) folgen. Ferner darf man mit Treiberanpassungen rechnen. Mal schauen, wie es in wenigen Wochen preislich und leistungsmäßig um Fury X bestellt sein wird.

Was diese Diskussion um 4k@60Hz anbetrifft: Kaum einer hat einen 4k-TV, den er trotz ungesundem Input Lag mit 4k@60Hz betreiben möchte, ohne zumindest einen Adapter in Erwägung zu ziehen:
http://www.prnewswire.com/news-rele...-with-hdmi20a-in-a-single-chip-300098508.html
Das sind alles nur Scheingefechte von Markenfetischisten.
 
stoneeh schrieb:
Nvidia's Architektur ist deutlich ausgeklügelter, besser optimiert, skalierbarer. Pascal soll die Rechenleistung vervielfachen, und wird ein harter Schlag für AMD werden. AMD's GCN ist nämlich nur eine mehrfach verbesserte Version der seit der HD2000 verwendeten Terrascale Architektur - AMD würde eine komplett neue Architektur brauchen, um Nvidia übertrumpfen zu können.

Was O.o Wo hast du diese Information her?

Graphics Core Next ist eine komplett neu entwickelte Architektur die vom VLIW-Instruktionssatz Abstand nimmt. Erstmals eingeführt wurden damit asynchrone Shader sowie eine stark verbesserte GPGPU-Leistung.
 
Also mal ehrlich Leute. Die Karte ist wirklich toll, aber was sind das für Preise ?

ÜBER 600 Euro für eine Grafikkarte. Als ich mir damals die Hd 6970 geholt habe war die Neu für 280. Auch meine Gtx 680 hatte ich damals zu beginn für cirka 350 bekommen. Vor 3 Jahren war das die Spitzenmodelle (Glaube waren 3 Jahre :D).
Nichts rechtfertigt den Preis von über 600 Euro für die AMD noch für die NVIDIA, meiner Meinung nach, da die Grafikkarten sowieso zu lahm für 4k sind.
 
@ Wadenbeisser

wenn es einem um das abspielen optischer BD Medien geht sicher. Ich für meinen Teil gebe einfach gern das aus was der Monitor hergibt, bei einem 4 K TV in 95% der Fälle 60p. Egal was ich ausgeb, mir gehts nicht um reines BD Abspielen vom PC. Der eine Zockt, der andere will nur ne flüssige Diashow in 4K anzeigen, der andere Live TV.

Wir reden hier um den Brei. Es ist wie mit meiner HD6950 heute, nur 30p in 4k an meinem 60p 4k Monitor trotz DP 1.2, mehr geht einfach zZ nicht deswegen brauch ich ne neue Karte, 30 p suckt da einfach und nichts anderes ist es wenn man über HDMI 1.4 an nen 4K TV geht. So einfach ist das.

Das ist kein Kilelrargument, nicht in meinen Augen. Es betrifft wenige. Sehr wenige (wenn gleich mehr als die DP Leistung zb), aber diese Kleinheiten sind halt wie Nadelstiche. Brauch ich die HDMI 2.0 vllt irgendwann wirklich, vllt pisst es mich iwann... genau wie die 2GB... ? Weiß mans ? ^^

Wenn die Fury X OC rocken würde wäre das was anderes, da würde ich n Kauf nicht von HDMI 2 abgängig machen.
 
Ach wirklich? Na werden wir sehen, wenn Pascal kommt. Bis jetzt is Pascal nur Spekulation und noch nicht fertig.

Bis jetzt skaliert Fury doch recht gut "trotz" cgn.
 
Chucky111 schrieb:
... aber Pascal steht ja auch bald schon wieder in den Startlöchern :D Nvidias Vorsprung von einem halben bis dreiviertel Jahr wird AMD wohl so schnell nicht einholen, aber es zeigt sich wiedermal, dass die beiden hersteller sich letztendlich nichts schenken, außer bei der Leistungseffizienz.


In den Startlöchern, der gute Pascal? So wie man hört nicht vor Q3/Q4 2016. Das ist dann doch noch nen ganzen Stück hin ! :D
 
kisser schrieb:

Gut, schau ich bei PCGH dann verbraucht die R9 285 aber auch 215W und nicht wie bei THG 168W. Somit wären es bei deiner Logik (215W-16,5W) *2 + 14,22W = 411W
Wieder deutlich mehr als 313W bzw. 329W.

Wenn man Werte vergleicht dann nur von jeweils einer Seite und nicht ein Wert von hier und ein Wert von da, da jeder Tester anderes Equipment nutzt.
 
Toms schrieb:
Graphics Core Next ist eine komplett neu entwickelte Architektur die vom VLIW-Instruktionssatz Abstand nimmt. Erstmals eingeführt wurden damit asynchrone Shader sowie eine stark verbesserte GPGPU-Leistung.

Ja aber GCN is eig. seit VLIW auch nicht wirklich verändert worden. Für die Next Gen scheint wirklich GCN 2.0 nötig zu sein. Anders ist die schlechte Skalierung mit HBM und Rohleisung nicht zu erklären. Interessant wäre da mal ein Takt bereinigtes Performance über Shader Diagramm.

Bei selbem oder gar etwas höherem Takt aus 50% mehr Shader + GCN 1.2 zu 1.1 und ohne SI Limit nur 25% Effektive Mehrleistung ist ernüchternd. Die 4GB sind nicht Schuld... was also dann?
 
sterbend schrieb:
Zum Glück hab ich bei dem Angebot zur EVGA 980ti OC für 620eu vor paar Tagen zugeschlagen!

Wow, super Schnäppchen gemacht :)

sterbend schrieb:
P.S. morgen kommt meine 980ti, laut track&trace der Post!! :cheerlead:

War da nicht was mit Streik? ;)

die.foenfrisur schrieb:
mich würden noch mal echte MANTLE-benches interessieren.

Warum? Mantle wird bisher dazu genutzt, wenn ein CPU-Limit vorliegt, dieses zu entschärfen. Hier geht es jedoch um eine Grafikkarte. Es gibt jedoch ein Spiel (Name fällt mir gerade nicht ein), bei dem man per Mantle auch das GPU-Limit weiter rauszögern kann.

Nobbi56 schrieb:
In der 700 €-Klasse tut sich die Fury X aber m.E. schwer, wenn ich sie etwa mit der nur 10 (!) € teureren Gigabyte GTX 980 TI G1 vergleiche: Mit ihrem Boosttakt von stolzen 1291 MHz (Werksangabe, de facto wohl eher noch höher) dürfte sie die Fury X bei den meisten Spielen schlagen

Ja, mir scheint, dass man mit der Anzahl der Shader und der generellen GPU-Architektur ein Limit bei FullHD erreicht hat. Hier zählt nur noch die Taktfrequenz, um mehr Leistung zu erhaschen.
 
Das ist die Frage ... die theoretischen Flop/s steigen ja fast linear ... nur die umgesetzte Performance halt nicht
 
Im Grunde ist die Performance so, wie von mir im 9880Ti-Thread vorhergesagt. Sie kann der 980Ti Referenz paroli bieten. Aber das Problem ist einfach, dass viele Partnerkarten mal eben 20% schneller sind. Und diese lassen sich auch noch übertakten und man ist dann bei 30-35%.
Die Frage ist, ob das bei AMD momentan Treiberbedingt ist, oder der Chip am Limit ist. Eigentlich kann es nur ersteres sein. Wäre schon merkwürdig wenn AMD bei den Serienmodellen bis ans äußerste gehen würde. Ich hoffe einfach mal, dass da noch viel mehr geht.

Die Effizienz wurde verbessert, aber optimal ists noch nicht. Man muss bedenken, dass durch die geringe GPU-Temperatur einiges an Leistung eingespart wird. Ein Hawaii bei 65°C würde auch erheblich sparsamer sein als bei seinen 90°C.
Aber ich würde mal sagen, dass die Leistung in anbetracht der Performance OK ist. Ein GM200 ist da jetzt auch nicht meilenweit vorne.

Richtig schön ist der endlich neue Videoprozessor. Kann alles abspielen und verbrät dabei nicht unmengen an Strom. Fehlendes HDMI 2.0 trübt das ganze aber ein wenig. Wenn man mal auf dem UHD-TV zocken will steht man blöd da.

Im Endeffekt gibts endlich wieder Konkurrenz für Nvidia. Allerdings mit der Brechstange samt HBM und Wakü. Und 4GB haben in dem performancebereich zumindest ein kleines Geschmäckle. Bei 700€ möchte ich nicht, dass dann doch plötzlich Spiele auftauchen die etwas mehr Speicher vertragen können.

Preislich muss man mal schauen was möglich ist. Praktisch bekommt man bei AMD nen richtig leises Modell, bei Nvidia aber die schnellere Karte (Custom 980Ti). Mal schauen wer ds preislich mehr machen kann. Der HBM samt Interposer ist sicher nicht günstig.
Aber ich nehme mal an, an einen Preiskampg hat keiner der beiden Interesse und es lassen einfach beide die Preise oben. :D
 
Sch....eibenkleister. hab grad mein Gehäuse gemessen, den Radiator bring ich da nie rein :-(

Die Idee mit der AiO WaKü ist wirklich toll, aber bei meinem Gehäusekauf hab ich noch nicht damit gerechnet dass das ein Hersteller tatsächlich mal machen könnte. Und eigentlich will ich auch kein anderes Gehäuse, das Fortress FT03 ist wirklich genial uns sieht auch gut aus.

Muss ich wohl doch auf die Fury mit herkömmlicher Luftkühlung warten (und hab dann wahrscheinlich wieder laute Lüfter wie bei meiner jetzigen Karte)

grml.

Falls jemand doch noch ne Idee hat wie das klappen könnte, immer her damit.
 
Geringere Leistung als eine GTX 980 TI aber höherer Stromverbrauch, weniger VRAM und man braucht Platz für einen AIO-Wasserkühlung :freak:

Noch dazu ist die 980 Ti mit 672€ zur Zeit 20€ günstiger...
 
Also finde die Karte sehr gelungen. Nur weil AMD die Karte jetzt bisschen nach TitanX und 980TI gebracht hat, wird gleich übertrieben. Das Fiji wegen HBM länger in Entwicklung war, wurde schon häufiger erwähnt. Deswegen passt die Leistung aus meiner Sicht.

Die Karte ist für FullHD mit Downsampling der Nachfolger meiner R9 285, falls der Preis dann ordentlich ist. ;)
Verbrauch ist sehr gut, Größe für meinen Cube perfekt und mich stört so eine Wasserpumpe null. Aber hier sind echt komische Typen, die gleich von Fail labern, unglaublich. :o
 
Toms schrieb:
Das ist die Frage ... die theoretischen Flop/s steigen ja fast linear ... nur die umgesetzte Performance halt nicht

Allerdings nur dann, wenn ein Problembereich, der eine Aufgabe definiert, groß genug ist, um alle Shader auszulasten. Das ist eben bei FullHD-Spielen nicht der Fall.

bensen schrieb:
Die Frage ist, ob das bei AMD momentan Treiberbedingt ist, oder der Chip am Limit ist. Eigentlich kann es nur ersteres sein.

Nein, ich tippe, dass der Chip am Ende ist. Wenn man eine Gaming-Session (auf FullHD-Auflösung) mal profilen würde, dann könnte man (vermutlich) erkennen, dass nicht alle 4.096 Shader optimal ausgelastet werden. Das Nadelöhr ist hier einfach die Taktfrequenz.
 
Zurück
Oben