Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

laurooon schrieb:
Ich habe mir halt die 295X2 angeschaut, da ging es ja auch mit einer einfachen Kühllösung[/url]

Ich habe gehofft, dass die FuryX2 vielleicht auch ähnlich aussehen würde. Aber OK, warten wir es mal ab. :)

Wenn es bei einem dünnen 120er-Radiator und nur einem Lüfter bleiben sollte, dann wird die FuryX2 ihrem Namen in Sachen Lautstärke garantiert voll gerecht werden. :)
 
Hi Jungs (und Mädels),

ich bin schon vor Tagen hier ausgestiegen, alle Postings zu lesen. Deshalb kurz 2 Fragen (in der Hoffnung, nichts altes aufzuwärmen):

1) Wie unterscheiden sich nun Tonga, Tonga XT und der Fiji-Chip? Ist Fiji einfach ein verdoppelter Tonga XT? Ich denke nicht... wo liegen die Unterschiede?

2) Warum kann der Fiji nicht von den über 4000 Shader bei FullHD profitieren? Was limitiert hier? Was macht da Nvidia mit dem GM200 / GM204 besser?
 
Ich wollte gerade sagen, HDMI 2.0 bringt ohne den HDCP 2.2 Chipsatz einfach nichts. Zumindest wenn es um das anschauen von Blu-Rays etc geht, und es müssen ja auch erst mal 4k Medien erscheinen. Man kann wohl davon ausgehen das für 99,X% der User HDMI 1.4 vollkommen ausreichend ist.

edit:

@lauroon

nein,nur die 960 kann das oder besser gesagt ist dort die nötige Hardware verbaut. Hat schon seinen Grund weshalb selbst Nvidia das nur bei einem Produkt anbietet.

gruß
 
Zuletzt bearbeitet:
Ich frage mich eher, wie viel FPS aktuelle, speziell auf die neue Serie abgestimmte Treiber herauskitzeln werden, die Karte wird aufjedenfall noch etwas schneller werden
 
Towatai schrieb:
Nein, die 980er NICHT.

Scheint mir auch sinnvoll zu sein. Eine 980(Ti) ist ja nicht gerade eine HTPC-Karte. Da kann man auf HDMI 2.0 verzichten. Ein Gamer dürfte eh an einem Monitor mit DisplayPort zocken. Das selbe gilt für die Fury X.
Die 960 ist aber für meinen Geschmack schon Overkill als HTPC-Karte. Ich warte sehnsüchtig auf APUs und iGPUs mit HDMI 2.0.

Insgesamt wundert es mich aber schon, warum HDMI 2.0 (mit oder ohne HTPC 2.2) auf den aktuellsten Grafikkarten so selten anzutreffen ist. Sollte ja eigentlich nur eine Formalität sein, das zu implementieren, auch wenn es die typische Zielgruppe solcher High-End-Karten eher nicht braucht.
 
@Herdware

daran wird es liegen, Angebot und Nachfrage. Weshalb etwas verbauen was so gut wie nicht gefragt wird. kein normaler user wird sich beim grafikkarten kauf nach der verbauten hdmi/hdcp version erkundigen, es interessiert bis auf ein paar nerds:evillol: einfach niemanden. das mit hdmi 2.0 und hdcp 2.2 wird doch erst wirklich interessant wenn es ausreichend 4k quellen sowie glotzen gibt.


gruß
 
laurooon schrieb:
Also kann man sagen, dass man tearingfreie FPS bekommt? Bei jeder Framezahl von 1-144. Das ist natürlich Sahne. :)

Bei ganz tiefen FPS natürlich nicht unbedingt, resp. dann kommt halt iwann wieder das Gefühl vom Rucklen. Aber grundsätzlich ja, bei einem 144Hz G-Sync/Freesync Monitor hast Du weder bei 50FPS, noch bei 70FPS oder bei 100FPS Tearing, das ist ja der Witz an der Technologie: https://www.computerbase.de/artikel/grafikkarten/nvidia-gsync-test.2338/
 
@xeonking
HDMI 2.0 (und evtl. HDCP 2.2) wäre aber doch auf jeden Fall ein nettes "Checklisten"-Feature für die Verpackung und Werbeprospekte. Höhere Zahlen kommen beim Kunden immer gut an. ;)

Ich finde es aber wie gesagt auch viel ärgerlicher, dass HDMI 2.0 bei für HTPCs relevanten GPUs (sprich vor allem APUs und iGPUs) auch auf sich warten lässt. Vor allem weil die meisten 4K-Quellen ja letztlich über den HTPC (Internet-Streams und Downloads) kommen werden. Ich möchte mir deshalb keinen neuen HTPC kaufen, bevor HDMI 2.0 nicht gegeben ist.

Bei sowas wie der Fury X oder 980Ti, also für den Spiele-PC, wäre es mir egal.
 
Ich für meinen Teil brauche beides. HDMI 2.0 mit HDCP 2.2 da mein PC an einer 4K Glotze hängt! :) Gebe aber zu, das mein Setup für viele nicht normal ist. Aber wenn ihr mal an einem 65 Zöller in 4K gezockt habt, werdet ihr sagen müssen, dass das ziemlich geil ist. :) Ich hab auch kein Problem mit der Reaktionszeit. Das klappt einfach gut mit dem Ding. Was bei der PS4 und anderen Konsolen geht, geht mit dem PC auch. Nur besser. :)
 
Naja, mich interessiert das schon. Dennoch ist das fehlen von Hdmi 2.0 kein Grund die Karte nicht zu kaufen. Bei mir ist es aber eher dem Umstand geschuldet, dass es wohl einfach nicht möglich war/ist.

Und egal wie unintressant der Anschluss für einige hier zu sein scheint, es wird dennoch einige Leute geben, die die Fury deswegen nicht kaufen.

@xeonking
es gibt mehr UHD-TVs mit Hdmi 2.0 als 4k Monitore. Einfache Frage: Wer einen solchen TV hat und sich eine Grafikarte in dem Preisbereich zulegt und kein "Fanboy" ist und eigentlich nicht vorhat an seinem TV zu zocken, für welche Karte wird der sich entscheiden? Bestimmt für eine Fury X um seine Entscheidung zu untermauern, oder doch für eine 980Ti um zumindest diese Option zu haben?
 
Weil Crossfire mit 4GB pro GPU bei 4k für mich keinen Sinn macht. Deshalb wären 8GB pro GPU für mich ein absolutes Verkaufsargument.
 
laurooon schrieb:
Wie zu sehen ist die Grafikkarte ähnlich klein, wie die Fury X. Meint ihr, dass sie auch ähnlich laut sein wird? Es werden ja keine 2 Kühler hierfür vorgesehen sein, oder?

ne ich denke es bleibt bei einer Pumpe und dem jetzigen Radiator da wirtschaftlicher. Dieser hat mehr als genug Power um auch zwei Fijis abzukönnen. AMD gibt selbst ja 500W an - geht aber auch mehr und ne Dual Fiji wird vermutlich mit etwas weniger Takt auskommen.

Die Fury X ist ja weit weg von 75°C und der Radiator Fan dreht meist auf nicht mal 1400 rpm hoch (kann 3000). Wenn also ne Dual Variante daherkommt läufen die Chis vllt auch mal auf 65°C hoch bei selber Radiator Drehzahl. Sollte alles problemlos gehen (siehe 295X)


Edit:

ich hab die Tage mal etwas mit der 980 TI in 4K gezockt. Selbst das recht sparsame Witcher 3 kommt ziemlich genau auf 4 GB Vram (und so wie das aussieht braucht es die auch...). Allerdings liest er über 4 GB bei W3 irgendwie nicht korrekt aus.

GTA 5 geht noch krasser zur Sache, sieht auch bockstark aus



alles max auf 4k mit FXAA + MSAA (ohne MSAA dann ~40-45 FPS)

Der VRam Verbrauch ist ohne MSAA zwar etwas geringer aber 4 GB würden vorne und hinten nicht ausreichen. Auch glaub ich nicht dass GTA V hier einfach mal "reserviert". Das Spiel ist voller hochauflösender Texturen die aber immer noch Raum nach oben haben (siehe letztes Bild zB). Da werden selbst 6GB eng :-/
(das würd ich gern mal auf ner Fury X vergleichen... ob das der HBM wegsteckt)

In Game echt super flüssig, hätte ich nicht so erwartet - kein Ruckeln nix.


(siehe VRam Auslesefehler)

Selbes gilt für W3, auch super flüssig aber wirkt mit Lock auf 30 FPS noch runder, muss ich noch etwas testen. W3 schwankt auf alles Max in 4k zwischen 33 und 40 FPS aber wie gesagt hab ich gestern auch mal nen 30 FPS Lock getestet und durch die Konstanz wirkt es dann runder. Vielleicht auch je nach Engine und Konsolenport abhängig. Die 40-45 FPS bei GTA 5 wirken noch flüssiger, deutlich flüssiger als da ein Lock auf 30 FPS.

Was auffällt ist dass meine HD6970 bei 30 FPS deutlich unrunder war. Füllte sich da bei GTA 4 oft an wie 20p FPS dabei wurden angeblich 30 berechnet (auf ~mittleren Settings). Aber nur am Rande ;)

Auf jeden Fall ist es absolut 4 K tauglich (persönliche Meinung). Auch FHD + AA sieht am Monitor sicher noch top aus aber es ist jetzt nicht so dass ich direkt zu ner 2. Karte greifen müsste =)

Es gibt keinen integrierten Witcher 3 oder GTA 5 Benchmark oder? Also einer der dann zb mit den CB Benches verglichen werden könnte.
 
Zuletzt bearbeitet:
moshkopp schrieb:
Ist schon bekannt ob die Fury X2 2x8GB hat? Dann würde ich sie mir wahrscheinlich zusammen mit nem 4k Monitor zulegen.
Die Gerüchteküche sagt 2x4GB. Eventuell sind 2x4GB sogar bestätigt, habe aber gerade keine Quelle.
laurooon schrieb:
Ich habe mir halt die 295X2 angeschaut, da ging es ja auch mit einer einfachen Kühllösung
Nochmal: Zwei Chips produzieren doppelt so viel Abwärme. Wenn der gleiche Kühler zur Anwendung kommt, dann bleibt die Karte nicht gleich laut, weil der Lüfter erheblich schneller laufen muss.

laurooon schrieb:
Also kann man sagen, dass man tearingfreie FPS bekommt? Bei jeder Framezahl von 1-144. Das ist natürlich Sahne. :)
Nur mit V-Sync, G-Sync und Free-Sync (mit Einschränkungen).
 
AMDs problem liegt definitiv nicht im speicher bereich:

980Ti - 6GB:
384bit
340GB/s

390X (8GB):
512bit
384GB/s
- 2800 Shading units.
- 50fps

Fury X:
4096bit
512GB/s
- 4000 Shading units (40% mehr units)
- 60fps

AMD hat wesentlich mehr speicher (390X), mehr bandbreite und mehr bus speed als die 980Ti und sind noch immer langsammer als 384bit/340GB/s. Ich glaube das der chip momentan sehr schlecht (langsam) ist und dieser schneller HBM einfach nichts bringt weil die grosseren zahlen nichmtal im 390X segment was bringen.

Fiji ist IMO ein altes design ein bischen aufgedreht und mit HBM. Meiner meinung nach würde die Fury X mit dem 390X speicher genau so schnell arbeiten. Rein theoretisch.
 
Zuletzt bearbeitet:
@herdware

ich hab noch niemanden gesehen der damit wirbt hdmi 2.0 verbaut zu haben, das steht doch meist nur im kleingedruckten falls ich mich nicht täusche. Generell hast du natürlich Recht, das höhere Zahlen bei den meisten Käufern natürlich auch das "Besser sein" vermittelt!

@moshkopp

wie man bei dem fury test sehen konnte stellt der geringe 4GB HBM speicher eigentlich kein Problem da. Er wird ja anscheinend verdammt Effektiv genutzt. Auch die Tests im CF unterstützen das ja, sonst könnte die Fury X ja nicht mit der Titan X und ihren 12GB Speicher mithalten. Daher werden auch mit der Dual Variante keine Probleme zu erwarten sein.

@lauroon

mag sein das du ein 4k TV hast und diesen auch gerne mit Spielen befeuerst. Aber das geht auch mit HDMI 1.4, zwar nur auf 30hz aber es geht. Wie du aber selber schon angemerkt hast bist du wahrscheinlich eher einer der wenigen der sowas so nutzt. Natürlich hätte HDMI 2.0 nicht geschadet, aber wirklich schlimm ist das fehlen davon auch wieder nicht.

AMD muss noch das mit der Pumpe/Fiepen in den Griff bekommen, dann ist alles in allem die Fury X eine gute Karte.


gruß
 
Zurück
Oben