Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

Könnte man zum Thema Bandbreite nicht mal das VRAM Tool von Nai auf der Fury laufen lassen um den Durchsatz zu messen?
...oder klappt das nur mit cuda? :confused_alt:
 
t3chn0 schrieb:
Naja, der Zeit voraus ist immer relativ. Man bietet HBM, kann diesen aber nicht in Leistung umsetzen. Zumindest nicht so wie erwartet.

Dazu bietet man nur DX 12 mit FeatureLVL 12_0, anstelle 12_1 wie bei Nvidia. Anstatt HDMI 2.0 für 4K@60Hz, bietet man nur HDMI 1.4a für 4K@30Hz.

Also soooo viel fortschrittlicher ist das jetzt auch noch nicht.

Das DX12 Feature Level ist relativ unbedeutend, da die Konsolen auch "nur" das Feature Level 12_0 haben. Der Spieß war meine ich auch mal herum gedreht, da hatte AMD ein "höheres" Feature Level. Was hats genützt? Gar nichts!

Mit dem HDMI geb ich dir Recht das ist nicht so fein.
 
Aber die AMD kann doch 4K in mehr als 30Hz, oder? Das kann ja selbst meine GTX 780 indem sie die Farbpalette leicht reduziert.
 
@laurooon
Ist eine Frage des Anschlusses. Ich bezweifle, dass die 780 einen HDMI 2.0 Anschluss hat.
 
"Wer nun aber sein HDMI-Display als PC-Monitor bei 4K@60Hz betreiben möchte, der wird keine Freude daran haben, denn eine Betriebssystemoberfläche mit pixel- und farbgenauem Rendering verliert zu deutlich an Qualität, als dass dies die Darstellung mit 60 Hz wieder wettmachen würde."


Wo soll also der Sinn darin sein? Standards gibt es nicht umsonst, da halte ich nichts von den Frickellösungen.
 
Aber es geht, was du nun zugeben wirst?

Ich habe einen guten TV und ich sehe bei 4K diesen "deutlichen Qualitätsverlust" nicht. Vermutlich liegt das daran, dass der TV selbst das eingehende Signal nochmal nachbereitet und wieder zurechthübscht. Keine Ahnung. Jedenfalls sieht 4k@60Hz bei mir sehr gut aus. Ich kann mit der GTX780 natürlich nur ältere Spiele auf so einer Auflösung spielen. Z.B. spiele ich gerade Command and Conquer RA3 und es sieht einfach Hammer aus in 4K auf der Glotze. Schade, das ich bei Anno 1404 diese Auflösung nicht wählen kann, das wäre klasse!
 
Versucht mal bitte sachlich zu bleiben:

Ich laufe gerade Gefahr, 144Hz und 144 FPS durcheinanderzubringen, aber verstehe ich das richtig, daß bei einem 144Hz Monitor auch 144 FPS ideal wären? Und bei weniger Frames würden Free-Sync / G-Sync die Bildung von Schlieren verhindern?

Dann frage ich mich aber weiterhin: Wenn 144 FPS dennoch gewollt sind, sollten sowohl AMD als auch nvidia sich nicht zukünftig mal vernünftig um das Spulenfiepen kümmern? Ich meine es kann ja nicht sein, daß es da keine simple technische Lösung gibt, um das wegzubekommen. Immerhin gibt es auch Zocker mit Haustieren und die haben gewöhnlicherweise ein noch empfindlicheres Gehör. Die kriegen doch 'ne Macke!
 
Das Spulenfiepen fängt bei mir erst deutlich jenseits der 200fps an. Davor höre ich nichts. Da ich mit 60Hz und Vsync spiele, tangiert mich das Problem zum Glück null.

Ich verstehe es aber auch so wie du. Ein 144Hz Display kann bis zum 144fps darstellen, was natürlich ideal wäre. Wenn es weniger als 144fps sind, versucht Nsynch das sog "tearing" zu vermeiden. Inwieweit das klappt, weiß ich nicht, da ich noch kein 144Hz Display getestet habe.
 
Zuletzt bearbeitet:
r4yn3 schrieb:
Oder liegt es hautptsächlich an den ROPs dass die Shader nicht besser ausgelastet werden? Sind ROPs Teil vom Frontend?

Wenn ich nichts verwechsle, dann sind die ROPs im Front- und die TMUs im Back-End. Is aber egal, limitiert doch eh beides. Dafür spricht auch, dass, je höher die Auflösung ist, desto besser steht Fiji dar.

Und zum Thema 144 Hertz:

Ich hab leider keine praktischen Erfahrungen, aber es wird immer geschrieben, dass in 2D und abseits von Spielen bei allem die Frquenz weit besser als die alten 60 Hz sein sollen und daher Spiele nur ein Randthema seien. Klar, mit nem 144 Hz Monitor gibts bei 60+ fps keine Schlieren oder Tearing oder sonstwas, aber wenns weit runter geht, gibts ja FreeSync.
 
laurooon schrieb:
Wie zu sehen ist die Grafikkarte ähnlich klein, wie die Fury X. Meint ihr, dass sie auch ähnlich laut sein wird? Es werden ja keine 2 Kühler hierfür vorgesehen sein, oder?

Es wird fast doppelt so viel Wärme anfallen, und die muss weg. Ich gehe mal davon aus, dass die Dual-Fiji-Karte mit einem anderen Radiator und zwei Lüftern kommen wird. Entweder ein 240mm-Radiator, oder wahrscheinlicher ein dickerer 120er mit Lüftern in Push-Pull-Anordnung, weil es weniger problematisch ist, dafür einen passenden Platz im Gehäuse zu finde.

Beides ist theoretisch lauter als bei der Fury X, aber wenn die Kühlung der Dual-Fiji entsprechend "überdimensioniert" ausfällt, könnte es sogar leiser sein. Das hängt einfach davon ab, wie schnell die Lüfter drehen müssen, um die Temperatur unten zu halten.
 
Kreisverkehr schrieb:
Klar, mit nem 144 Hz Monitor gibts bei 60+ fps keine Schlieren oder Tearing oder sonstwas, aber wenns weit runter geht, gibts ja FreeSync.

Falsch. Die 60FPS Grenze ist eben nur bei 60Hz Monitoren relevant. Bei einem 144Hz Monitor kann es auch mit 60+ FPS noch Schlieren oder Tearing geben, da aber die Anzeigedauer der Schlieren resp. Tearing kürzer wird, je schneller der Monitor ist, fällts nicht mehr so auf. G-Sync oder Freesync ist bei einem 144Hz Monitor aktiv, sobald die FPS die 144 unterschreiten, sonst würde das ja keinen Sinn machen. Bei einem 60Hz G-Sync/Freesync Monitor ist es eben analog unter 60FPS aktiv.
 
Herdware schrieb:
Es wird fast doppelt so viel Wärme anfallen, und die muss weg. Ich gehe mal davon aus, dass die Dual-Fiji-Karte mit einem anderen Radiator und zwei Lüftern kommen wird. Entweder ein 240mm-Radiator, oder wahrscheinlicher ein dickerer 120er mit Lüftern in Push-Pull-Anordnung, weil es weniger problematisch ist, dafür einen passenden Platz im Gehäuse zu finde.

Beides ist theoretisch lauter als bei der Fury X, aber wenn die Kühlung der Dual-Fiji entsprechend "überdimensioniert" ausfällt, könnte es sogar leiser sein. Das hängt einfach davon ab, wie schnell die Lüfter drehen müssen, um die Temperatur unten zu halten.

Ich habe mir halt die 295X2 angeschaut, da ging es ja auch mit einer einfachen Kühllösung:
http://www.hardwareheaven.com/reviewimages/amd-radeon-r9-295-x2/amd-radeon-r9-295-x2_cooler.jpg

Ich habe gehofft, dass die FuryX2 vielleicht auch ähnlich aussehen würde. Aber OK, warten wir es mal ab. :)
Ergänzung ()

AnkH schrieb:
Falsch. Die 60FPS Grenze ist eben nur bei 60Hz Monitoren relevant. Bei einem 144Hz Monitor kann es auch mit 60+ FPS noch Schlieren oder Tearing geben, da aber die Anzeigedauer der Schlieren resp. Tearing kürzer wird, je schneller der Monitor ist, fällts nicht mehr so auf. G-Sync oder Freesync ist bei einem 144Hz Monitor aktiv, sobald die FPS die 144 unterschreiten, sonst würde das ja keinen Sinn machen. Bei einem 60Hz G-Sync/Freesync Monitor ist es eben analog unter 60FPS aktiv.

Also kann man sagen, dass man tearingfreie FPS bekommt? Bei jeder Framezahl von 1-144. Das ist natürlich Sahne. :)
 
Ist schon bekannt ob die Fury X2 2x8GB hat? Dann würde ich sie mir wahrscheinlich zusammen mit nem 4k Monitor zulegen.
 
Ihr müsst mir mal erklären, was ihr mit hdmi 2.0 und zocken wollt.

Es gibt genau eine Karte auf dem Markt die hdmi 2.0 hat : NVIDIA 960

Wer nun hdmi 2.0 als kaufargument für ne 980/980ti anführt ist nicht ernst zu nehmen.

Ich versteh generell diese ganzen Diskussionen nicht.

Kauft was ihr wollt und hört auf jeden zu missionieren! Das ist doch nicht normal.

Dacia wollt ihr auch nicht fahren, kauft lieber den viel zu teuren Audi.

Kauft marken, statt Budget

Aber hier wird immer ein Grabenkrieg inszeniert der völlig am Thema vorbeigeht...

Schaltet mal euer Gehirn auf Objektivität!

Ich find gut was AMD hier abgeliefert hat weil:

Karte ist unheimlich Leistungsfähig, dabei sehr klein und wohl in der Regel auch leise.

Ob das nun genug Argumente sind, kann jeder frei entscheiden.

Das ist doch das schöne am Markt.

80% der Leute die hier pro/contra diskutieren schreiben sogar noch, das sie eine solche Karte (des Preises wegen) eh nicht kaufen.

Die neue hbm Technik sei Mist?

"360k Speicher sollten für alle Lebenslagen reichen."
"Wer braucht schon ein Telefon mit nur einem Knopf?"

"Wenn der Mensch schneller als 30km/h unterwegs ist stirbt er"

Freut euch über den Fortschritt, der nützt jedem was, egal ob sein Schal grün oder rot ist!

Aber Hauptsache was geschrieben ...
 
Zuletzt bearbeitet:
Tronx schrieb:
Ist die Fury eigentlich von der Blackscreen Krankheit befreit? Die 290x hatte ja leider damit Probleme, zumindest die mit dem Elpida Speicher.
Ahh der Sache mit den Blackscreens bin ich bei meiner alten HD5770 nie wirklich auf den Grund gekommen. Abhilfe war die Karte anstatt über DVI über VGA mit dem Monitor zu verbinden, da lief alles ohne Probleme. Bild war gleich (schlecht) auf dem Acer AL2216W, da hatt AMD bzw ASUS wohl gute Kondensatoren verwendet auf der 5770 für den VGA Anschluss.
Bin jetzt vor kurzem erst auf FHD/DVI gewechselt^^

zum Thema Fury:
Klarer Fall von meckern auf sehr hohem Niveau. Top Karte leider vieeel zu teuer :(
 
Zurück
Oben