Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen
Kyuss89
Lieutenant
- Registriert
- Jan. 2014
- Beiträge
- 598
t3chn0 schrieb:Naja, der Zeit voraus ist immer relativ. Man bietet HBM, kann diesen aber nicht in Leistung umsetzen. Zumindest nicht so wie erwartet.
Dazu bietet man nur DX 12 mit FeatureLVL 12_0, anstelle 12_1 wie bei Nvidia. Anstatt HDMI 2.0 für 4K@60Hz, bietet man nur HDMI 1.4a für 4K@30Hz.
Also soooo viel fortschrittlicher ist das jetzt auch noch nicht.
Das DX12 Feature Level ist relativ unbedeutend, da die Konsolen auch "nur" das Feature Level 12_0 haben. Der Spieß war meine ich auch mal herum gedreht, da hatte AMD ein "höheres" Feature Level. Was hats genützt? Gar nichts!
Mit dem HDMI geb ich dir Recht das ist nicht so fein.
deathscythemk2
Commander
- Registriert
- Jan. 2013
- Beiträge
- 2.430
@laurooon
Ist eine Frage des Anschlusses. Ich bezweifle, dass die 780 einen HDMI 2.0 Anschluss hat.
Ist eine Frage des Anschlusses. Ich bezweifle, dass die 780 einen HDMI 2.0 Anschluss hat.
deathscythemk2 schrieb:@laurooon
Ist eine Frage des Anschlusses. Ich bezweifle, dass die 780 einen HDMI 2.0 Anschluss hat.
Nein, das stimmt. Aber ich kann trotzdem aus ihr 4K bei 60Hz herauskitzeln. Nvidia hat dazu einen Treiber gebracht. Sie tricksen dafür aber mit der Farbpalette, da diese leicht reduziert wird.
Schaue dies: http://www.hardwareluxx.de/index.ph...-nvidia-ermoeglicht-4k60hz-ueber-hdmi-14.html
deathscythemk2
Commander
- Registriert
- Jan. 2013
- Beiträge
- 2.430
"Wer nun aber sein HDMI-Display als PC-Monitor bei 4K@60Hz betreiben möchte, der wird keine Freude daran haben, denn eine Betriebssystemoberfläche mit pixel- und farbgenauem Rendering verliert zu deutlich an Qualität, als dass dies die Darstellung mit 60 Hz wieder wettmachen würde."
Wo soll also der Sinn darin sein? Standards gibt es nicht umsonst, da halte ich nichts von den Frickellösungen.
Wo soll also der Sinn darin sein? Standards gibt es nicht umsonst, da halte ich nichts von den Frickellösungen.
Aber es geht, was du nun zugeben wirst?
Ich habe einen guten TV und ich sehe bei 4K diesen "deutlichen Qualitätsverlust" nicht. Vermutlich liegt das daran, dass der TV selbst das eingehende Signal nochmal nachbereitet und wieder zurechthübscht. Keine Ahnung. Jedenfalls sieht 4k@60Hz bei mir sehr gut aus. Ich kann mit der GTX780 natürlich nur ältere Spiele auf so einer Auflösung spielen. Z.B. spiele ich gerade Command and Conquer RA3 und es sieht einfach Hammer aus in 4K auf der Glotze. Schade, das ich bei Anno 1404 diese Auflösung nicht wählen kann, das wäre klasse!
Ich habe einen guten TV und ich sehe bei 4K diesen "deutlichen Qualitätsverlust" nicht. Vermutlich liegt das daran, dass der TV selbst das eingehende Signal nochmal nachbereitet und wieder zurechthübscht. Keine Ahnung. Jedenfalls sieht 4k@60Hz bei mir sehr gut aus. Ich kann mit der GTX780 natürlich nur ältere Spiele auf so einer Auflösung spielen. Z.B. spiele ich gerade Command and Conquer RA3 und es sieht einfach Hammer aus in 4K auf der Glotze. Schade, das ich bei Anno 1404 diese Auflösung nicht wählen kann, das wäre klasse!
W
Wolfsrabe
Gast
Versucht mal bitte sachlich zu bleiben:
Ich laufe gerade Gefahr, 144Hz und 144 FPS durcheinanderzubringen, aber verstehe ich das richtig, daß bei einem 144Hz Monitor auch 144 FPS ideal wären? Und bei weniger Frames würden Free-Sync / G-Sync die Bildung von Schlieren verhindern?
Dann frage ich mich aber weiterhin: Wenn 144 FPS dennoch gewollt sind, sollten sowohl AMD als auch nvidia sich nicht zukünftig mal vernünftig um das Spulenfiepen kümmern? Ich meine es kann ja nicht sein, daß es da keine simple technische Lösung gibt, um das wegzubekommen. Immerhin gibt es auch Zocker mit Haustieren und die haben gewöhnlicherweise ein noch empfindlicheres Gehör. Die kriegen doch 'ne Macke!
Ich laufe gerade Gefahr, 144Hz und 144 FPS durcheinanderzubringen, aber verstehe ich das richtig, daß bei einem 144Hz Monitor auch 144 FPS ideal wären? Und bei weniger Frames würden Free-Sync / G-Sync die Bildung von Schlieren verhindern?
Dann frage ich mich aber weiterhin: Wenn 144 FPS dennoch gewollt sind, sollten sowohl AMD als auch nvidia sich nicht zukünftig mal vernünftig um das Spulenfiepen kümmern? Ich meine es kann ja nicht sein, daß es da keine simple technische Lösung gibt, um das wegzubekommen. Immerhin gibt es auch Zocker mit Haustieren und die haben gewöhnlicherweise ein noch empfindlicheres Gehör. Die kriegen doch 'ne Macke!
Das Spulenfiepen fängt bei mir erst deutlich jenseits der 200fps an. Davor höre ich nichts. Da ich mit 60Hz und Vsync spiele, tangiert mich das Problem zum Glück null.
Ich verstehe es aber auch so wie du. Ein 144Hz Display kann bis zum 144fps darstellen, was natürlich ideal wäre. Wenn es weniger als 144fps sind, versucht Nsynch das sog "tearing" zu vermeiden. Inwieweit das klappt, weiß ich nicht, da ich noch kein 144Hz Display getestet habe.
Ich verstehe es aber auch so wie du. Ein 144Hz Display kann bis zum 144fps darstellen, was natürlich ideal wäre. Wenn es weniger als 144fps sind, versucht Nsynch das sog "tearing" zu vermeiden. Inwieweit das klappt, weiß ich nicht, da ich noch kein 144Hz Display getestet habe.
Zuletzt bearbeitet:
Kreisverkehr
Commander
- Registriert
- Juni 2008
- Beiträge
- 2.929
r4yn3 schrieb:Oder liegt es hautptsächlich an den ROPs dass die Shader nicht besser ausgelastet werden? Sind ROPs Teil vom Frontend?
Wenn ich nichts verwechsle, dann sind die ROPs im Front- und die TMUs im Back-End. Is aber egal, limitiert doch eh beides. Dafür spricht auch, dass, je höher die Auflösung ist, desto besser steht Fiji dar.
Und zum Thema 144 Hertz:
Ich hab leider keine praktischen Erfahrungen, aber es wird immer geschrieben, dass in 2D und abseits von Spielen bei allem die Frquenz weit besser als die alten 60 Hz sein sollen und daher Spiele nur ein Randthema seien. Klar, mit nem 144 Hz Monitor gibts bei 60+ fps keine Schlieren oder Tearing oder sonstwas, aber wenns weit runter geht, gibts ja FreeSync.
Ich habe mal eine Frage zur Doppelkern-Fiji. Schaut euch dieses Bild an:
https://www.computerbase.de/news/gr...gt-dual-fiji-grafikloesung-zur-e3-2015.50174/
Wie zu sehen ist die Grafikkarte ähnlich klein, wie die Fury X. Meint ihr, dass sie auch ähnlich laut sein wird? Es werden ja keine 2 Kühler hierfür vorgesehen sein, oder?
https://www.computerbase.de/news/gr...gt-dual-fiji-grafikloesung-zur-e3-2015.50174/
Wie zu sehen ist die Grafikkarte ähnlich klein, wie die Fury X. Meint ihr, dass sie auch ähnlich laut sein wird? Es werden ja keine 2 Kühler hierfür vorgesehen sein, oder?
Nai
Lt. Commander
- Registriert
- Aug. 2012
- Beiträge
- 1.580
Könnte man zum Thema Bandbreite nicht mal das VRAM Tool von Nai auf der Fury laufen lassen um den Durchsatz zu messen?
...oder klappt das nur mit cuda?
Ist denke ich am einfachsten irgendein X-beliebiges OpenCL DRAM-Bandbreitenbenchmark zu verwenden. Hier hat sich zum Beispiel mal jemand im Speziellen die Mühe gemacht mein Benchmark nach OpenCL zu portieren:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10500793&postcount=1408
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
laurooon schrieb:Wie zu sehen ist die Grafikkarte ähnlich klein, wie die Fury X. Meint ihr, dass sie auch ähnlich laut sein wird? Es werden ja keine 2 Kühler hierfür vorgesehen sein, oder?
Es wird fast doppelt so viel Wärme anfallen, und die muss weg. Ich gehe mal davon aus, dass die Dual-Fiji-Karte mit einem anderen Radiator und zwei Lüftern kommen wird. Entweder ein 240mm-Radiator, oder wahrscheinlicher ein dickerer 120er mit Lüftern in Push-Pull-Anordnung, weil es weniger problematisch ist, dafür einen passenden Platz im Gehäuse zu finde.
Beides ist theoretisch lauter als bei der Fury X, aber wenn die Kühlung der Dual-Fiji entsprechend "überdimensioniert" ausfällt, könnte es sogar leiser sein. Das hängt einfach davon ab, wie schnell die Lüfter drehen müssen, um die Temperatur unten zu halten.
Kreisverkehr schrieb:Klar, mit nem 144 Hz Monitor gibts bei 60+ fps keine Schlieren oder Tearing oder sonstwas, aber wenns weit runter geht, gibts ja FreeSync.
Falsch. Die 60FPS Grenze ist eben nur bei 60Hz Monitoren relevant. Bei einem 144Hz Monitor kann es auch mit 60+ FPS noch Schlieren oder Tearing geben, da aber die Anzeigedauer der Schlieren resp. Tearing kürzer wird, je schneller der Monitor ist, fällts nicht mehr so auf. G-Sync oder Freesync ist bei einem 144Hz Monitor aktiv, sobald die FPS die 144 unterschreiten, sonst würde das ja keinen Sinn machen. Bei einem 60Hz G-Sync/Freesync Monitor ist es eben analog unter 60FPS aktiv.
Herdware schrieb:Es wird fast doppelt so viel Wärme anfallen, und die muss weg. Ich gehe mal davon aus, dass die Dual-Fiji-Karte mit einem anderen Radiator und zwei Lüftern kommen wird. Entweder ein 240mm-Radiator, oder wahrscheinlicher ein dickerer 120er mit Lüftern in Push-Pull-Anordnung, weil es weniger problematisch ist, dafür einen passenden Platz im Gehäuse zu finde.
Beides ist theoretisch lauter als bei der Fury X, aber wenn die Kühlung der Dual-Fiji entsprechend "überdimensioniert" ausfällt, könnte es sogar leiser sein. Das hängt einfach davon ab, wie schnell die Lüfter drehen müssen, um die Temperatur unten zu halten.
Ich habe mir halt die 295X2 angeschaut, da ging es ja auch mit einer einfachen Kühllösung:
http://www.hardwareheaven.com/reviewimages/amd-radeon-r9-295-x2/amd-radeon-r9-295-x2_cooler.jpg
Ich habe gehofft, dass die FuryX2 vielleicht auch ähnlich aussehen würde. Aber OK, warten wir es mal ab.
Ergänzung ()
AnkH schrieb:Falsch. Die 60FPS Grenze ist eben nur bei 60Hz Monitoren relevant. Bei einem 144Hz Monitor kann es auch mit 60+ FPS noch Schlieren oder Tearing geben, da aber die Anzeigedauer der Schlieren resp. Tearing kürzer wird, je schneller der Monitor ist, fällts nicht mehr so auf. G-Sync oder Freesync ist bei einem 144Hz Monitor aktiv, sobald die FPS die 144 unterschreiten, sonst würde das ja keinen Sinn machen. Bei einem 60Hz G-Sync/Freesync Monitor ist es eben analog unter 60FPS aktiv.
Also kann man sagen, dass man tearingfreie FPS bekommt? Bei jeder Framezahl von 1-144. Das ist natürlich Sahne.
Karre
Retro-PC Admiral
- Registriert
- Apr. 2010
- Beiträge
- 8.464
Ihr müsst mir mal erklären, was ihr mit hdmi 2.0 und zocken wollt.
Es gibt genau eine Karte auf dem Markt die hdmi 2.0 hat : NVIDIA 960
Wer nun hdmi 2.0 als kaufargument für ne 980/980ti anführt ist nicht ernst zu nehmen.
Ich versteh generell diese ganzen Diskussionen nicht.
Kauft was ihr wollt und hört auf jeden zu missionieren! Das ist doch nicht normal.
Dacia wollt ihr auch nicht fahren, kauft lieber den viel zu teuren Audi.
Kauft marken, statt Budget
Aber hier wird immer ein Grabenkrieg inszeniert der völlig am Thema vorbeigeht...
Schaltet mal euer Gehirn auf Objektivität!
Ich find gut was AMD hier abgeliefert hat weil:
Karte ist unheimlich Leistungsfähig, dabei sehr klein und wohl in der Regel auch leise.
Ob das nun genug Argumente sind, kann jeder frei entscheiden.
Das ist doch das schöne am Markt.
80% der Leute die hier pro/contra diskutieren schreiben sogar noch, das sie eine solche Karte (des Preises wegen) eh nicht kaufen.
Die neue hbm Technik sei Mist?
"360k Speicher sollten für alle Lebenslagen reichen."
"Wer braucht schon ein Telefon mit nur einem Knopf?"
"Wenn der Mensch schneller als 30km/h unterwegs ist stirbt er"
Freut euch über den Fortschritt, der nützt jedem was, egal ob sein Schal grün oder rot ist!
Aber Hauptsache was geschrieben ...
Es gibt genau eine Karte auf dem Markt die hdmi 2.0 hat : NVIDIA 960
Wer nun hdmi 2.0 als kaufargument für ne 980/980ti anführt ist nicht ernst zu nehmen.
Ich versteh generell diese ganzen Diskussionen nicht.
Kauft was ihr wollt und hört auf jeden zu missionieren! Das ist doch nicht normal.
Dacia wollt ihr auch nicht fahren, kauft lieber den viel zu teuren Audi.
Kauft marken, statt Budget
Aber hier wird immer ein Grabenkrieg inszeniert der völlig am Thema vorbeigeht...
Schaltet mal euer Gehirn auf Objektivität!
Ich find gut was AMD hier abgeliefert hat weil:
Karte ist unheimlich Leistungsfähig, dabei sehr klein und wohl in der Regel auch leise.
Ob das nun genug Argumente sind, kann jeder frei entscheiden.
Das ist doch das schöne am Markt.
80% der Leute die hier pro/contra diskutieren schreiben sogar noch, das sie eine solche Karte (des Preises wegen) eh nicht kaufen.
Die neue hbm Technik sei Mist?
"360k Speicher sollten für alle Lebenslagen reichen."
"Wer braucht schon ein Telefon mit nur einem Knopf?"
"Wenn der Mensch schneller als 30km/h unterwegs ist stirbt er"
Freut euch über den Fortschritt, der nützt jedem was, egal ob sein Schal grün oder rot ist!
Aber Hauptsache was geschrieben ...
Zuletzt bearbeitet:
D
Darkmord1991
Gast
Laut Geizhals haben folgende Karten HDMI 2.0:
http://geizhals.de/?cat=gra16_512&xf=135_HDMI+2.0#xf_top
Das sind die:
980 TI
980
960
970
Titan X
http://geizhals.de/?cat=gra16_512&xf=135_HDMI+2.0#xf_top
Das sind die:
980 TI
980
960
970
Titan X
cele
Lieutenant
- Registriert
- Jan. 2015
- Beiträge
- 605
Ahh der Sache mit den Blackscreens bin ich bei meiner alten HD5770 nie wirklich auf den Grund gekommen. Abhilfe war die Karte anstatt über DVI über VGA mit dem Monitor zu verbinden, da lief alles ohne Probleme. Bild war gleich (schlecht) auf dem Acer AL2216W, da hatt AMD bzw ASUS wohl gute Kondensatoren verwendet auf der 5770 für den VGA Anschluss.Tronx schrieb:Ist die Fury eigentlich von der Blackscreen Krankheit befreit? Die 290x hatte ja leider damit Probleme, zumindest die mit dem Elpida Speicher.
Bin jetzt vor kurzem erst auf FHD/DVI gewechselt^^
zum Thema Fury:
Klarer Fall von meckern auf sehr hohem Niveau. Top Karte leider vieeel zu teuer
Ähnliche Themen
- Antworten
- 416
- Aufrufe
- 52.779