Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

Asus sabertooth 990fx keine Kompatibilitäts Probleme.
Ansonsten zum Glück ein leises Modell erwischt, Ohr an Grafikkarte und man hört das surren.
bei geschlossenen Gehäuse hört man es sogar wenn man direkt drangeht nicht mehr.

https://youtu.be/QFgo24wcheA
 
Ich hatte mit der FuryX auch erhebliche Probleme mit Uefi bei der Neuinstallation von Windows 8.1.

Wenn die FuryX Probleme doch nur irgendwelche Treiber-Probleme wären, aber so viele Probleme und Ausnahmen die man beachten muß und der Aufwand bis man ein ordentliches Modell hat, ist für mich echt nicht akzeptabel.
 
Ja teilweise echt übel was man so liest.
Wäre die laut gewesen hätte ich einmal Umtauschen mitgemacht und dann wäre es wohl ne 980ti geworden.
Obwohl ich dann mitn Dremel das Gehäuse hätte anpassen müssen; -)
 
Ein grandioser Test mit sehr vielen Details und einer bis zum Schluss bewahrten Objektivität! :daumen: Ich verstehe aber absolut nicht, weshalb AMD oft so "kämpfen" muss. Beinahe stetig bringen sie gute innovative Veränderungen bei der Technik auf den Markt und dann bleibt es bei einem wenn überhaupt nur marginalen Leistungsvorsprung zur Konkurrenz. Ich vermisse die (guten) alten Zeiten, wo neue Grafikkarten die konkurrierenden Modelle derart deklassierten, dass einem Neukauf, eben dieser neuen Generation bzw. Revision, nichts widersprach. Die R9 Fury werde ich mir sicherlich nicht zulegen. HBM-Speicher hin oder her. :o
 
Zuletzt bearbeitet: (Link)
Das Problem ist das AMD keine Marktanteile hat und deshalb kaum ein Spielentwickler die Zeit=Geld aufbringt auf deren Technik zu optimieren. Dabei schießen sich die Entwickler aber selbst ins Knie denn die Hardware wird immer teurer und es bleibt immer weniger Geld für Spiele übrig.

Schau dir mal die Benchmarks von Mantle an wo die Hersteller optimieren mussten um mal mit dabei sein zu beim API Hype.
http://www.golem.de/news/grafikkart...mantle-schnittstelle-flotter-1507-115005.html

Da ist Fury ganz stark und es wurde noch nicht mal richtig optimiert.
 
Nur ist Mantle tot und Directx12 und Vulcan werden auch auf Nvidia laufen, damit ist der Vorteil auch gegessen.
 
Da kann man (leider) nur zustimmen. AMD ist momentan in einer Sackgasse und das ist absolut nicht übertrieben gemeint.
Ergänzung ()

ampre schrieb:
Das Problem ist das AMD keine Marktanteile hat und deshalb kaum ein Spielentwickler die Zeit=Geld aufbringt auf deren Technik zu optimieren. Dabei schießen sich die Entwickler aber selbst ins Knie denn die Hardware wird immer teurer und es bleibt immer weniger Geld für Spiele übrig.

Schau dir mal die Benchmarks von Mantle an wo die Hersteller optimieren mussten um mal mit dabei sein zu beim API Hype.
http://www.golem.de/news/grafikkart...mantle-schnittstelle-flotter-1507-115005.html

Da ist Fury ganz stark und es wurde noch nicht mal richtig optimiert.

Zumindest kann man sagen, dass AMD frischen Wind in die Entwicklung von APIs wie Mantle, DirectX12 und CO. gebracht hat. Konkurrenz ist halt immer gut, da der Druck erhöht wird.

Laut golem.de ergibt sich jedoch gleichzeitig folgendes Zitat: ,,In den nächsten Monaten werden zwar weitere Spiele mit Mantle-Unterstützung ausgeliefert, schon heute priorisiert AMD aber Direct3D 12 und Vulkan bei der Treiber-Entwicklung."
 
Igoo schrieb:
Nur ist Mantle tot und Directx12 und Vulcan werden auch auf Nvidia laufen, damit ist der Vorteil auch gegessen.

Das schon, aber die Hoffnung ist, dass AMDs Chips besser performen.
 
Wer heute kauft will heute die Leistung und Futures haben die er bezahlt hat. Dieses reden irgendwann wenn Neue Treiber kommen, wenn DX12 kommt usw. wird alles besser bringt doch nichts. Haben wir schon oft genug gehört und noch lange nicht alles was wir da erzählt bekommen tritt auch ein. Selbst ein AMD Manager in einem Interview letzte Woche hat angedeutet das Mantle tot ist.

Wenn es um DX12 und Treiber optimieren geht dann kann NVidia das genauso machen und evtl. sind die schneller mit so etwas.
 
Das ist vor allem mal wieder ne irreführende Headline... von einer direkten Empfehlung ist im original Post nichts zu lesen und vor allem wird DX12 und Vulkan (Open GL Next) gleichwertig erwähnt. Und Vulkan = Mantle für alle. Durch das aufgreifen von Mantle durch die Kronos Group als Basis für OpenGL Next hat sich einfach einiges geändert und insgesamt betrachtet ist es eine positive Entwicklung für alle.
 
Igoo schrieb:

Ja, das sehe ich genauso. Interessant ist aber wie AMD laut dem Artikel, die Mantle-Technologie weiter vorantreiben möchte, ohne dabei direkt mit DirectX 12 und OpenGL Next zu konkurrieren. Im Petto hätten die ja auf jeden Fall noch ihre FirePro Workstation GPUs. - Sicherlich könnte AMD da im wissenschaftlichen Bereich mitwirken, wenn sie eben auch nicht nur auf ein erhöhtes Draw-Call mittels der Mantle API setzten möchte. AMD will angeblich auch weitere Innovationen mit einfließen lassen. Spannend bleibt es also allemal. :D
 
MikelMolto schrieb:
Wer heute kauft will heute die Leistung und Futures haben die er bezahlt hat.

Das kann Nvidia besonders gut. GTX 680, 770, 780, 780Ti alle Schrott, weil die in der heutigen Zeit nichts mehr taugen. Und das wo man für 5-15% mehr Leistung 100-200 Euro drauf gelegt hat im Vergleich zur Konkurrenz.
 
@Jesterfox

Nichts. Mit solchen Ansagen kann man das Projekt stilllegen, ohne das Gesicht zu verlieren.
 
tic-tac-toe-x-o schrieb:
Das kann Nvidia besonders gut. GTX 680, 770, 780, 780Ti alle Schrott, weil die in der heutigen Zeit nichts mehr taugen. Und das wo man für 5-15% mehr Leistung 100-200 Euro drauf gelegt hat im Vergleich zur Konkurrenz.

Ich hab mir damals z.B. meine 780 mit 6GB geholt weil jede 290 die ich in die Hände bekommen hab diverse Probleme hatte, von Linien auf dem Bildschirm dank instabilen Takt über Bluescreens bei Flash, Blackscreen bei Spielen oder Grafikfehlern dank kaputtem Vram. Da hab ich die € mehr dankend ausgegeben weil die Karte auf Anhieb lief... Im Zweifel trifft man eh die falsche Entscheidung.
 
tic-tac-toe-x-o schrieb:
Das kann Nvidia besonders gut. GTX 680, 770, 780, 780Ti alle Schrott, weil die in der heutigen Zeit nichts mehr taugen. Und das wo man für 5-15% mehr Leistung 100-200 Euro drauf gelegt hat im Vergleich zur Konkurrenz.
Das war schon immer so und wird sich so schnell auch nicht ändern.
Man investierte deutlich mehr Geld in eine nVidia für paar % Mehrleistung gegenüber der Konkurenz von AMD zum Release. Allerspätestens 1 Jahr später schaut man als nVidia Besitzer auf die damalige Konkurenz, die immer besser performt und davonzieht.
Wenn man zukunftssicher GPU kaufen will, führt kein Weg an AMD vorbei.
 
Houston? We've got contact...


Ich hab endlich n Bild mit der Fury wenn sie im Intel System steckt. lag schlussendlich nicht am Board sondern am HDMI in Verbindung mit dem AVR. ich bekomm erst ein Bild wenn Windows gestartet ist und auf FullHD steht. Das klappte Anfangs nicht weil noch der Grafiktreiber fehlte... fürs UEFI muss ich jetzt halt immer meinen Dell Monitor durch die Gegend schleppen... das klappt nicht am TV.


Edit: da sag mal noch einer 4K Gaming wär noch Zukunft ;-)

FFXIV-4K.jpg
 
Zuletzt bearbeitet:
Jesterfox schrieb:
...
Ich hab endlich n Bild mit der Fury wenn sie im Intel System steckt. lag schlussendlich nicht am Board sondern am HDMI in Verbindung mit dem AVR. ich bekomm erst ein Bild wenn Windows gestartet ist und auf FullHD steht. Das klappte Anfangs nicht weil noch der Grafiktreiber fehlte... fürs UEFI muss ich jetzt halt immer meinen Dell Monitor durch die Gegend schleppen... das klappt nicht am TV...

Bekommt der Monitor am HDMI-Anschluß ein Bild vom Bios/UEFI? Wenn ja, wieso klappt es dann nicht am Fernseher?
 
Zuletzt bearbeitet:
Zurück
Oben