Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen
Asus sabertooth 990fx keine Kompatibilitäts Probleme.
Ansonsten zum Glück ein leises Modell erwischt, Ohr an Grafikkarte und man hört das surren.
bei geschlossenen Gehäuse hört man es sogar wenn man direkt drangeht nicht mehr.
Ich hatte mit der FuryX auch erhebliche Probleme mit Uefi bei der Neuinstallation von Windows 8.1.
Wenn die FuryX Probleme doch nur irgendwelche Treiber-Probleme wären, aber so viele Probleme und Ausnahmen die man beachten muß und der Aufwand bis man ein ordentliches Modell hat, ist für mich echt nicht akzeptabel.
Ja teilweise echt übel was man so liest.
Wäre die laut gewesen hätte ich einmal Umtauschen mitgemacht und dann wäre es wohl ne 980ti geworden.
Obwohl ich dann mitn Dremel das Gehäuse hätte anpassen müssen; -)
Ein grandioser Test mit sehr vielen Details und einer bis zum Schluss bewahrten Objektivität! Ich verstehe aber absolut nicht, weshalb AMD oft so "kämpfen" muss. Beinahe stetig bringen sie gute innovative Veränderungen bei der Technik auf den Markt und dann bleibt es bei einem wenn überhaupt nur marginalen Leistungsvorsprung zur Konkurrenz. Ich vermisse die (guten) alten Zeiten, wo neue Grafikkarten die konkurrierenden Modelle derart deklassierten, dass einem Neukauf, eben dieser neuen Generation bzw. Revision, nichts widersprach. Die R9 Fury werde ich mir sicherlich nicht zulegen. HBM-Speicher hin oder her.
Das Problem ist das AMD keine Marktanteile hat und deshalb kaum ein Spielentwickler die Zeit=Geld aufbringt auf deren Technik zu optimieren. Dabei schießen sich die Entwickler aber selbst ins Knie denn die Hardware wird immer teurer und es bleibt immer weniger Geld für Spiele übrig.
Da kann man (leider) nur zustimmen. AMD ist momentan in einer Sackgasse und das ist absolut nicht übertrieben gemeint.
Ergänzung ()
ampre schrieb:
Das Problem ist das AMD keine Marktanteile hat und deshalb kaum ein Spielentwickler die Zeit=Geld aufbringt auf deren Technik zu optimieren. Dabei schießen sich die Entwickler aber selbst ins Knie denn die Hardware wird immer teurer und es bleibt immer weniger Geld für Spiele übrig.
Zumindest kann man sagen, dass AMD frischen Wind in die Entwicklung von APIs wie Mantle, DirectX12 und CO. gebracht hat. Konkurrenz ist halt immer gut, da der Druck erhöht wird.
Laut golem.de ergibt sich jedoch gleichzeitig folgendes Zitat: ,,In den nächsten Monaten werden zwar weitere Spiele mit Mantle-Unterstützung ausgeliefert, schon heute priorisiert AMD aber Direct3D 12 und Vulkan bei der Treiber-Entwicklung."
Wer heute kauft will heute die Leistung und Futures haben die er bezahlt hat. Dieses reden irgendwann wenn Neue Treiber kommen, wenn DX12 kommt usw. wird alles besser bringt doch nichts. Haben wir schon oft genug gehört und noch lange nicht alles was wir da erzählt bekommen tritt auch ein. Selbst ein AMD Manager in einem Interview letzte Woche hat angedeutet das Mantle tot ist.
Wenn es um DX12 und Treiber optimieren geht dann kann NVidia das genauso machen und evtl. sind die schneller mit so etwas.
Das ist vor allem mal wieder ne irreführende Headline... von einer direkten Empfehlung ist im original Post nichts zu lesen und vor allem wird DX12 und Vulkan (Open GL Next) gleichwertig erwähnt. Und Vulkan = Mantle für alle. Durch das aufgreifen von Mantle durch die Kronos Group als Basis für OpenGL Next hat sich einfach einiges geändert und insgesamt betrachtet ist es eine positive Entwicklung für alle.
Ja, das sehe ich genauso. Interessant ist aber wie AMD laut dem Artikel, die Mantle-Technologie weiter vorantreiben möchte, ohne dabei direkt mit DirectX 12 und OpenGL Next zu konkurrieren. Im Petto hätten die ja auf jeden Fall noch ihre FirePro Workstation GPUs. - Sicherlich könnte AMD da im wissenschaftlichen Bereich mitwirken, wenn sie eben auch nicht nur auf ein erhöhtes Draw-Call mittels der Mantle API setzten möchte. AMD will angeblich auch weitere Innovationen mit einfließen lassen. Spannend bleibt es also allemal.
Das kann Nvidia besonders gut. GTX 680, 770, 780, 780Ti alle Schrott, weil die in der heutigen Zeit nichts mehr taugen. Und das wo man für 5-15% mehr Leistung 100-200 Euro drauf gelegt hat im Vergleich zur Konkurrenz.
Das kann Nvidia besonders gut. GTX 680, 770, 780, 780Ti alle Schrott, weil die in der heutigen Zeit nichts mehr taugen. Und das wo man für 5-15% mehr Leistung 100-200 Euro drauf gelegt hat im Vergleich zur Konkurrenz.
Ich hab mir damals z.B. meine 780 mit 6GB geholt weil jede 290 die ich in die Hände bekommen hab diverse Probleme hatte, von Linien auf dem Bildschirm dank instabilen Takt über Bluescreens bei Flash, Blackscreen bei Spielen oder Grafikfehlern dank kaputtem Vram. Da hab ich die € mehr dankend ausgegeben weil die Karte auf Anhieb lief... Im Zweifel trifft man eh die falsche Entscheidung.
Das kann Nvidia besonders gut. GTX 680, 770, 780, 780Ti alle Schrott, weil die in der heutigen Zeit nichts mehr taugen. Und das wo man für 5-15% mehr Leistung 100-200 Euro drauf gelegt hat im Vergleich zur Konkurrenz.
Das war schon immer so und wird sich so schnell auch nicht ändern.
Man investierte deutlich mehr Geld in eine nVidia für paar % Mehrleistung gegenüber der Konkurenz von AMD zum Release. Allerspätestens 1 Jahr später schaut man als nVidia Besitzer auf die damalige Konkurenz, die immer besser performt und davonzieht.
Wenn man zukunftssicher GPU kaufen will, führt kein Weg an AMD vorbei.
Ich hab endlich n Bild mit der Fury wenn sie im Intel System steckt. lag schlussendlich nicht am Board sondern am HDMI in Verbindung mit dem AVR. ich bekomm erst ein Bild wenn Windows gestartet ist und auf FullHD steht. Das klappte Anfangs nicht weil noch der Grafiktreiber fehlte... fürs UEFI muss ich jetzt halt immer meinen Dell Monitor durch die Gegend schleppen... das klappt nicht am TV.
Edit: da sag mal noch einer 4K Gaming wär noch Zukunft ;-)
...
Ich hab endlich n Bild mit der Fury wenn sie im Intel System steckt. lag schlussendlich nicht am Board sondern am HDMI in Verbindung mit dem AVR. ich bekomm erst ein Bild wenn Windows gestartet ist und auf FullHD steht. Das klappte Anfangs nicht weil noch der Grafiktreiber fehlte... fürs UEFI muss ich jetzt halt immer meinen Dell Monitor durch die Gegend schleppen... das klappt nicht am TV...