Test Radeon R9 Fury im Test: AMDs kleiner Fiji von Sapphire perfekt interpretiert

Krautmaster schrieb:
Selbst wenn AMD das behaupten wird denke ich dass das ein Nebeneffekt des Alters ist. Fiji wird so alt sein wie Tonga (GCN 1.2) oder gar älter. AMD kan da HDMI 2 nicht nachrüsten da der Display Controller in der GPU sitzt. Man kann sich sicher sein dass man das gern gemacht hätte sofern das möglich gewesen wäre. Das hat mit "überflüssig" oder "unwichtig" wenig zu tun...

Warum hast du mich falsch zitiert? KO AMD? Habe nur AMD geschrieben.

Du solltest mal nachschlagen, wann HDMI 2.0 verabschiedet wurde. Ausserdem wurde es noch viel später verabschiedet als ursprünglich vorgesehen. Kann auch mit externem Chip gelöst werden, in der GPU ist aber allgemein die bessere Lösung.
 
Zuletzt bearbeitet:
Wenn falsch zitiert sry, vllt am Handy vertippelt ka. HDMI 2.0 ist schon länger verabschiedet, aber nicht so lange dass es zB für den GM204 gereicht hätte, oder auch für Tonga. Fiji dürfte aber älter als GM200 sein. Vermutlich schon lange fertig und vermutlich mal in 20nm geplant, wie Maxwell auch.

Die ersten Samples mit fertigen Specs wurden ja schon Okt/Nov 2014 verschickt und bei Messen dieses Jahr unter Verschluss genutzt. Ich denke eher dass HBM nicht ganz ready war und nicht in Stückzahl verfügbar. Auch dee Interposer ist ja neu...
 
@Mygeeto: Naja, so als ATi Fanboy muss ich schon sagen, dass mich die Furies bisher eher enttäuscht haben. So schmerzlich das auch sein mag. Es liegt vor allem daran, was AMD mal wieder alles NICHT gemacht hat.
HBM == Top. Fiji == Top. Verbrauch == nahh, OK. Frontend versorgt Backend nicht brauchbar == AHRGH!! Ihr .... !
So in etwa.
Wenn ich mir vorstelle, dass AMD tatsächlich mal mit Nvidia wieder den Boden "hätte wischen können", wenn das Frontend das Backend nicht ausbremsem (lt. Test) würde!!, dann ist dieses sich selbst im Weg stehen unverständlich und einfach nur traurig. Und das Rebranding der R9 2xx auf 3xx ist im besten Falle ein PR-Gag.
Dazu noch das undurchsichtige FreeSych gewurschtel, und ... ach lassen wir das.

Und da stehe ich nun und freue mich auf eine Nvidia Monokultur mit Mondpreisen und bei Intel ebenso, bei den CPUs sogar schon wieder.

Es ist zum Kotzen!
 
Die Preise für Fury X und Fury müssten um 100 € pro Karte runter um konkurrenzfähig zu sein. :(

Sonst kauft die Karten doch kein Mensch...
 
Zum Glück habe ich mir eine R9 390x OC geholt (guter Refresh), wahr doch die bessere Entscheidung als auf Fury zu setzten mit HBM Gen 1.
Freue mich aber auf HBM Gen 2.
 
Hopsekäse schrieb:
Wenn man weiß, dass wieder solch inhaltslose Antworten kommen, braucht man auch nicht die offensichtliche realitätsferne Ansicht schönreden. Dann kann man eine beschränkte Herangehensweise auch als solche benennen.[...] Die Grafikkarte macht locker über 80% des Gaming-Systems aus. In den meisten Szenarien kommt es sogar ganz allein auf ihre Leistung an. [...]Da kannst du noch so viel an meiner Wortwahl rumnörgeln, deine kaum vorhandenen und kurzsichtigen Inhalte werden dadurch nicht richtiger.

1. Du rechnest dir das P/L-V schön, denn der Preis bezieht sich auf die Komponenten alleine.
2. Dein Post wimmelt eigentlich nur von "dumm", beschränkt" und "inhaltsleer", lässt selbst aber jede Objektivität vermissen.
3. Nein. 80% ist Wunschdenken oder nur in Einzelfällen richtig. 300€ Graka zu 180€ CPU, jederzeit, allerdings gibt es mehr als nur einige Shooter und wenn du dann nach "80% Graka" gehst, machst du eine Fehlberatung. Strategie, Multi-Player etc. Tendenziell darf die Graka auch unterdimensioniert sein, denn die kann man später am einfachsten Aufrüsten.
4. Rechner baut man so: Ungefähres Budget, dann Anwendungen abklären und dann aus den jeweiligen Bereichen die Hardware am P/L-V auswählen, gerne ne SSD rein und ein hochwertiges Netzteil. Damit du es auch verstehst: Wenn eine R7 260X das beste P/L-V bieten sollte, bringt dir das nichts, wenn die Leistung insgesamt zu gering ist, ergo in höheren Bereichen schauen und auswählen. Und DANN fragt man, ob es dem anderen wert ist, eine Karte mit mehr Leistung für unverhältnismäßig mehr Geld zu kaufen.

Fall 1: Mehrpreis signifikant, ergo nicht drin
Fall 2: Mehrpreis marginal zum Gesamtsystem, ergo kann mans machen

=> Das ist der Unterschied.

@ nurfbold

Das eine (HDCP 2.2) ist der Kopierschutz für BluRays (ja, die im Gegensatz zur HD-DVD verbraucherfeindlicheren Dinger), ohne den das Abspielen auch an HDMI 2.0 nicht geht. HDMI 2.0 ist ein teurer Standard (also HDMI an sich, Lizenzkosten) und die Zahl definiert eigentlich, welche Auflösung mit welchen Hertz angesteuert werden kann. DP ist ein besserer Standard, wenn man so will und auch frei.

War es nicht so, dass nur die 960 HDCP 2.2 herrscht (irgendwo im Threat stand da mal was bzgl 980 (TI), dass es doch gehen könnte, aber ich finds nichtmehr), alle anderen Karten das nicht können? Ergo: BluRay kannst damit auch vergessen mit dem neuen Kopierschutz.
 
moshkopp schrieb:
Die Preise für Fury X und Fury müssten um 100 € pro Karte runter um konkurrenzfähig zu sein. :(

Sonst kauft die Karten doch kein Mensch...

Genau, darum ist die Fury X ja bei diversen Online-Händlern ausverkauft. Weil die kein Mensch kauft. :rolleyes:
 
Kreisverkehr schrieb:
War es nicht so, dass nur die 960 HDCP 2.2 herrscht (irgendwo im Threat stand da mal was bzgl 980 (TI), dass es doch gehen könnte, aber ich finds nichtmehr), alle anderen Karten das nicht können? Ergo: BluRay kannst damit auch vergessen mit dem neuen Kopierschutz.

jup hieß es mal, aber wie bereits gesagt meint Nvidia wohl neuerdings offiziell, dass auch der GM200 HDCP 2.2 unterstützt, zusammen mit dem GM206 der GTX960. Die GTX 980 / 970 mit GM204 können aber nur HDCP 2.0.
 
Nun gut, wenn tatsächlich die 980Ti und die Titan X auch HDCP 2.2 können, dann kann man das langsam als Argument heranziehen.
Allerdings bezweifle ich nach wie vor die große Relevanz, die allermeisten Spieler werden diese Karten per DP an einen ordentlichen Monitor anschließen und nicht gerade bei 4K unbedingt mehr als 30Hz über HDMI brauchen...
 
Irgendwie machen einige der Argumente hier keinen Sinn. Der Einführungspreis der GTX 980 TI lag vor gerade mal knapp einem Monat bei 740 Euro. Effektiv kostet sie zwischen 680 und 800 Euro.

Die Fury X wurde gerade erst eingeführt und kostet 699, ist also preislich in genau derselben Range. Über den effektiven Marktpreis der Fury-Versionen lässt sich aktuell noch gar nichts sagen. Sondern nur vermuten - und da würde ich zb eher von knapp 600 Euro ausgehen. In Punkto Preis / Leistung ist das immer noch sehr gut.

Als Anwender habe ich die Wahl, ob ich je nach Spiel maximale Framerate, eine unter Last sehr leise Karte (Fury X), im Idle sehr leise Karte (Fury) oder weniger Stromverbrauch (GTX 980 / TI) möchte. Wobei der Unterschied im Stromverbrauch auch erst unter Last wirklich nennenswert ist. 60W Differenz sind bei 2h Gaming am Tag etwas über 10 Euro / Jahr an Stromkosten. Ich nehme das für eine leisere Karte gerne in Kauf, bzw kann es je nach Netzteil selber noch beeinflussen.

Endlich mal wieder Auswahl, ist doch super!
 
marten_99 schrieb:
Aber das sind noch alte Chips, oder?
War das nicht so, daß die nicht mal Freesync unterstützen?

Shinigami1 schrieb:
Die Karte hat 4GB, die letzten 500MB sind nur langsamer angebunden. Das Leute das bis heute noch nicht verstehen ist mir ein Rätsel.
Die Karte ist effektiv eine 3,5GB Karte. Es ist völlig egal, ob da noch 0,5GB mehr drauf gelötet sind, die nicht performant verwendet werden können.
Ist mit ein Rätsel, daß es bis heute Leute gibt, die das nicht verstehen. ;)
 
@ UltraWurst

Nein, die alten Karten wie 7xx0 unterstützen kein FrySync, die "neuen" Karten der 200er Serie unterstützen es natürlich. Demnach kann die 280(X) als Rebrand der HD7000 das auch nicht, aber dafür die 290, 7790 (is ja ne neuere Karte), 285 und 260. Bei den 300er Rebrand isses einfacher, weil nur noch die 7870 Re-Re-branded wurde, ansonsten ist es "neu" und damit FrySync. 370 kanns halt nicht.
 
Boah ... kann dieses Gerebrande und Durcheinander-Gewürfel von Bezeichnungen und Chipsätzen nicht mal aufhören?
Das nervt echt total. Wer soll denn da noch den Überblick behalten?

Naja, also mal schauen ... vielleicht wird's ja dann echt demnächst ne AMD Karte.
Ich muss ganz ehrlich sagen, daß ich aus Gewohnheit lieber bei NVidia bleiben würde, aber solange die in der Leistungs- und Preisklasse der 970 keine 4GB Karte anbieten, können die mich mal.
 
Wolfgang schrieb:
AMD stellt die Radeon R9 Fury gegen die übertakteten GeForce GTX 980. Die Grafikkarte setzt wie die Fury X auf Fiji und 4 GB HBM-Speicher, taktet aber weniger hoch und ist beschnitten. Das macht im Alltag allerdings weniger aus als gedacht. Ein echtes Highlight ist die Version Tri-X OC von Sapphire.

Zum Test: Radeon R9 Fury im Test: AMDs kleiner Fiji von Sapphire perfekt interpretiert


...auch wenn da bei der interpretation des fiji eine soundkarte dringewesen ist.... wirkt die graka wie ein gut ausgeführtes handwerk... :cool_alt: ;)
 
Zuletzt bearbeitet:
UltraWurst schrieb:
Naja, also mal schauen ... vielleicht wird's ja dann echt demnächst ne AMD Karte.
Ich muss ganz ehrlich sagen, daß ich aus Gewohnheit lieber bei NVidia bleiben würde, aber solange die in der Leistungs- und Preisklasse der 970 keine 4GB Karte anbieten, können die mich mal.

Moment mal, AMD bietet der GTX 970 mit "4GB" die R9 390 mit 8 GB entgegen und die ist kaum teurer.
Im Gegenteil AMD bietet für denselben Preis mehr als doppelt soviel Speicher und was die Übertaktbarkeit betrifft, sollte man dem unten verlinkten Video glauben schenken, dann kann die Nvidia-Karte der R9 390 auch im OC nicht viel anhaben. Da ich OC miteinbeziehe, lasse ich den Stromverbrauch außen vor, eine GTX 970 bei 1400 MHz kann nicht effizient sein :D

Alternativ kann man zur R9 290 greifen hat zwar nur 4GB und etwas weniger Takt als die R9 390, kostet aber inzwischen fast nur noch 260 € Neu.

https://www.youtube.com/watch?v=k9cKZiJw6Pk


Edit: bezüglich der Effizienz der GTX 970, nach etwas Recherche bin ich dann doch etwas überrascht, dass der Sweetspot der Maxwell Karten Tatsächlich bei 1350 Mhz liegen soll^^
 
Zuletzt bearbeitet:
Nai schrieb:
Schon mal drauf gekommen, dass es Leute gibt die komplett andere Ansprüche als du haben beim Zocken?

Schon wahr, aber 4k ist wahrlich derzeit noch etwas...problematisch.
Denn Zocker mit WAHREN Ansprüchen neigen zum modden, z. B. mit ENB und dergleichen, bekanntestes Beispiel ist wohl Skyrim.
Also, ich behaupte mal, Skyrim mit 100+ Mods und allen grafischen Schikanen in 4K UND 120 HZ ist utopisch, es sei denn mit einem Gespann 980ti oder so. Aber mit ner Single kann man solche Ansprüche bislang nicht wirklich erfüllen.
Ärgerlicher als die "zu geringe" Leistung aktueller GraKas finde ich die das vollkommene Fehlen von 21:9 Monitoren mit 120 Hz, weder in 2560x1080 noch 3440x1440 ist auch nur ein 120Hz-Modell verfügbar, nur in 1440p und UHD/4k kriegt man die Dinger.
Aber gerade in 4K sind 120 HZ eher utopisch, in 3,5 (nur 5 statt 8 MP) schon weniger. Wenn die Industrie mehr auf 21:9 fokussieren würde, wären wir in Sachen Immersion schon weiter. Reine Auflösung ist nicht alles, das Format spielt eine nicht minder grosse Rolle.
Also, die Sapphire Fury wird definitv meine nächste, und in WQHD wird sie absolut rocken. Dann reichen auch die 4GB HBM.
Wer sich einen 4K Monitor holt, schafft sich auch erst mal eine Menge Probleme in Sachen Performance an.
Das ist es wohl, was der Kollege meinte... Seh ich ähnlich. 4k ist viel zu sehr gehyped, die Hardware zieht da einfach noch nicht optimal mit.
 
moshkopp schrieb:
Die Preise für Fury X und Fury müssten um 100 € pro Karte runter um konkurrenzfähig zu sein. :(

Sonst kauft die Karten doch kein Mensch...


Stimmt und die 980 GTXen 200€!
 
@Nai:

Jetzt mal was anderes, in Hinblick auf die"doppelte" Tonga in Form der Fury und angekündigte Fury X2, du bist doch so ein Speicher-Spezi:

1:
Ist es effektiver, einen doppelt so grossen Chip (Fury) zu verbauen, als zwei halb so grosse (2x R9 380)?
Da nur eine PCB vonnöten ist, können ja auch einzelne Teile eingespart werden, und die Kommunikation chipintern ist doch sicher auch besser, als bei zwei seperaten Chips?

2:
Wenn man zweimal 4GB Vram hat (Gespann), ergibt das noch lange nicht 8GB, richtig? Ich denke mal, es ist dann nur so effektiv, wie 4GB auf einer einzelnen Karte? D. h. die Fury X mit 4GB HBM könnte nicht mehr Speicher nutzen, als eine Fury X, oder kann man 4+4=8 rechnen? Nein, oder?
 
Zurück
Oben