Test Radeon R9 Fury im Test: AMDs kleiner Fiji von Sapphire perfekt interpretiert

http://www.anandtech.com/show/9421/the-amd-radeon-r9-fury-review-feat-sapphire-asus/17

Auch seh interessant wie Asus das Power Limit sehr konservativ angelegt hat. Bin mal gespannt ob es AMD schafft die Auslastung generell zu erhöhen, das muss das Ziel sein auch wenn die Aufnahme ansteigt. Wie viel Potential da bei vielen Karten da liegt zeigt auch Furmark. Da ziehen Karten oft viel mehr als in Game. Die Sapphire hier 70W mehr als ne ASUS.
Furmark scheint bei der Auslastung der GPU schon in ner eigenen Liga zu spielen.
 
Auweia, ist hier was los. :-D

Ich seh das etwas anders:

- die neuen Karten werden mit dem UVP positioniert, sind also noch gar nicht "eingepreist"
- sie sind durchweg gleichwertig mit den passenden NV-Karten
- mehr VRAM ist vorhanden
- Die Rohleistung ist viel höher, die z.b. Bitcoin-Mining
- selbst in manchen Spielen in der NV-Domaine (BS-Infinite) sind sie teilweise schneller
- Die Kühlleistung ist ziemlich gut im Vergleich zur 2xx Serie
- sie verbrauchen mehr Strom als die NVs, wobei allerdings die Rechenleistung erhöht wurde
- Die DP-Leistung ist verringert worden, hinsichtlich des Faktors DP:SP
- Es gibt in Deutschland nur 2 Pressemuster der Fury, aber jeder will mehr dazu sagen können :-D
- Overclocking ist wirklicht kein Thema, abseits der technischen Foren. Die meisten Benutzer nudeln ihre Rechner ab und kaufen sich dann was neues....
- Betatreiber nutzen auch kaum Leute, abseits der technischen Foren, denn die fassen kaum die Panels der Treiber an, sondern wollen "einfach spielen" oder "einfach benutzen". Ist übrigens im Mac-Lager viel höher ;)
 
Krautmaster schrieb:
(chip ist recht alt siehe HDMI 1.4)...

Nein, AMD erachtete HDMI 2.0 als zu unwichtig. An einer AMD Pressekonferenz wurde der Einsatz eines kommenden Adapters empfohlen (für die wenigen Fälle). Ausserdem gibt es bereits wieder HDMI 2.0a und HDMI 2.0 wird als Legacy betrachtet.
 
sauter schrieb:
Nein, AMD erachtete HDMI 2.0 als zu unwichtig. An einer AMD Pressekonferenz wurde der Einsatz eines kommenden Adapters empfohlen (für die wenigen Fälle). Ausserdem gibt es bereits wieder HDMI 2.0a und HDMI 2.0 wird als Legacy betrachtet.

Ich selber nutze nur HDMI. Somit ist es für mich wichtig.
Mit Adaptern arbeite ich nur, wenn es sein muss.
Dennoch ist es mager, eine teure Karte nicht mit dem aktuellen 2.0 auszurüsten.
 
Dumm nur, dass 2.0 nicht aktuell ist. Du wirst bei Schnittstellen häufig nicht die neueste Version haben - auch nicht bei NVIDIA.
 
Jesterfox schrieb:
... dann hat meine Fury also doch 8GB?
Ja & somit ist das Schandwort "VRAM-Krüppel" hinfällig ... ;-)
 
Nur um mal das Ganze HDMI 2.0 Thema komplett ad absurdum zu führen.

Laut Preisvergleich gibt es 56 4K-Monitore und alle unterstützen sie DP 1.2 wenn nicht sogar 1.2a und das ohne Ausnahme, selbst wenn der Monitor "nur" über HDMI 1.4 verfügt, besitzen dennoch All diese Monitore einen DP 1.2 Anschluss.


Guckt man sich nun im Abteil der " Fernseher" nach, gibt es etwa 500 4K Fernseher von denen etwa 1/3 nur über HDMI 1.4 Anschlüsse, der Rest verfügt über HDMI 2.0 und nur 6 Fernseher von Panasonic verfügen über DP 1.2 ( von denen keiner unter 3000€ beginnt^^)
verfügt.
Also sind diese komplett Spieleuntauglich da nur HDMI 1.4 ergo nur 30 Hz.
Dann bleiben noch schlechtere Panels sowie die höhere Reaktionszeit als Gegenargument.

Also ich bin der Ansicht, dass es schon seine Gründe hat warum man, als Zocker nicht auf jedem X-beliebigen Fernseher spielen kann.
Schließlich pendeln sich die Monitore mit 27" @ 4K sowie HDMI 2.0 UND DP 1.2 nicht aus Spaß in der höheren Preisregion (800€), wohingegen man einen günstigen Samsung UHD Fernseher schon für 500 € bekommt und den günstigsten 4K- Fernseher schon für 350 € :D
 
Zuletzt bearbeitet:
Naja die Karte ist i-wie nichts besonderes.
Habe auch nichts anderes erwartet.:o
 
sauter schrieb:
Nein, AMD erachtete HDMI 2.0 als zu unwichtig. An einer KO AMD Pressekonferenz wurde der Einsatz eines kommenden Adapters empfohlen (für die wenigen Fälle). Ausserdem gibt es bereits wieder HDMI 2.0a und HDMI 2.0 wird als Legacy betrachtet.
Selbst wenn AMD das behaupten wird denke ich dass das ein Nebeneffekt des Alters ist. Fiji wird so alt sein wie Tonga (GCN 1.2) oder gar älter. AMD kan da HDMI 2 nicht nachrüsten da der Display Controller in der GPU sitzt. Man kann sich sicher sein dass man das gern gemacht hätte sofern das möglich gewesen wäre. Das hat mit "überflüssig" oder "unwichtig" wenig zu tun...
 
Zuletzt bearbeitet:
HDMI 2.0 bringt bei Nvidia auch nicht wirklich was mangels HDCP 2.2.
Und DP 1.2 bieten beide. Der Anteil der Käufer, der wirklich (!) einen nativen HDMI 2.0 ohne HDCP 2.2 benötigt und nicht mit einem DP auskommt, dürfte verschwindend gering sein.
 
Zuletzt bearbeitet:
Jesterfox schrieb:
Shinigami: dann hat meine Fury also doch 8GB?

Anhang anzeigen 503042

Die zweiten 4GB sind über den PCIe zwar langsamer angebunden... aber sie sind verfügbar ;-)

Ja, wenn Du die dxdiag.txt speicherst:

Code:
     Display Memory: 7910 MB
   Dedicated Memory: 4070 MB
      Shared Memory: 3840 MB

Edit: Die 26 MB welche da von vollen 4096 MB fehlen, sind bestimmt für den Frame Buffer reserviert?
 
Zuletzt bearbeitet:
Corpheus schrieb:
Dauert mit Sicherheit nicht lange bis die Karte im Preis sinkt.

hoffentlich, ende des jahres soll ein pc zusammengestellt werden, am Notebook machts mittlerweile keinen spaß mehr...
wird definitiv ein thread für eröffnet =)
 
Cheatconsole schrieb:
Naja die Karte ist i-wie nichts besonderes.
Habe auch nichts anderes erwartet.:o

Absolut korrekt. Rein objektiv betrachtet im Rohzustand (ohne oc) etwas schneller als eine 980, jedoch auch teurer, da kann ich für mein Geld auch gleich custom Modelle in einer ähnlichen Preisregion mit +200 mhz der 980 kaufen. Diese Leistung stand mir schon lange vor der Fury zur verfügung. Zu spät AMD!

Die 980Ti ist preislich auch nicht weit entfernt, diese bietet klar mehr als eine Fury o Fury X, wobei natür hier teuerer als die Fury.

Im Kern kein schlechtes Produkt, jedoch wurde schon viel mit ner 980 abgegrast o 970. Wie schon längere Zeit bei AMD, sie bieten immer nur das 2 beste. Wenn ich jedoch die Wahl habe, nehme ich geren das 1 beste ^^. Für meine Spielerelevanz wäre das derzeit INTEL / NVIDIA
 
Zuletzt bearbeitet:
yummycandy schrieb:
- Overclocking ist wirklicht kein Thema, abseits der technischen Foren. Die meisten Benutzer nudeln ihre Rechner ab und kaufen sich dann was neues....

So wie ich das sehe, hat sich das Thema Overclocking durch die automatischen Turbo-Funktionen moderner GPUs (und CPUs) noch mehr in eine Bastler-Nische verschoben, als sowieso schon der Fall.

Wenn eine Grafikkarte heutzutage durchgängig hohes OC-Potential hat, dann heißt dass umgekehrt nur, dass der Hersteller die werksmäßige Turbofunktion falsch (zu vorsichtig) eingestellt hat. Normalerweise sollte eine GPU von sich aus immer so hoch takten, wie es Temperatur und Verbrauch hergeben (minus Sicherheitsabstand).


Zum Thema HDMI 2.0:

Als Monitoranschluss wird man das in aller Regel eh nicht brauchen. Dafür gibt es DisplayPort.

Allerdings ist es halt die moderne Form des Videoausgangs. Also ein Feature für die, die zusätzlich einen Fernseher an den PC anschließen wollen. Da 4K-Inhalte mit hohen Frameraten, HDR und Co. auf absehbare Zeit vor allem über den PC kommen werden, ist es da schon nicht ganz unwichtig, auf dem neusten Stand zu sein.
Nur sehe ich das bei solchen ausgesprochenen High-End-Gaming-Karten wie der Fury als nicht so wichtig an. Viel nützlicher ist ein aktueller HDMI-Ausgang (+ HDCP) an sparsamen/leisen Low-End-Grafikkarten, die man auch in HTPCs verbauen würde, und noch mehr bei APUs und iGPUs.

Ich werde jedenfalls keinen neuen HTPC anschaffen, solange nicht zumindest HDMI 2.0 unterstützt wird.
Bei meinem Gaming-PC ist es mir wurscht. :)
 
Zurück
Oben