Test Radeon R9 Fury im Test: AMDs kleiner Fiji von Sapphire perfekt interpretiert

Krulemuk schrieb:
Klingt interessant. Wenn die Karte jetzt noch um ca. 70€ bis 90€ nachgibt wird sie attraktiv
Sobald die auf 550 € sinkt also etwa wie MSI 980GTX Gaming 4G, ist sie deutlich interessanter, da die Fury um einiges stärker ist.
 
PC World hat die Fury im Crossfire gegen die 980 und die 980ti in SLI antreten lassen. http://www.pcworld.com/article/2947...n-fury-crossfire-review-2-fast-2-furious.html

Ergebnis:
In 4k haben die Fury fast durchgängig bessere Durchschnitts-FPS, leiden aber unter kleineren Minimal-FPS.
Nimmt man High Statt Ultra sind die Fury in 4k sogar deutlich besser als die beiden 980ti.

Dafür, dass die Furies zusammen ca 180€ weniger kosten, kann sich das auf jede Fall sehen lassen.
 
aivazi schrieb:
Moment mal, AMD bietet der GTX 970 mit "4GB" die R9 390 mit 8 GB entgegen und die ist kaum teurer.
Jo, ich glaube, die wird's dann wahrscheinlich auch.

8GB sind auf jeden Fall nice. Da kann man sich dann auch absolut sicher sein, daß alle Spiele bis zur nächsten Konsolen-Generation keine Probleme mit dem RAM bekommen werden.
 
sauter schrieb:
Unter GM204 versteht man die erste 900er Serie (GeForce GTX 970 und 980). Die haben HDMI 2.0! HDCP ist ein anderer Standard.

klar. Schrieb ich was anderes. HDCP 2.2 haben nur GM200 und GM206. Laut Nvidia.
 
Zuletzt bearbeitet:
Unyu schrieb:
Darf man denn jetzt meckern oder wie lange muss man noch warten bis zur offiziellen Meckergenehmigung? An anderer Stelle wird die

Nein darf man nicht. Es ist auf gerade mal 2 Shops verfügbar. Da entsteht kein Preiskampf = Keine Preisreduktion. Zu wenig Karten auf Lager und evtl. trotzdem einige Abnehmer = kein Grund Preise zu senken.

Es hat keine Gründe, nichts, nada.
 
Ich hab drei baugleiche Monitore hier. Finde es krass, dass das System mit der Fury im Leerlauf bei drei Monitoren 84 und im Vergleich die 980ti 136W zieht. :freak:
 
Jup, da hat AMD defintiv was richtig gemacht. Ich werde mich auch nicht mehr über deren idle Stromverbrauch mit mehreren Monitoren beschweren :D
 
Smagjus schrieb:
Jup, da hat AMD defintiv was richtig gemacht. Ich werde mich auch nicht mehr über deren idle Stromverbrauch mit mehreren Monitoren beschweren :D

Ich will jetzt keinen Krieg anzetteln, aber ich würde mal behaupten, dass der geringe Stromverbrauch im Multimonitor Betrieb
den höheren Verbrauch unter Last im Vergleich zur 980ti ( höhere Verbrauch im Idle/ geringerer Verbrauch unter Last) ohne Probleme kompensieren kann, schließlich verbringt der PC seine Zeit eher im Idle weil man zB. surft etc. ^^
 
aivazi schrieb:
Ich will jetzt keinen Krieg anzetteln, aber ich würde mal behaupten, dass der geringe Stromverbrauch im Multimonitor Betrieb
den höheren Verbrauch unter Last im Vergleich zur 980ti ( höhere Verbrauch im Idle/ geringerer Verbrauch unter Last) ohne Probleme kompensieren kann, schließlich verbringt der PC seine Zeit eher im Idle weil man zB. surft etc. ^^
Der Unterschied beim Multimonitor ist schon sehr groß. Das gilt aber erst ab 3 Monitoren, bei 2 Monitoren liegen die nah zusammen.
 
die aktuellen Preise für lieferbare Karten sind aber echt lächerlich ;)
Ergänzung ()

aivazi schrieb:
Ich will jetzt keinen Krieg anzetteln, aber ich würde mal behaupten, dass der geringe Stromverbrauch im Multimonitor Betrieb
den höheren Verbrauch unter Last im Vergleich zur 980ti ( höhere Verbrauch im Idle/ geringerer Verbrauch unter Last) ohne Probleme kompensieren kann, schließlich verbringt der PC seine Zeit eher im Idle weil man zB. surft etc. ^^

bei 3 Monitoren sicher. Der Anteil derer die 3 Monitore betrieben dürfte dennoch nicht all zu groß sein.
 
Und bei einem richtigen Gaming 3-Monitor-Setup müsste dann ein x-fire her. Wo wir dann wieder beim viel zu geringen Speicher wären...
 
aivazi schrieb:
aber ich würde mal behaupten, dass der geringe Stromverbrauch im Multimonitor Betrieb den höheren Verbrauch unter Last im Vergleich zur 980ti ( höhere Verbrauch im Idle/ geringerer Verbrauch unter Last) ohne Probleme kompensieren kann, schließlich verbringt der PC seine Zeit eher im Idle weil man zB. surft etc. ^^
Richtig. Darum ging es mir in meinem Beitrag.

Bisher war es so, dass AMD sowohl unter Last als auch im Idle deutlich mehr verbraucht hat, sofern man denn auf zwei Monitore oder mehr gesetzt hat. Das wären in meinem persönlichen Fall mit Dauernutzung etwa 50-60€ mehr an Strom im Jahr, weshalb Nvidia für mich effektiv die günstigere Alternative war.

Jetzt tut sich bei beiden Firmen nicht mehr viel (ignoriert man ältere Serien), weshalb ich in Zukunft auch AMD einkalkuliere.
 
AMD konnte aber auch schon mit den 2xx und zwei Monitoren den Stromverbrauch senken. Dazu mussten aber die Monitore identisch sein (was in der Praxis aber eher selten ist).
 
Zitat Zitat von aivazi:
Moment mal, AMD bietet der GTX 970 mit "4GB" die R9 390 mit 8 GB entgegen und die ist kaum teurer.


UltraWurst schrieb:
Jo, ich glaube, die wird's dann wahrscheinlich auch.

8GB sind auf jeden Fall nice. Da kann man sich dann auch absolut sicher sein, daß alle Spiele bis zur nächsten Konsolen-Generation keine Probleme mit dem RAM bekommen werden.

Genau.. bis 1440p reicht eine und man hat ne weile Ruhe.
Bei 4k Auflösung 2Stk. davon und alles ist gut.

Ich seh nicht ein warum ich mehr bezahlen sollte.
Das P/L der Topmodelle ist bei beiden Herstellern miserabel.

Man sehe sich die Chipflächen an.
alle bei 28nm Herstellungsverfahren:

R9 390 439mm²
AMD Fury 596mm²
GTX 980 398mm²
980Ti + Titan 601mm²

Warum sollte ich bei NVIDIA oder der AMD-Fury mehr bezahlen als für 2x R9 390?

2x R9 390 haben 878mm2 und 16GB DDR5 für unter 700 Euro.
Das ist ne Hausnummer.:evillol:

4GB HBM können auch nicht teurer sein als 16GB DDR5.
Von Titan und 980ti zu reden erspar ich mir in diesem Kontext.


Die Preisvorstellungen der Hersteller für die top Karten sind ein feuchter Traum.
 
Zuletzt bearbeitet:
Ähm, ja, der Videospeicher addiert sich im SLI/Crossfire aber nicht. Abgesehen davon: Mikroruckler.
 
c137 schrieb:
Ähm, ja, der Videospeicher addiert sich im SLI/Crossfire aber nicht. Abgesehen davon: Mikroruckler.

Das hab ich auch nicht behauptet.
Die Leistung addiert sich aber in ein einem Verhältnis das viel besser ist als das P/L mit einer Karte.
Und glaub mir... 8GB reicht atm für alles. Auch in 4k.

Es ging um die Herstellungskosten.
grob: (Chipfläche bei Herstellungsverfahren + Speicher + pcb + Kühler + Verpackung usw.)

Selbst einmal 8GB Ram ist immer noch mehr als eine 980ti hat.
Ich hab noch keine Mikroruckler bemerkt. Weder bei SLI, noch bei Crossfire.

Mikroruckler? - mag Leute geben die sowas sehen, ich gehör nicht dazu.
Tearing stört mich viel mehr.
deshalb hab ich immer VSYNC an.

Probleme mit Mikrorucklern treten vermehrt bei den Leuten auf die noch nie ein SLI/Crossfire hatten.
Ich bin mittlerweile bei der 4ten Generation mit "Dual Karten". (2xAMD, 2x NVIDIA)

Bei SLI/Crossfire mit 2 Karten ist das Problem Mikroruckler so gut wie gelöst.
Microruckler treten verstärkt in configs mit 2+ Karten auf.
 
Zuletzt bearbeitet:
Ist schon witzig wenn man hier so durch die posts liest. Da wird gesagt die fury sei die bessere Karte..... Ja und sie müsse nur vom Preis fallen..... Ach und wenn endlich der voltage unlock und directx 12 kommt. Erinnert mich immer an die erste Fx Generation nach Phenom 2..... AMD User scheinen sich immer alles schön zu reden. Fakt ist doch sie soll mit der gtx 980 konkurrieren.... Und dafür ist sie mal glatte 150€ zu teuer..... Und für ein TriX kühlkonzept immer noch recht warm. Weiß nicht was ich daran toll finden soll. So ein Prügel von kühler bei so nem kurzen pcb und trotzdem durch die gigantische tdp so schlechte Ergebnisse. Wo reduziert dem hbm Speicher den Verbrauch. Erst mit target frame zu gebrauchen.
 
Zuletzt bearbeitet:
@Forello der "gesparte" Strom geht direkt in die GPU um Mehrleistung zu erzeugen. Nur weil HBM verbaut ist brauch die Karte nicht direkt 100 Watt, sondern weil sie eben auch konkurrieren muss wird mehr freigewordener Saft auf die GPU gejagt.

Target Frame Rate bringt auch nur in Titeln etwas die die GPU nicht sonderlich belasten.
 
Zurück
Oben