Sobald die auf 550 € sinkt also etwa wie MSI 980GTX Gaming 4G, ist sie deutlich interessanter, da die Fury um einiges stärker ist.Krulemuk schrieb:Klingt interessant. Wenn die Karte jetzt noch um ca. 70€ bis 90€ nachgibt wird sie attraktiv
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Radeon R9 Fury im Test: AMDs kleiner Fiji von Sapphire perfekt interpretiert
PC World hat die Fury im Crossfire gegen die 980 und die 980ti in SLI antreten lassen. http://www.pcworld.com/article/2947...n-fury-crossfire-review-2-fast-2-furious.html
Ergebnis:
In 4k haben die Fury fast durchgängig bessere Durchschnitts-FPS, leiden aber unter kleineren Minimal-FPS.
Nimmt man High Statt Ultra sind die Fury in 4k sogar deutlich besser als die beiden 980ti.
Dafür, dass die Furies zusammen ca 180€ weniger kosten, kann sich das auf jede Fall sehen lassen.
Ergebnis:
In 4k haben die Fury fast durchgängig bessere Durchschnitts-FPS, leiden aber unter kleineren Minimal-FPS.
Nimmt man High Statt Ultra sind die Fury in 4k sogar deutlich besser als die beiden 980ti.
Dafür, dass die Furies zusammen ca 180€ weniger kosten, kann sich das auf jede Fall sehen lassen.
UltraWurst
Banned
- Registriert
- Aug. 2014
- Beiträge
- 2.269
Jo, ich glaube, die wird's dann wahrscheinlich auch.aivazi schrieb:Moment mal, AMD bietet der GTX 970 mit "4GB" die R9 390 mit 8 GB entgegen und die ist kaum teurer.
8GB sind auf jeden Fall nice. Da kann man sich dann auch absolut sicher sein, daß alle Spiele bis zur nächsten Konsolen-Generation keine Probleme mit dem RAM bekommen werden.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
sauter schrieb:Unter GM204 versteht man die erste 900er Serie (GeForce GTX 970 und 980). Die haben HDMI 2.0! HDCP ist ein anderer Standard.
klar. Schrieb ich was anderes. HDCP 2.2 haben nur GM200 und GM206. Laut Nvidia.
issenia schrieb:Bereits zum Start für 589 €. Das wird sicher noch weiter runter gehen.
Hier nochder Link zu GH:
http://geizhals.de/sapphire-radeon-r9-fury-tri-x-a1295264.html?hloc=de
Oder es geht hoch, jetzt sind es schon 599€, ohne dass die Karte lieferbar wäre.
https://www.caseking.de/sapphire-ra...andwidth-memory-hbm-gcsp-122.html?sPartner=35
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Tja beim Start durfte man nicht über den Preis meckern. Jetzt sind die ersten ab und zu verfügbar, die andere Sapphire z.B. für 649€. http://geizhals.de/sapphire-radeon-r9-fury-tri-x-oc-11247-01-40g-a1295300.html?hloc=de
Darf man denn jetzt meckern oder wie lange muss man noch warten bis zur offiziellen Meckergenehmigung? An anderer Stelle wird die Fury schließlich schon in alle Himmel gelobt.
Darf man denn jetzt meckern oder wie lange muss man noch warten bis zur offiziellen Meckergenehmigung? An anderer Stelle wird die Fury schließlich schon in alle Himmel gelobt.
Zuletzt bearbeitet:
- Registriert
- März 2014
- Beiträge
- 2.332
Unyu schrieb:Darf man denn jetzt meckern oder wie lange muss man noch warten bis zur offiziellen Meckergenehmigung? An anderer Stelle wird die
Nein darf man nicht. Es ist auf gerade mal 2 Shops verfügbar. Da entsteht kein Preiskampf = Keine Preisreduktion. Zu wenig Karten auf Lager und evtl. trotzdem einige Abnehmer = kein Grund Preise zu senken.
Es hat keine Gründe, nichts, nada.
aivazi
Commodore
- Registriert
- März 2008
- Beiträge
- 4.196
Smagjus schrieb:Jup, da hat AMD defintiv was richtig gemacht. Ich werde mich auch nicht mehr über deren idle Stromverbrauch mit mehreren Monitoren beschweren
Ich will jetzt keinen Krieg anzetteln, aber ich würde mal behaupten, dass der geringe Stromverbrauch im Multimonitor Betrieb
den höheren Verbrauch unter Last im Vergleich zur 980ti ( höhere Verbrauch im Idle/ geringerer Verbrauch unter Last) ohne Probleme kompensieren kann, schließlich verbringt der PC seine Zeit eher im Idle weil man zB. surft etc. ^^
Der Unterschied beim Multimonitor ist schon sehr groß. Das gilt aber erst ab 3 Monitoren, bei 2 Monitoren liegen die nah zusammen.aivazi schrieb:Ich will jetzt keinen Krieg anzetteln, aber ich würde mal behaupten, dass der geringe Stromverbrauch im Multimonitor Betrieb
den höheren Verbrauch unter Last im Vergleich zur 980ti ( höhere Verbrauch im Idle/ geringerer Verbrauch unter Last) ohne Probleme kompensieren kann, schließlich verbringt der PC seine Zeit eher im Idle weil man zB. surft etc. ^^
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
die aktuellen Preise für lieferbare Karten sind aber echt lächerlich
bei 3 Monitoren sicher. Der Anteil derer die 3 Monitore betrieben dürfte dennoch nicht all zu groß sein.
Ergänzung ()
aivazi schrieb:Ich will jetzt keinen Krieg anzetteln, aber ich würde mal behaupten, dass der geringe Stromverbrauch im Multimonitor Betrieb
den höheren Verbrauch unter Last im Vergleich zur 980ti ( höhere Verbrauch im Idle/ geringerer Verbrauch unter Last) ohne Probleme kompensieren kann, schließlich verbringt der PC seine Zeit eher im Idle weil man zB. surft etc. ^^
bei 3 Monitoren sicher. Der Anteil derer die 3 Monitore betrieben dürfte dennoch nicht all zu groß sein.
M
Moon_Knight
Gast
Und bei einem richtigen Gaming 3-Monitor-Setup müsste dann ein x-fire her. Wo wir dann wieder beim viel zu geringen Speicher wären...
Smagjus
Rear Admiral
- Registriert
- Feb. 2011
- Beiträge
- 6.134
Richtig. Darum ging es mir in meinem Beitrag.aivazi schrieb:aber ich würde mal behaupten, dass der geringe Stromverbrauch im Multimonitor Betrieb den höheren Verbrauch unter Last im Vergleich zur 980ti ( höhere Verbrauch im Idle/ geringerer Verbrauch unter Last) ohne Probleme kompensieren kann, schließlich verbringt der PC seine Zeit eher im Idle weil man zB. surft etc. ^^
Bisher war es so, dass AMD sowohl unter Last als auch im Idle deutlich mehr verbraucht hat, sofern man denn auf zwei Monitore oder mehr gesetzt hat. Das wären in meinem persönlichen Fall mit Dauernutzung etwa 50-60€ mehr an Strom im Jahr, weshalb Nvidia für mich effektiv die günstigere Alternative war.
Jetzt tut sich bei beiden Firmen nicht mehr viel (ignoriert man ältere Serien), weshalb ich in Zukunft auch AMD einkalkuliere.
M
Moon_Knight
Gast
AMD konnte aber auch schon mit den 2xx und zwei Monitoren den Stromverbrauch senken. Dazu mussten aber die Monitore identisch sein (was in der Praxis aber eher selten ist).
IBISXI
Admiral
- Registriert
- Jan. 2014
- Beiträge
- 7.936
Zitat Zitat von aivazi:
Moment mal, AMD bietet der GTX 970 mit "4GB" die R9 390 mit 8 GB entgegen und die ist kaum teurer.
Genau.. bis 1440p reicht eine und man hat ne weile Ruhe.
Bei 4k Auflösung 2Stk. davon und alles ist gut.
Ich seh nicht ein warum ich mehr bezahlen sollte.
Das P/L der Topmodelle ist bei beiden Herstellern miserabel.
Man sehe sich die Chipflächen an.
alle bei 28nm Herstellungsverfahren:
R9 390 439mm²
AMD Fury 596mm²
GTX 980 398mm²
980Ti + Titan 601mm²
Warum sollte ich bei NVIDIA oder der AMD-Fury mehr bezahlen als für 2x R9 390?
2x R9 390 haben 878mm2 und 16GB DDR5 für unter 700 Euro.
Das ist ne Hausnummer.
4GB HBM können auch nicht teurer sein als 16GB DDR5.
Von Titan und 980ti zu reden erspar ich mir in diesem Kontext.
Die Preisvorstellungen der Hersteller für die top Karten sind ein feuchter Traum.
Moment mal, AMD bietet der GTX 970 mit "4GB" die R9 390 mit 8 GB entgegen und die ist kaum teurer.
UltraWurst schrieb:Jo, ich glaube, die wird's dann wahrscheinlich auch.
8GB sind auf jeden Fall nice. Da kann man sich dann auch absolut sicher sein, daß alle Spiele bis zur nächsten Konsolen-Generation keine Probleme mit dem RAM bekommen werden.
Genau.. bis 1440p reicht eine und man hat ne weile Ruhe.
Bei 4k Auflösung 2Stk. davon und alles ist gut.
Ich seh nicht ein warum ich mehr bezahlen sollte.
Das P/L der Topmodelle ist bei beiden Herstellern miserabel.
Man sehe sich die Chipflächen an.
alle bei 28nm Herstellungsverfahren:
R9 390 439mm²
AMD Fury 596mm²
GTX 980 398mm²
980Ti + Titan 601mm²
Warum sollte ich bei NVIDIA oder der AMD-Fury mehr bezahlen als für 2x R9 390?
2x R9 390 haben 878mm2 und 16GB DDR5 für unter 700 Euro.
Das ist ne Hausnummer.
4GB HBM können auch nicht teurer sein als 16GB DDR5.
Von Titan und 980ti zu reden erspar ich mir in diesem Kontext.
Die Preisvorstellungen der Hersteller für die top Karten sind ein feuchter Traum.
Zuletzt bearbeitet:
C
c137
Gast
Ähm, ja, der Videospeicher addiert sich im SLI/Crossfire aber nicht. Abgesehen davon: Mikroruckler.
IBISXI
Admiral
- Registriert
- Jan. 2014
- Beiträge
- 7.936
c137 schrieb:Ähm, ja, der Videospeicher addiert sich im SLI/Crossfire aber nicht. Abgesehen davon: Mikroruckler.
Das hab ich auch nicht behauptet.
Die Leistung addiert sich aber in ein einem Verhältnis das viel besser ist als das P/L mit einer Karte.
Und glaub mir... 8GB reicht atm für alles. Auch in 4k.
Es ging um die Herstellungskosten.
grob: (Chipfläche bei Herstellungsverfahren + Speicher + pcb + Kühler + Verpackung usw.)
Selbst einmal 8GB Ram ist immer noch mehr als eine 980ti hat.
Ich hab noch keine Mikroruckler bemerkt. Weder bei SLI, noch bei Crossfire.
Mikroruckler? - mag Leute geben die sowas sehen, ich gehör nicht dazu.
Tearing stört mich viel mehr.
deshalb hab ich immer VSYNC an.
Probleme mit Mikrorucklern treten vermehrt bei den Leuten auf die noch nie ein SLI/Crossfire hatten.
Ich bin mittlerweile bei der 4ten Generation mit "Dual Karten". (2xAMD, 2x NVIDIA)
Bei SLI/Crossfire mit 2 Karten ist das Problem Mikroruckler so gut wie gelöst.
Microruckler treten verstärkt in configs mit 2+ Karten auf.
Zuletzt bearbeitet:
Ist schon witzig wenn man hier so durch die posts liest. Da wird gesagt die fury sei die bessere Karte..... Ja und sie müsse nur vom Preis fallen..... Ach und wenn endlich der voltage unlock und directx 12 kommt. Erinnert mich immer an die erste Fx Generation nach Phenom 2..... AMD User scheinen sich immer alles schön zu reden. Fakt ist doch sie soll mit der gtx 980 konkurrieren.... Und dafür ist sie mal glatte 150€ zu teuer..... Und für ein TriX kühlkonzept immer noch recht warm. Weiß nicht was ich daran toll finden soll. So ein Prügel von kühler bei so nem kurzen pcb und trotzdem durch die gigantische tdp so schlechte Ergebnisse. Wo reduziert dem hbm Speicher den Verbrauch. Erst mit target frame zu gebrauchen.
Zuletzt bearbeitet:
JiJiB!
Commander
- Registriert
- Juli 2008
- Beiträge
- 2.714
@Forello der "gesparte" Strom geht direkt in die GPU um Mehrleistung zu erzeugen. Nur weil HBM verbaut ist brauch die Karte nicht direkt 100 Watt, sondern weil sie eben auch konkurrieren muss wird mehr freigewordener Saft auf die GPU gejagt.
Target Frame Rate bringt auch nur in Titeln etwas die die GPU nicht sonderlich belasten.
Target Frame Rate bringt auch nur in Titeln etwas die die GPU nicht sonderlich belasten.
Ähnliche Themen
- Antworten
- 32
- Aufrufe
- 8.710
- Antworten
- 20
- Aufrufe
- 13.746
- Antworten
- 139
- Aufrufe
- 28.114
- Antworten
- 192
- Aufrufe
- 29.846
- Antworten
- 58
- Aufrufe
- 3.814