Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

@yxcv
Ich bin zwar nicht CB, aber ich vermute bei der Lautstärke gibt es die Wertung nicht, weil sie einerseits sehr leise ist, andererseits aber die Störgräusche aufgetauchts sind (das Knattern).
 
SimsP schrieb:
Ich denke das liegt einfach daran, dass damals bei der GTX 980 gerade viele AMD Fans genörgelt haben, dass 4 GB doch viel zu wenig sind für eine aktuelle Spitzenkarte und jetzt wo die Fury X auch "nur" 4 GB hat kommen selbige Leute daher und stellen 4 GB als vollkommen ausreichend hin.
Die 4 GB verwaltet AMD auch nicht besser, lediglich die Anbindung ist mit höherer Datenrate möglich, bedingt durch die von Hynix eingekaufte Technik.


Ich weiß nicht wie das andere sehen, aber für mich ist der Stromverbrauch einer High-End Karte an und für sich nicht das Problem. Jedenfalls nicht finanziell. Das Problem besteht nur dann, wenn sich die Grafikkarten auf Grund ihres Leistungshungers schlechter kühlen lassen und damit lauter werden, sowie ein meist schlechteres OC Potential.
Das erste Problem hat AMD etwas umschifft mit dem Einsatz einer AiO Wakü, aber das schlechte OC Potential lässt sich nun mal nicht von der Hand weisen und das wird auch nicht viel besser werden, denn der 28 nm Prozess ist quasi schon komplett ausgereizt.


Das hängt davon ab, wie laut das Fiepen ist. Bei GTX970 & Co. wurde sich auch sehr viel über Spulenfiepen beschwert und teilweise auch zurecht. Warum sollte man das AMD dann nicht auch negativ ankreiden dürfen?


Und genau das bezweifle ich etwas im Falle von AMD, die es bis heute nicht geschafft haben für das vor über einem Jahr angekündigte Freesync einen stabilen Nicht-Beta-Treiber rauszubringen.


Tatsächlich ist HBM die einzige wirkliche Neuerung, der Rest ist mehr oder minder aus Tonga und Hawaii zusammengeschustert. Und selbst diese Neuerung ist nicht auf AMDs eigenem Mist gewachsen, sondern wurde zugekauft. Wenn man also überhaupt jemandem zu einer guten Ingenieurs-Leistung gratulieren will, dann den Leute bei Hynix.

Was ich ebenfalls nicht verstehe ... die GTX 980 Ti war vielen zu teuer - in meinen Augen auch berechtigt - aber die Fury X mit etwa der selben Leistung und dem selben Preis mit weniger Speicher ist für einige jetzt der Preis-Leistungs-Hit? Wie gut dass nur die NVidia Freaks sich überteuerte Hardware aufschwatzen lassen, bei AMD kann einem das ja nicht passieren...

Aus persönlichem Interesse daran, dass die Preise wieder sinken, kann ich nur an alle appellieren: Leute kauft diesen überteuerten Schund nicht und wartet bis die Preise um 100-200€ gefallen sind.

zu 1. Naja ich bezog das genörgel ehr auf den Versuch von nvidia 3,5 + ultra langsamen 0,5gb als schöne voll 4Gb zurecht zu reden.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-r9-fury-x-test.50254/seite-11
Also 4GB GDDR5 mit 4GB HBM zu vergleichen ist nicht ganz einfach.

zu 2. Wurde hier glaube ich schon angesprochen zur Zeit lässt sich wohl der Vcore noch nicht richtig anheben. Damit sind aktuelle Übertaktungsversuche natürlich sehr begrenzt.

zu 3. Wenn man das fiepen unvoreingenommen vergleicht mit Spulenfiepen ja. Aber soweit ich mich anspulen Fiepen erinnere war es immer deutlich über der 40db oder manchmal 60db der Lüfterkarten. Bei 30db hört man auch eine Stecknadel fallen. Vergleichen ja aber nicht aus der tendenziell leiseren Wakü einen Strick drehen.
ergänzung Stromverbrauch - ja TDP ist wichtig und vorallem wenn man das Gehäuse+PSU wählen muss. Aber hier wird zum Teil um 5Watt gefeilscht. Wie von dir angesprochen die Karte hat Wakü und ist so groß wie eine lowend Karte die 5 Watt mehr muss man nicht durch 10 12mm Lüfter kompensieren.

zu 4. Der Speicherchip ja. Aber die Anbindung 4096Bit (vs 512 Bit oder bei nvida noch weniger) muss auch vom Chip selbst verarbeitet werden können, also muss das Interface entwickelt werden und die sonstige Architektur angepasst werden + Imposter. Das war sicherlich nicht Hynix alleine besonders bei einem SoC Design.

Mir geht es primär darum - das Kommentatoren ehr die negativen Punkte herausstellen, statt das gute zu sehen. Ich finde Nvidia macht hervorragende Produkte aber AMD auch - leider gerät AMD auf Grund von fehlender Manpower/Budget und fehlender Fertigungstechnologien zunehmend unter Druck. Nvidia ist in etwa so groß wie AMD (mitarbeiter) konzentriert sich alleine fast nur auf Grafikkarten. Intel ist 10x Größer als AMD ...aber dennoch behauptet sich AMD sehr gut gegen die beiden. Und gerade den Fanboys von Nvidia ist nicht geholfen wenn Nvidia das Monopol hat. Teuer und kein Fortschritt.

Bsp. AMD Mantle ....erst Mantle hat dafür gesorgt das DX12 so wenig Overhead hat. Das ist ein kostenloses Systemupgrade für Nvidia als auch AMD Nutzer !!!
 
Zuletzt bearbeitet:
SimsP schrieb:
bedingt durch die von Hynix eingekaufte Technik.
Das ist kompletter Blödsinn.
AMD und Hynix haben wie nvidia und Micron, die an HMC geforscht haben und nvidia bei Pascal jetzt auf HBM setzen wird, gemeinsam kooperiert und Ressourcen geteilt, sowohl personelle als auch finanzielle.
 
Euphorikus schrieb:
270 ist 380 und 370 ist 260 oper 265 oder so, dass ist doch die Dreißtigkeit, dass man durch die höhere Nummerierung mehr vorgaukelt als tatsächlich dahinter steckt.

Nein. Einfach nur Nein.
Ich hab das vorher schonmal geschrieben, dass die 280(X) EOL sind und durch Tonga Pro beerbt werden. Demnach:

285 -> 380
280(X) -> nicht mehr existent
265 -> 370 (das "stimmt", ist aber im Endeffekt dank mehr Takt und weniger TDP "besser" bei gleichem Chip)
260 -> 360

380 ist somit "neu", 360 ist "neu", die 370 "alter Mist" und die 390(X) sind auch bekannte Hawaii-Teile. Ergo: 380 ist die neuste und effizienteste Karte.

Bitte hier nachlesen

Fazit: Neue Nummer mit etwas mehr Leistung, teils bereinigtes Portfolio und "nur noch" die 370 als alter Mist. Der Rest ist durchweg mit "gutem", fast einheitlichem Featureset unterwegs. Empfehlenswert eigentlich nur Tonga und Fiji, ggf Hawaii.

johnniedelta schrieb:
Kreisverkehr:

Ja, ich warte auch auf die 380X, denn eine Tonga mit mehr Shadern sollte an sich im Performance-Segment der Hammer sein.
300€ für 20-25% mehr Leistung bei dieser guten Effizienz, und meine Tahiti wandert aus. Ich denke mal, AMD wartet nicht umsonst mit der kleinen Fury und 380X, sollen sie ruhig noch optimieren. Tonga ist sowieso imo der attraktivere Chip, Hawaii ist Leistung per Brechstange, kommt für mich nicht infrage. Zumal die 380X dann nicht nur ein simples rebrand wird, sondern immerhin ein Ausbau, vllt mit HDMI 2.0 und mehr neuen Features. Möglicherweise sogar mit HBM.
Dann wärs quasi ne halbierte Fiji, nach meinem begrenzten Verständnis.

Fiji war schon die Chance für eine leichte Überarbeitung und ist nur ein verdoppelter Tonga im Vollausbau, wo - PCGH schreibts ja - zu viele Shader pro Fron-/Back-End vorhanden sind. Sprich: Du hast hier die neuste UVD usw, aber keinen HDMI 2.0
Hat keine Karte außer der 960 und ... das ist auch nicht gerade einheitlich bei Nvidia.

Sprich: Krautmaster(?) hatte es ja schon gesagt, aber ich stimme da voll zu, dass du dir zu viele Hoffnungen machst. Tonga wird dann - wenn im Vollausbau - auch GDDR5 bekommen und dabei dann durch diesen "Säufer" die genialen Stromspartechniken wie Fury bei Multi-Monitor/Bluray-Betrieb mMn sogar verlieren. Das einzige, was Fiji auch noch neu hat: Neues PowerTune. Is im Idle und Last super, hilft aber nicht, wenn der GDDR5 hochtaktet und säuft.

War auch bei der HD4870 der Fall, wo die 4850 durch GDDR3 so viel sparsamer war. Runtertakten musste man damals manuell und die "Wundertreiber", auf die man gehofft hatte, kamen nie.
=> Wenn, dann wird Fury Nano die beste Effizienz zeigen, ggf gibts Tonga XT, aber ansich wird das mit GDDR5 immer noch nichts mit dem guten Verbrauch, den Fiji bietet dank HBM.

SimsP schrieb:
Ach du meinst wohl die selben Entwickler, die daran gearbeitet haben, dass Fiji in Relation genauso viel DP Leistung hat wie Hawaii?

Eh, Moment. Fiji hat doch 1/16 und nicht mehr 1/2 wie wie Hawaii? Nur weil die Spieler-Karten per Treiber auf 1/8 limitiert werden, heißt das ja nicht, dass es nicht per se möglich wäre.
 
Vielen Dank für den ausführlichen Test!

Nachdem ich erst seit Ende letzten Jahres mich wieder in die gesammte Materie eingelesen hab und davor jahrelang eine AMD Karte hatte und jetzt seit sehr langer Zeit wieder Nvidia im PC drin hab, will ich als mich als (aus meiner Sicht) neutrale Partei dazu auch mal melden.

Zunächst frag ich mich, wovon Ihr Nachts träumt... AMD ist schon seit geraumer Zeit gefühlt ne halbe bis ganze Generation hinterher, sei es mal in der Performance oder beim Stromverbrauch, und nur die Träumer haben tatsächlich geglaubt (oder zumindest gehofft), dass hier AMD wieder gleichziehen oder sogar überholen würde. Besonders freut es mich, dass jetzt die ganzen "4GB sind viel zu wenig" Klugscheisser endlich mal die Klappe halten... aber hauptsache immer schön rummotzen wenn man keine Ahnung hat ;) Die Aussage, dass 4GB in der Zukunft womöglich nicht ausreichen werden, ist natürlich nicht falsch aber letztendlich ist das sowieso ein Widerspruch in sich:

Welcher Hardcore-Nerd hat so ein Teil länger als 2 Jahre in seinem PC bzw. welcher (einigermaßen) ambitionierte Spieler spielt dauerhaft in 4K Auflösung daheim? Die meisten werden doch, wenn überhaupt, in QHD mit High Settings spielen und sind immer noch vollends zufrieden.
Ich persönlich eiere immer noch mit meinem Phenom II X6 @3700MHz rum und selbst in Kombi mit der GTX970 kann ich selbst aktuelle Spiele in High oder höher flüssig spielen und selbst diese Kombi wird mir noch, das behaupte ich mal, locker für 1-2 Jahre ausreichen, obwohl sie (aufgrund des nicht mehr ganz zeitgemäßen Prozzi) "nur" knapp obere Mittelklasse ist.

Klar hat AMD (wie auch schon in der Vergangenheit) mit der Fury "Fehler" gemacht wie die fehlende HDMI 2.x Kompatibilität aber letztendlich ist es immer eine Sache der Prioritäten bei solchen Entscheidungen:
Implementiere ich HDMI 2.x oder optimiere ich irgendwas anderes? Hier wurde sich offensichtlich mehr auf DP konzentriert, da DP immer mehr Verbreitung findet und auch gefühlt immer mehr anzutreffen ist. Ich persönlich kann auf HDMI 2.x verzichten und aus meiner Sicht wird die Mehrheit der Leute ebenfalls darauf verzichten können.

Was mich persönlich etwas mehr stört ist die Sache mit der Wasserkühlung:
Warum wird es offensichtlich (korrigiert mich wenn ich falsch liege) nur Karten mit Wasserkühlung geben?
Natürlich kenne ich die Vorteile einer Wasserkühlung aber für mich riecht das eher nach nem anderen Problem, auch weil ich die relativ niedrige (im Gegensatz zur 290er Serie) Temperaturgrenze von etwas über 70° auffällig finde.
Vielleicht hat das immer noch mit dem Hirngespinst von früher (Wasserkühlung ist gefährlich!) zu tun aber ich konnte mich bisher nicht zu einer überwinden. Evtl. hab ich hier auch was überlesen oder falsch verstanden aber ich meine es wird die Karte, jedenfalls die Fury X, nur mit WK geben oder?

Ansonsten freue ich mich über Konkurrenz auf dem Markt und bin eh froh, dass David (AMD) gegen Goliath (Nvidia) weiterhin mithalten kann, ähnlich wie im hart umkämpften CPU Markt zwischen AMD und Intel.
 
SimsP schrieb:
Ach du meinst wohl die selben Entwickler, die daran gearbeitet haben, dass Fiji in Relation genauso viel DP Leistung hat wie Hawaii?
Wenn BMW einen Motor für ein Toyota Auto baut, hat Toyota dann auch an dem Motor mit entwickelt? Sie müssen ja schließlich wissen wie sie ihn in ihr Fahrzeug einbauen können und arbeiten daher auch mit BMW zusammen.

...zufälligerweise hab ich Maschinenbau studiert so einfach wie du das darstellst ist das nicht. Selbst wenn man Fertigungs/Entwicklungsprojekte nach ausen vergibt ist das in der Regel ein gemeinsames Entwickeln außer es sind Standartbauteile die leicht zu spezifizieren sind. Dieses gilt definitiv nicht für HBM. Um deine Autometapher aufzugreifen. Hier soll ein Mercedes AMG motor (hynix) in ein einen Pagani Zonda(Fiji) eingebaut werden. Die Leistung muss vernünftig vom restlichen Auto auf die Straße gebracht werden und in dem Fall hat AMD ein neues Getriebe + Fahrwerk entwickelt. Und das auf dem Niveau ist sehr gut !
 
4GB selbst als Ultra HBMv3 würde mich extrem stören. Es müssen min 6 - 8 GB sein. Das ist das megaminium. (für eine Karte anno 2015)
 
Toms schrieb:
Läuft sehr gut :) Habe mal den Thief Ingame-Benchmark laufen lassen unter Mantle:

Alles auf Anschlag (1920x1200):

gqiDIiK.jpg



Kann gut sein, dass hier schon mein FX limitiert :)

Taktadaption im Windows Desktop bei normalem Betrieb. PowerTune schein gut zu arbeiten

jW9zZ5l.png

Vielen dank für die tests :)
 
Das ist nicht einfach mit der R9 Fury X. Normal lese ich einige Testberichte und viele Kommentare damit ich mir meine Eigene Meinung bilden kann. Irgendwann komme ich dann zu dem Schluß: Gefällt mir und will ich haben oder interessiert mich nicht. Die Fury liegt irgendwie dazwischen.
Sicher ist die R9 Fury X eine gute GPU aber das selbe gibt es auch schon von der Konkurrenz. Klar hat die Fury HBM aber für 700 Euro zu wenig davon und welchen Vorteil habe ich davon?
Klar ist die die Fury schön klein in einem gutem Design aber zu der Fury gehört auch ein Radiator mit Lüfter der inkl. Schläuche irgendwo im Gehäuse untergebracht werden will.
Wenn mir ein CEO von AMD erzählt das die GPU eine Übertakter Traum ist, dann will ich die in den Rechner rein stecken und Spaß beim übertakten haben. Jetzt und nicht evtl. irgendwann.
Bei 700 Euro und lauthals mit 4K beworben darf es keine Einschränkungen geben welchen Monitor oder welchen Fernseher ich anschließe.
Eine GPU und egal von welchem Hersteller darf Idle nicht zu hören sein. Wenn ich am Rechner etwas lese, dann will ich kein Fiepen hören. So etwas würde ich am nächsten Tag zurück schicken.

Klar gibt es jetzt Wasserkühler die ich montieren kann und somit die Fury in meine eigene Wakü integrieren kann. Die Fury soll aber extrem empfindlich sein und selbst ein abwischen der WLP kann den Interposer schon zerstören. Ich bleibe dann auf dem Schaden sitzen und die Garantie der GPU ist sowieso weg. Ich bin ja schon nicht ängstlich aber das Risiko erscheint mir doch zu groß.

Eine R9 Fury X hätte eine 980Ti beide Stock 10% übertreffen müssen. Dann hätte eine R9 Fury X noch 20% übertaktbar sein müssen und man hätte NVidia klar geschlagen. So wie es jetzt ist hat man von der Leistung Gleichstand und wenn man einer GTX 980ti die Sporen gibt, dann rennt die auch noch davon.
 
@Amusens

Haben alle CPUs und GPUs ;)
 
Bisher ist das die erste GPU. Interposer wurden bisher für MCM Chips genutzt. Der Interposer wird vom UMC hergestellt, die GPU von TSMC und der HBM Speicher von Hynix.
 
Der Interposer ist ein umgedrehter Chip ansich, der dazu dient die oben drauf gepackten Chips miteinander zu verbinden. Deswegen sollte man auch sehr vorsichtig sein beim WLP Tausch, weil man die offen liegenden Interconnects (die glänzenden Verbindungen von HBM zu Fiji) beschädigen könnte.
 
Ich habe mir mal die Mühe gemacht und die Ultra-HD-Benchmarks analysiert. Dabei bin ich zum Schluss gekommen, dass die Radeon R9 Fury X tatsächlich die beste Grafikkarte ist, obwohl die Durchschnitts-Performance sogar marginal schlechter als bei der Geforce GTX Titan X ausfällt. In einem Großteil der Benchmarks ist die Radeon R9 Fury X einfach schneller als die beiden Konkurrenten, was gerade unter Ultra HD von Bedeutung ist.

 
Schöne Tabelle... ich schaue auf die absoluten Zahlen und behaupte, nein, ist sie nicht. Sie ist wie alle Tests sagen, gleich auf und fertig.
 
Kasmopaya schrieb:
Hauptsache ihr heult mir dann nicht in ein paar Jahren das Fourm voll von wegen Vram Mangel und hat ja keiner gesagt und hat man nicht wissen können...

Wie es in 4~5 Jahren ausschaut weißt auch du nicht.
Mag sein, dass die 12GB dann gebraucht werden für die max. Einstellungen oder wahnsinnigem Downsampling, aber dann wird eher deine dementsprechend alte GPU limitieren, als die Menge an VRAM. Der VRAM Verbrauch wird wahrscheinlich irgendwo bei einem 8~12GB Plateau landen bis in einigen Jahren dann eine neue Konsolengeneration kommt und was dann ist, weiß noch keine. Das Moor'sche Gesetz auf den VRAM umzulagern für die Zukunft, finde ich aber eher lustig, als ernst zu nehmen.
Das Moor'sche Gesetz lässt sich einfach nicht einfach so auf alles übertragen.

Meine Quelle? Die Vergangenheit.
High-End Grafikkarten mit 600+€ Preis haben sich auch nicht wahnsinnig (sprich, 50% oder gar 100%) länger gehalten als die Mittelklasse um 250~300€. Zwischen einer Titan X und der GTX 970/R9 290x wird kein nennswerter Unterschied 2020 sein, weil beide dann veraltete Architektur haben.
 
zeromaster schrieb:
Schöne Tabelle... ich schaue auf die absoluten Zahlen und behaupte, nein, ist sie nicht. Sie ist wie alle Tests sagen, gleich auf und fertig.

Auf den ersten Blick schon. Andererseits fällt die Radeon R9 Fury X bei keiner "Niederlage" unter 30 fps, während die Geforce GTX 980 Ti zweimal und die Geforce GTX Titan X sogar dreimal unter die 30-fps-Grenze fallen. Klar beziehen sich diese Analysen nur auf diese Benchmarks, aber in meinen Augen ist die Fury X an dieser Stelle tatsächlich die beste Grafikkarte.
 
Kreisverkehr schrieb:
Eh, Moment. Fiji hat doch 1/16 und nicht mehr 1/2 wie wie Hawaii? Nur weil die Spieler-Karten per Treiber auf 1/8 limitiert werden, heißt das ja nicht, dass es nicht per se möglich wäre.
Ja ich weiß, aber vor Release haben hier einige Hardware Spezialisten behauptet AMD würde im Gegensatz zu NVidia kein DP Leistung unter den Tisch fallen lassen, sodass Fiji genau wie Hawaii die Hälfte der SP Leistung liefert.
Und jetzt kommen entsprechende Spezialisten wieder mit neuen Theorien über Gott und die Welt ... dementsprechend wollte ich damit andeuten, was ich von der Meinung dieser Leute halte.

CochainComplex schrieb:
...zufälligerweise hab ich Maschinenbau studiert so einfach wie du das darstellst ist das nicht. Selbst wenn man Fertigungs/Entwicklungsprojekte nach ausen vergibt ist das in der Regel ein gemeinsames Entwickeln außer es sind Standartbauteile die leicht zu spezifizieren sind. Dieses gilt definitiv nicht für HBM. Um deine Autometapher aufzugreifen. Hier soll ein Mercedes AMG motor (hynix) in ein einen Pagani Zonda(Fiji) eingebaut werden. Die Leistung muss vernünftig vom restlichen Auto auf die Straße gebracht werden und in dem Fall hat AMD ein neues Getriebe + Fahrwerk entwickelt. Und das auf dem Niveau ist sehr gut !
Ja gut das ist klar, aber diese Leistung muss jeder erbringen, der das entsprechende Modul verwenden will. Da wird auch NVidia nicht drum rum kommen. Hat NVidia jetzt auch HBM mit entwickelt?

zu 2. Wurde hier glaube ich schon angesprochen zur Zeit lässt sich wohl der Vcore noch nicht richtig anheben. Damit sind aktuelle Übertaktungsversuche natürlich sehr begrenzt.
Naja aber im Gegensatz dazu lässt sich eine 980 Ti zB auch bereits gut übertakten ohne die Spannung anzufassen.

zu 3. Wenn man das fiepen unvoreingenommen vergleicht mit Spulenfiepen ja. Aber soweit ich mich anspulen Fiepen erinnere war es immer deutlich über der 40db oder manchmal 60db der Lüfterkarten. Bei 30db hört man auch eine Stecknadel fallen. Vergleichen ja aber nicht aus der tendenziell leiseren Wakü einen Strick drehen.
Deswegen hab ich gemeint es hängt davon ab, wie laut das Fiepen der Wakü letztlich ist. Mich persönlich würde es nicht stören, aber es gibt bestimmt Leute, denen sowas auf den Zeiger gehen kann. Ich kenn da einige die bei sowas relativ empfindlich sind. Und da der PC egal wie viel man zockt etc. meist doch im Idle läuft und man da das Fiepen hört, könnte es für manche durchaus zum Problem werden. Aber meiner Meinung nach gibt es Wichtigeres .

zu 4. Der Speicherchip ja. Aber die Anbindung 4096Bit (vs 512 Bit oder bei nvida noch weniger) muss auch vom Chip selbst verarbeitet werden können, also muss das Interface entwickelt werden und die sonstige Architektur angepasst werden + Imposter. Das war sicherlich nicht Hynix alleine besonders bei einem SoC Design.
Naja also das Speicherinterface anpassen ist jetzt nicht so wild. Musst einfach nur die Breite deiner Memorycontroller anpassen. Bitte nicht falsch verstehen, Speicheranbindung zu designen ist nicht ganz einfach. Hab selbst nen Kollegen, der im Bachelor ne DDR Anbindung schreiben durfte. Das war einiges an Arbeit, aber die Anpassung von GDDR5 auf HBM sind im Verhältnis geschenkt. Die Frage sollte eher lauten: Hat AMD die GPU so angepasst, dass sie tatsächlich von der höheren potentiellen Datenrate profitieren kann? Und da sehe ich momentan noch nichts anderes, als dass ein paar Zahlenwerte angepasst wurden. Mich würde mal interessieren wie sich Fiji gegen Hawaii bei Anwendungen schlägt die viel auf den Speicher zugreifen müssen. Das müsste sich vor allem bei GPGPU Anwendungen bemerkbar machen, die bisher Memorybound waren.

Mir geht es primär darum - das Kommentatoren ehr die negativen Punkte herausstellen, statt das gute zu sehen. Ich finde Nvidia macht hervorragende Produkte aber AMD auch - leider gerät AMD auf Grund von fehlender Manpower/Budget und fehlender Fertigungstechnologien zunehmend unter Druck. Nvidia ist in etwa so groß wie AMD (mitarbeiter) konzentriert sich alleine fast nur auf Grafikkarten. Intel ist 10x Größer als AMD ...aber dennoch behauptet sich AMD sehr gut gegen die beiden. Und gerade den Fanboys von Nvidia ist nicht geholfen wenn Nvidia das Monopol hat. Teuer und kein Fortschritt.
Hand aufs Herz, AMD Grafikkarten sind normalerweise gute Produkte. Fury finde ich persönlich jetzt schon etwas rückständig, aber GCN 1.0 zB war NVidias GK104 zumindest ebenbürtig. Nur dann stellt sich mir die Frage will ich 50€ weniger ausgeben, oder hab ich lieber den besseren Softwaresupport? Und für mich ist letzteres eben wichtiger.

Bsp. AMD Mantle ....erst Mantle hat dafür gesorgt das DX12 so wenig Overhead hat. Das ist ein kostenloses Systemupgrade für Nvidia als auch AMD Nutzer !!!
Ich finde Mantle war eine einzige Fehlentscheidung. Anstatt eine API zu entwerfen, die sich nie durchsetzen wird, hätte man die Man-Power besser in einen vernünftigen DX11/OpenGL Treiber gesteckt. Erst mal da aufholen, wo man Rückstände hat, bevor man anfängt die Welt "verbessern" zu wollen.
Mit Mantle gewinnt man keine/kaum Kunden. Mit einem schlechten Softwaresupport kann man aber viele verlieren.
 
Zurück
Oben