Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

Es geht doch hauptsächlich darum es negativ darzustellen.
Bringt AMD eine Innovation wird daraus das es nichts bringen würde.
Wäre AMD bei GDDR5 geblieben wäre die Kritik das sie innovationslos seien.
Bleibt nvidia bei GDDR5 sind sie clever, da sie erstmal AMD HBM testen lassen.
Hätte nvidia zuerst HBM gebracht tun sie was für die Gamer und es ist der heilige Gral und AMD hätte gepennt.

Ganz simple Logik einiger hier.
 
nospherato schrieb:
Und auch die liegt bei (laut link) bei 839€ im Vergleich zu 658€ nicht gerade wenig ;)

Was soll man machen? Für 658€ ne etwas schneller Karte kaufen die ne Lärmbelästigung ist? Würde ich niemals machen obwohl die Fury X in meinem Preisrahmen liegt, aber so... Niemals
Ergänzung ()

Zum Thema Innovation gut gemacht mit dem Speicher ist ein Anfang wenn AMD beim nächsten Schritt mehr Speicher verbaut kann es nur noch besser werden. Und sich einen anderen AIO Wakù Hersteller besorgen.
 
Hier übersehen einige was, aber das sind nicht die die HBM !1! für das Hier und Jetzt für unnötig halten! Ja es ermöglicht eine kleinere Grafikkarte (wie normalerweise bei der Performance), ja es reduziert den Verbrauch (trotzdem is AMD in dem Bereich weiterhin schlecht), ja es bietet ein erhöhtes Speicherinterface (was momentan einfach kaum genutzt wird).......ja es ist noch nicht ausgereift, ja HBM bringt zur Zeit eigentlich niemandem einen Vorteil in Sachen Performance, ja es ist teuer in der Produktion, somit auch Verkauf, ja die momentane GPU-Lösung mit HBM ist absolut nicht das wahre (auch wegen den vielen Lautstärckeproblemen und nur 4GB VRAM für den heutigen Preis), da viel zu unattraktiv gegenüber allem was sich sonst so im gleichen Preisbereich bewegt, selbst von AMD selbst (also sogar darunter)!

Es ist eine konsequente und nötige Weiterentwicklung, das Produkt leider nicht ausgereift und nicht profitabel für alle Seiten veröffentlicht worden. Für eine kleine Gruppe mit Sicherheit dennoch nett zu haben, auch interessant in Sachen Zukunftsblick, aber alles in allem recht unnötig für den aktuellen Markt, der schon seit langem so besteht und mit der Fury X in keinster Weise erweitert wurde.
 
Zuletzt bearbeitet:
@Amusens
Überleg mal... Die Videos sind alle offen entstanden... Meinst du dies würde (für die Leute, die es angeblich so arg stört) wirklich auffallen in z.B. einem gedämmten Gehäuse?
Ist genau das gleiche wie mit dem Spulenfiepen... 90% der Leute haben ,bevor das Thema bis zu geht-nicht-mehr aufgebauscht wurde, nicht mal gemerkt, dass ihre Karte das überhaupt hat...
Mich würde echt mal ein Video von der FuryX in einem Delfine R5 (oder so) interessieren aus ca. 30cm Distanz... Da bleibt vom angeblichen unerträglichen Fielen nix mehr übrig...
 
CochainComplex schrieb:
GPUs egal ob Nvidia oder AMD sind keine FPGA's. Das was du mit FPGA über Logikausdrücke einprogrammierst musst du per Hand als Schaltung entwickeln. Dadurch kannst du aber eine höhere Performance erzielen die man niemals mit einem FPGA erreichen wird.
Klar ist ein FPGA kein ASIC, und sicher gehört zum ASIC Design noch etwas mehr, weil der FPGA schon vieles mitbringt.
Sicher werde ich mit meinem FPGA in näherer Zukunft nur schwer an die Taktraten von ASICs rankommen. Aber, dass man beim ASIC alles manuell machen muss ist so nicht richtig. Du bekommst die Logikschaltungen schon in VHDL/Verilog programmiert, nur gibt es eben noch den Overhead, dass man beim ASIC tatsächlich hier und da noch manuelle Anpassungen machen muss, wenn ich aber zB einen Controller fertig habe, dann sind die anderen quasi nur noch copy and paste.
Oder glaubst du tatsächlich, dass Intel heute noch jeden einzelnen Transistor selbst anordnet? Bei ein paar Milliarden Transistoren wirst du da ja nie fertig. Normalerweise fokusiert sich da jedes Ingenieurteam auf eine konkrete Komponente und wenn die fertig designt ist wird die einfach x-mal ins Top-Level Design reingeschmissen, worum sich wieder ein anderes Team kümmert. Sehr ähnlich wie bei der Software-Entwicklung.

Bitte nicht falsch verstehen leicht ist das nicht unbedingt - gerade für Einsteiger - aber wenn du das ganze Jahr nichts anderes machst als Schaltungen zu entwerfen, dann geht sowas irgendwann aus dem FF. Und dem entsprechend finde ich auch das, was AMD geleistet hat jetzt nicht so wahnsinnig innovativ. Sie haben halt ihren Job gemacht, neu ist da nix, da man letztlich nur die Vorgaben von Hynix erfüllen musste.

Ob jetzt ein schneller RISC oder ein hochcomplexer CISC die schwierigere Mikroprozessorentwicklung hat lässt sich sicherlich nicht so schnell sagen. Fest steht aber ein Speicherinterface von 512Bit auf 4096Bit aufzubohren in einem Entwicklungsschritt ist eine beachtliche Leistung. Wenn es so einfach wäre hätten wir nicht ewig gebraucht um auf 512Bit zu kommen. Zumal gerade Nvidia zeigt dass Sie es nicht mal auf 512Bit schaffen und dazu sogar Probleme haben 4Gb in der 970 voll mit gleicher Bandbreite anzusteuern. Sondern das muss auf 3,5 +0,5 aufgesplittet werden und dann hat man nicht mal mehr als 224Bit + 32Bit möglich. Quelle Wikipedia https://de.wikipedia.org/wiki/Nvidia-Geforce-900-Serie. Also auch das so gelobte Nvidia unternehmen hat das nicht erreicht.
GPU vs CPU hat nicht wirklich was mit CISC vs RISC zu tun. Letztlich sind beides heutzutage RISC Architekturen. Dennoch würde ich die CPU als wesentlich komplexer betrachten bedint durch ihr Steuerwerk.

Das Aufbohren des Interface ist nicht das Problem. Breiteres Interface benötigt halt mehr Platz und damit Geld. Das funktioniert mit 4096Bit auch nur deswegen, weil wir jetzt Stacked Memory haben. Das ist aber weniger eine Leistung von AMD als viel mehr von Hynix.
Warum haben wir bei vielen Grafikkarten kein 512Bit Interface? Nicht weil es nicht machbar wäre, sondern es ist einfach sehr teuer. Du hast nur eine begrenzte Anzahl an Transistoren, wenn du die Produktionskosten nicht ins unermessliche treiben willst (neben den physikalischen Grenzen). Dass die GTX 970 keine 256 Bit hat liegt nicht, daran, dass es nicht möglich wäre und NVidia zu unfähig ist, sondern weil man den Chip einfach gegenüber der GTX980 kastriert hat (und dies dann nicht an die Endkunden kommuniziert hat). Durch die Kastration spart Nvidia einiges an Kohle ein und die Kunden können einen GM204 für 150€ weniger erwerben.
Dass die 970 weniger Shader hat liegt ja auch nicht daran, dass es nicht möglich wäre oder NVidia Probleme bei der Produktion hat, sondern einfach daran dass die entsprechenden Cluster auf dem DIE deaktiviert sind und so sozusagen der Ausschuss der GTX980 Produktion für die kleinere GTX970 verwendet werden kann. Das spart Entwicklungskosten und macht die Produktion effizienter.

Edit: mal sehen ob der erste Teil beim Moderator vorbei kommt. Hier scheinen ausgiebige "Fachgespräche" über Digitaltechnik in diesem speziellen Fall "Entwicklungsschwierigkeiten" von 512Bit auf 4096Bit und heranziehen von Bsp. aus anderen bereichen wohl nicht erwünscht zu sein. Schade ....AMD oder Nvidia Fanboy gelaberre scheint "fachgesprächig" zu sein. egal wenigstens das obige ist durchgekommen.
Finde ich auch sehr traurig, zumal wir uns ja aus meiner Sicht auf einem relativ objektiven, fachlichen Niveau bewegen. Provozierende Halbwahrheiten raus zu posaunen erzeugt wohl mehr Klicks...
 
Nun ich habe für später ein Corsair 540 Air gekauft das dann neben mir oben aufn Tisch stehen soll, ein Test zB mit dem Air 540 mit Seitenteil & gedämmten Case wären echt gut.
Aber für über 600 € ein NoGo Spulen fiepen und ne AIO Wakù die so einen Krach macht.

NV hat es geschafft "Lautlos" mit der 980ti & Titan X so muss das sein und nicht anderes .....
 
Du hast die Karte doch gar nicht.

Das Fiepen hörst du sogar noch aus 4m, wenn ich den Raum betrete. Das Geräusch ist live deutlicher zu hören als auf dem Video.
 
Amusens schrieb:
NV hat es geschafft "Lautlos" mit der [...]Titan X so muss das sein und nicht anderes .....
Die Titan X dreht auf 47,5 bzw 50 Dezibel auf... In dem Zusammenhang von lautlos zu reden ist
... :freak:
 
Ich würde auch keine NV kaufen mit AIO Wakü wenn die so laut wäre
Ergänzung ()

PiPaPa schrieb:
Die Titan X dreht auf 47,5 bzw 50 Dezibel auf... In dem Zusammenhang von lautlos zu reden ist
... :freak:

Ich Rede von der Titan X Hybrid und "Lautlos" ist Lautlos in "" die Lüfter hört man ja aber die Pumpe ist 99% leiser als von der Fury X
Ergänzung ()

Ist jetzt nicht Sone angesagt?
 
Hat jemand bereits Windows 10 in einer stabilen Version mit DX12?

Oder hat jemand eine 290/390, bzw. 290X/390X und kann den 3DMark API-Overhead Test auch mal durchlaufen lassen?

Ich fand das schon sehr beeindruckend.
 

Anhänge

  • API_Overhead_Test_FuryX.JPG
    API_Overhead_Test_FuryX.JPG
    118,5 KB · Aufrufe: 564
nurfbold schrieb:
Danke für den Test. Sehr ernüchternd. Die 980 Ti bleibt dann doch die bessere Karte, weil deutlich mehr Oc möglich und mehr Speicher vorhanden. Der einzige Pluspunkt ist die Laustärke und der Preis.



Du hast den Test nicht gelesen, oder wie soviele nicht Verstanden.

(Speicher Verwaltung)

Was Leistung , sprich Treiberoptimierungen bei AMD bedeuten wissen wir,also könnte die Karte unter Umständen noch etwas mehr zulegen ,es dauert halt immer etwas Länger.

Was eine 980TI OC betrifft die kostet dann fix 70-100 Euro mehr:D


Lese den Test einfach nochmal.


Ich find die AMD Karte Lohnt aufwohl die Preise schon arg Hoch sind.
 
Zuletzt bearbeitet:
die 980t Gaming G1 kostet auch nur 705€, also nicht wirklich viel mehr.

AMD ist selbst schuld wenn man sich so weit aus dem Fenster lehnt und dann trotzdem nur Standard abliefert. Overclockers Dream, naja... nicht wirklich. Fiepen braucht man bei einer 700€ Karte auch nicht wirklich. Für den Preis ist die Karte ok, aber auch nicht mehr wie eine gute Alternative.
 
Ich sehe hier immer noch diese Diskussion:
"HBM bringt nix!"
"Dooooch!"

Unter der Annahme, dass beide Seiten ein gewisses Mindestmaß an Verstand verwenden, (ich weiß, da liegt hier gelegentlich genau der Fehler) redet man hier wohl klassisch aneinander vorbei: Beiden Seiten haben Recht, bzw. Unrecht.
Klar ist HBM dem GDDR5 überlegen, deutlich sogar. Wer das bezweifelt, der widerlegt meine Annahme. Dass HBM aktuell aber "nichts" bringt stimmt leider auch. Denn auch wenn die Technik toll ist, ändert das nichts daran, dass wir sie aktuell nur auf der Fury X kaufen können. Und da ist der Mehrwert für den Käufer tatsächlich fraglich. Ich habe da meine Meinung schon zu abgegeben und die Fakten sind in Massenhaft Tests nachzulesen, aber in Form der Fury X reduzieren sich die Vorteile von HBM im aktuellen Einsatz letztlich nur auf die kleinere Form.

Und sind wir mal ehrlich, selbst bei kleinen ITX-Gehäusen gibt es mittlerweile viele, die eine normalgroße Grafikkarte locker aufnehmen. Genauso ist z.B. eine normale 980Ti mit 27cm Länge ja nun kein Monster. Wenn man den Platzbedarf des Radiators und der Schläuche mit einrechnet, dann ist die Fury X sogar größer, man kann sie nur flexibler einbauen. Aber auch unter den ITX-Gehäusen, in die eine normal große Grafikkarte nicht mehr rein passt, gibt es einige, wo ein 120mm-Radiator ebenfalls nicht rein passt. Dass die Größe vielen Enthusiasten, die in der Preisklasse gerne kaufen, sowieso egal ist, kommt noch dazu. Mal Hand auf's Herz, wie wichtig ist eine super starke 700€-GPU in einem kleinen Wohnzimmerkasten als Anwendungszenario wirklich? Wie viele der Leute, die sie hier gekauft haben oder kaufen wollen, nutzen sie denn letztlich wirklich in einem Gehäuse, wo keine normale Grafikkarte rein gepasst hätte? (Ich weiß, die paar die es betrifft werden jetzt natürlich "hier" schreien.) Ganz am Ende kann man sich dann, selbst wenn es jetzt ausgerechnet ein Gehäuse mit zu wenig Platz sein sollte, sowieso noch fragen, ob das Platzangebot in meinem 50-100€-Gehäuse jetzt wirklich den entscheidenden Ausschlag beim Kauf von 700€-Hardware machen sollte. (Einige dürfen sich dann auch gerne fragen, ob es wirklich sinnvoll ist, das Wohnzimmer-PC-Szenario so wichtig darzustellen, dann aber gleichzeitig zu behaupten, die übliche und in vielen Fällen einzige Methode 4K-Material in über 30FPS an einen Fernseher zu übertragen, sei vollkommen zu vernachlässigen.) Meine Absicht ist dabei absolut nicht, diesen Punkt komplett vom Tisch zu nehmen. Er ist schon da und die Fury X ist tatsächlich kompakter und in einigen Fällen einbaubar, wo es eine größere Karte nicht wäre. Ich bin nur der Meinung, dass das Thema Größe aktuell ziemlich stark überbewertet wird, da es anscheinend für einige ein entscheidendes Argument in ihrer AMD vs NVidia Debatte ist. Mit der realen Situation hat das dann aber nicht mehr so viel zu tun.

@Pascal67
Bevor man anderen rät, nochmal zu lesen, sollte man sich lieber auch selbst etwas gründlicher informieren. Auch OC-Modelle der 980Ti sind vergleichsweise günstig zu kriegen, der Aufpreis kaum nennenswert und für jemanden, den OC bei der Fury X interessiert hätte, für den kommen sicher nicht nur von Hause aus übertaktete Varianten (die es von der Fury X ja auch nicht gibt) in Frage. Auch mit anderen Pluspunkten ist es wirklich eher dünn gesät. Selbst über die Lautstärke kann man noch streiten, da diese nach den aktuellen Testwerten durchaus auch mit guten Luftkühlern erreicht werden kann. Die Speicherverwaltung auf die du verweist, ist allerdings nachweislich keiner. Diese sorgt nämlich nur dafür, dass die fehlende Kapazität weniger ins Gewicht fällt. In diversen Tests findet man aber die Belege dafür, dass eine tatsächliche Gleichwertigkeit zu mehr Speicher (6-8GB) eben bisher nicht erreicht werden konnte.
 
Zuletzt bearbeitet:
eben,sie ist eine gute alternative. was sollte sie auch sonst sein? hat hier jemand ehrlich gedacht das die fury 20-30% schneller ist? falls ja,dann ist das schon traurig genug. AMD hat nun den weg für HBM in späteren Generationen geebnet. Das könnte vielleicht von Vorteil für AMD sein. Die Karte ist für den Preis vollkommen in Ordnung. Das mit dem Fiepen usw wird sicherlich mit den nächsten Chargen ausgemerzt. Aber selbst wenn dann alles ok an der Karte ist, irgendeiner hat immer was zu meckern. Meistens sind es doch die Leute die sich die Karte eh nicht kaufen die meckern.

gruß
 
Ja, sie ist halt eine Alternative. Nicht mehr, nicht weniger. Ob man sie oder die Ti wählt, hängt Wohl vom eigenen Geschmack und den Präferenzen ab.

@Karre: Ich wusste gar nicht, dass Windows 7 auf so einer alten Hardware überhaupt läuft. Pentium II? Ehrlich? Musste da gerade echt schmunzeln.
 
laurooon schrieb:
@Karre: Ich wusste gar nicht, dass Windows 7 auf so einer alten Hardware überhaupt läuft. Pentium II? Ehrlich? Musste da gerade echt schmunzeln.

Win7 läuft sogar auf einem AMD K5 mit 90MHz. :)
http://www.winhistory.de/more/386/winq.htm
(Für die jüngeren unter uns: K5 war AMDs Gegenstück zu Intels Pentiums der ersten Generation.)

Was die Fury/Fiji angeht, holt sie, wie auch die GM200-Karten von Nvidia, wohl einfach das raus, was aus dem alten 28nm-Fertigungsprozess noch rauszuquetschen ist, ohne jeden TDP-Rahmen und zumutbare Die-Abmessungen zu sprengen. Gut 80% Mehrleistung (bei nur ca. 15% mehr Verbrauch) gegenüber Tahiti hätte man 2011 wohl nicht unbedingt für möglich gehalten.

Für AMD könnte es auch ganz gut passen, dass sie die neue HBM-Technik jetzt noch auf dem alten, ausgereiften Fertigungsprozess einführen konnten. Nvidia wird bei Pascal gleich zwei Herausforderungen (neuer, unerprobter Prozess und neue Speichertechnologie) gleichzeitig meistern müssen. (Das hat ja seinerzeit bei Fermi nicht ganz so gut hingehauen.)
 
Zurück
Oben