Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

1. 7950 ocerclocked (2013 - hoh.de 180€) vs. R9 380 (2015 - 190€)
2. GTX 770 (late 2013 - 250€) vs. R9 380 (2015 - 190€)

Nach zwei Jahren aufrüsten ? lol
 
Fried_Knight schrieb:
@Herdware

Mir ist völlig egal, was für Erfahrungen du beim Verschieben von Stereoanlagen machst (:D ). Wenn das bei euch normal ist, hätte ich gerne die Markennamen, damit ich etwas anderes kaufen kann.

Keine Angst. Die Produkte, mit denen ich Erfahrungen habe, gegehen nicht an Consumer, sondern an große Industriekunden. ;)
Was du als Consumer, auch von den großen "Markenherstellern" z.B. als Stereoanlage bekommst, hat garantiert zum Serienstart noch eine sehr viel schlechtere Qualität und muss durch sehr viel mehr Revisionen gehen, bis es einen wirklich unproblematischen "Reifegrad" erreicht hat.

Du solltest dir keine Illusionen darüber machen, dass immer nur perfekt ein durchkonstruiertes und fehlerfreies Produkt in Serie geht. Dafür sind die Produkte, von denen wir hier sprechen, viel zu komplex.

Ich hab doch auch schon reichlich bekannte Beispiele aus der IT-Welt genannt. Hinzufügen könnte ich z.B. noch den i7 3930K, den ich selbst besitze. Das war, als die CPU rauskam, auch eine ziemlich neuartige Hardware mit diversen, bis da hin im Feld unerprobten Funktionen, und hatte in der ersten Serien-Revision (die ich habe) z.B. einen größeren Bug, der die VT-d Funktion komplett unbrauchbar machte. Problematisch war und blieb ebenfalls der in bei dieser CPU erstmals direkt integrierte PCIe3.0-Controller. Der hat nie so zuverlässig funktioniert, dass Intel offiziell die 3.0-Unterstützung in den SB-E-CPUs bestätigt hätte. Das war erst beim Nachfolger Ivy Bridge(-E) so weit.
Ein anderes prominentes Beispiel wären die Haswell-CPUs, die in den ersten Serienmodellen TSX nicht fehlerfrei beherrschten, so dass es nachträglich per Microcode deaktiviert werden musste.

Ist Intel deiner Meinung nach besonders fahrlässig, mit seinen Produkten? Ist es ein Hersteller mit besonders schlechtem Ruf?

Glaub mir, jede neue, halbwegs komplexe Technologie bringt so viele Risiken, dass es eher die Regel als die Ausnahme ist, dass sie in den ersten Serienprodukten noch nicht ganz fehlerfrei funktioniert. Und genau deshalb versucht man so wenig unerprobtes wie möglich in ein einzelnes Produkt zu quetschen. Sonst ist eine Katastrophe nahezu vorprogrammiert. Man macht besser einen Schritt nach dem anderen.

Ich will mir besser gar nicht vorstellen, was mein SB-E geworden wäre, wenn Intel den direkt in 22nm gebracht hätte.
 
Zuletzt bearbeitet:
Junge, du bist anstrengend. Du redest hier von Fehlern in der Prozessorlogik und nein, die wurden nicht auf den Markt gebracht, um dort zu reifen, und ja, Speicher ist ein ganz anderes Kaliber (nämlich ein wesentlich kleineres).
Noch mal: Wenn da wer lernt, ist das nicht AMD, es ist Hynix, die vielleicht etwas bei der Fertigungstechnik optimieren können o.ä.. Wobei die auch nichts mehr über HBM1 lernen (wollen, denn HBM2 geht auch bis 4GB runter). Es wird auch sehr wahrscheinlich keine weitere Revision davon geben, weil er nur die Zwischenstufe ist. Die Entwicklung ist für HBM1 direkt abgeschlossen.

AMD könnte von Fehlern in Fiji lernen, denn der liegt in ihrem direkten Zugriff. Dann gibt es von ihm eben mal eine neue Rev. wegen besserer Fertigung o.ä., die 50MHz mehr rauskitzelt. Völlig egal.

Greenland ist - wie ich auch schon mal sagte - eine ganz andere Architektur, die genauso die Aufmerksamkeit erwartet, wie Pascal von Nvidia.

Vorteil = 0, im schlimmsten Fall Doppelbelastung für AMD, da sie zeitgleich unterschiedliche Stufen HBM an zwei Architekturen klemmen müssen.
 
Zuletzt bearbeitet:
Fried_Knight schrieb:
Du redest hier von Fehlern in der Prozessorlogik und nein, die wurden nicht auf den Markt gebracht, um dort zu reifen,

Es geht darum, dass Intel diese bespielhaft genannten Fehler eben erst ausspüren und dann für zukünftige Revisionen und/oder Produkte abstellen konnte, nachdem sie mit diesen CPUs in Serien gegangen sind. In Simulationen und Laborversuchen mit Prototypen sind diese Probleme offensichtlich vorab nicht festgestellt worden. Dazu brauchte es die großen Serienstückzahlen und Rückmeldungen aus dem Feld.

und ja, Speicher ist ein ganz anderes Kaliber (nämlich ein wesentlich kleineres).

Dann erkläre mir mal das schon genannte MTH-Debakel beim i820-Chipsatz. Das war ja nicht mal ein richtiger Speichercontroller, sondern nur ein "popeliger" RDRAM>SDRAM-Umsetzer und führte doch zu einem für Intel sehr schmerzhaften Produktrückruf.

Eine brandneue Speicher-/Speichercontroller-Technologie (sei es damals RDRAM oder jetzt HBM) ist kein kleines Kaliber. AMD hat nach eigener Aussage Jahre damit verbracht, HBM marktreif zu bekommen. Und marktreif bedeutet eben trotzdem nicht Null Fehlerrisiko.

Der Vorteil, HBM nicht zeitgleich mit einer ganz neuen (oder stark überarbeiteten) GPU-Architektur und einem neuen Fertigungsprozess zu bringen, liegt klar auf der Hand. Es ist ein um Größenordungen geringeres Risiko.
 
Nein, ist es nicht und deine Beispiele haben einfach nichts mit der jetzigen Situation zu tun (was du einfach nicht begreifen willst).
Du vergleichst ständig Äpfel mit Birnen.
Klar kommen Fehler vor. Man kann nicht einen Fehler in der Birnenstruktur auf die Apfelstruktur übertragen, wenn man selbst nur die Kontrolle über die Kerne hat.
Was soll denn da klar auf der Hand liegen? Wie man physikalisch HBM 1 mit Fiji verbindet, das hat man gelernt. Cool. Wem hilft es?
 
m0LN4r schrieb:
Bonus Frage über mid-range:
Ich habe mir vor zirka 2 Jahren eine neue GTX 770 für 250€ gekauft.

Wie viel mehr performance kann ich heute von einer _neuen_ 250€ karte kriegen?
Was hat sich im mid-range in letzten zwei Jahren angeboten?
Ich würde lieber etwas über 300€ ausgeben und mir eine 970er oder eine 390 (ohne X) zulegen. Der Sweet Spot liegt leider heute nicht mehr bei 150€ bis 250€ sondern zwischen 300 und 400€. Deine eigentliche Frage kann ich dir aber nicht beantworten. Würde mich auch mal interessieren...

Wäre dann der Vergleich zwischen deiner 770 und der Radeon 380 (oder auch der 960 mit 4GB). Ich würde aber mal vermuten, dass sich das Upgrade von deiner 770 nicht lohnt... dann sollte es wie gesagt schon mindestens die 970 oder die 390 sein...
 
Zuletzt bearbeitet:
Das bedeutet einfach, das im 190 - 250€ segment keine Upgrades gibt,
zum 2-3 Jahr alten Karten die ähnlich viel gekostet haben.

Dan fragt sich man, was gab es für 300-350€ vor 2 Jahren ?
+15% (von 40 auf 46fps) mehr leistung in 2/3 Jahren für den selben Preiss ist kein Upgrade oder?

Rein theoretisch und ein bishen übertrieben muss man heute im Jahre 2015 2x mehr Gelt als 2/3 Jahre her für eine graka ausgeben, damit man einen spürbaren "Upgrade" machen kann. Das is doch nicht ein Upgrade, das ist anstatt eine midrange karte eine highrange zu kaufen.
 
Zuletzt bearbeitet:
Vielleicht hat sich in den zwei Jahren einfach nicht viel getan. Und Nvidia hat relativ erfolgreich die Preise für Grafikkarten erhöht. 250€ ist heute eben eine Budget-Karte und keine midrange mehr, so traurig das ist. Ich vermute auch mal, dass die 770 hauptsächlich durch die 2GB VRAM limitiert wird.
 
Es gab mal früher ein Preisniveau, wir wir es heute haben. Da gab es für 150€ ne 8600GTS von Nivea, wo erst die HD3850 kommen musste, um doppelte Leistung für den gleichen Preis einzuführen. Dann kam für 2x0€ die HD4870, die die GTX260 geerdet hatte. Die HD5870 war preislich auf krass niedrigem Niveau. Die HD6870/6970 hatte dann das Modell und die Namensgebung wieder erhöht und jetzt sind wir seit Jahren auf dem Weg zurück ins hochpreisige Segment...

Gibt halt für 150-250€ keine sinnvolle Möglichkeit, vor paar Jahren gekaufte Produkte sinnvoll zu ersetzen in meiner Meinung. Die HD370 is ja ein technologischer Witz.

Und zum Bananenprodukt:

Ich unterstütze diese Sichtweise, denn:

Produkte können im Test, in der Theorie und Kleinserie nie so getestet werden, wie auf dem Markt. Bulldozer war ein genialer Ansatz, technologisch superb (mMn) und was war? Nix. Hat sich nicht bewährt. Die HD2900XT war super gedacht, aber ein Flop, weil "irgendwas" nicht gepasst hat.

HBM und der Rest mag technisch ausgereift sein, aber kann in der Praxis an weiteren Problemen scheitern, die man nie gedacht hätte, also Kapazitäten, Fertigungsverbesserungen und so weiter.
Dazu viele Fehler in Prozessoren, die man halt nachher erst findet, wie etwa TLB-Bug und der eine Fehler bei Intel, der Pentiums reproduktiv "ärgerte".

Heißt ja nicht, dass die Grafikkarte ein Stück Beta-Ware oder Alpha ist, wie etwa moderne Computerspiele, wenn sie aufn Markt kommen, sondern dass immer etwas kommen kann, was in der Theorie nicht gedacht war. Etwa, dass in der Architektur Schwachstellen, Flaschenhälse auftauchen, weil die Entwicklung anders erhofft wurde etc.

Siehe 2xTongaXT. Flaschenhälse und supoptimale Fütterung der Shader.
 
Sontin schrieb:
Was für eine geniale Logik.
Was erwartet man sich von neuer Speichertechnik? Mehr Speicher, mehr Bandbreite und mindesten gleichem Verbrauch.

Was erwartet man von einer neuen Speichertechnik ? Ich nehme an, einen höheren Datendurchsatz und die Menge (und noch paar andere Faktoren) . Natürlich muss es ausgewogen sein. Ob es das ist, ist ja hier oft genug diskutiert worden und am Ende stellt sich heraus, dass es personenbezogen ist.

74487.png


Klar, NV wird weiter oben bei der Kurve einsteigen. Trotzdem hat ein früherer Einstieg für AMD Vorteile, die hier einige eben runterspielen wollen.Aber auch für NV hat der spätere Einstieg Vorteil. Welche Position nun die bessere ist, ist fraglich. NV ist durchaus unter Druck (und das nicht mal zwangsweise durch AMD, sondern OEM-Partner) neue HPC Karten auf den Markt zu bringen. Neben dem Druck gibt es nun mal mehrere Risko Faktoren und HBM ist eben doch einer.
Weiteres spielt es keine Rolle ob HBM 1.0 oder HBM 2.0 Integration, weil am SI sich wahrscheinlich wenig ändern wird.

Btw, eine kleine Frage. Wieviel MCM Chips gab es eigentlich von NV schon ? Also Chips mit Interposer. Selbst bei der PS3 war der Chip nie mit der CPU auf einem Interposer (XBOX 360 schon).
Vllt ist diese Anbindung simple, aber trotzdem ebenso Neuland für NV.

Man darf gespannt sein. Erstens dass sowohl NV als auch AMD an deren Architektur Pfeilen und 14nm Fertigung. Dann wird man auch eventuell mehr Potential von HBM erkennen.

Kreisverkehr
Ich hätte auch lieber einen Fijii gehabt, mit gleich vielen Shader wie Hawaii und 4GB HBM.
 
@ Pipip

Ich bin aber ganz froh, dass Tonga und Carrizo Pate standen, auch wenn das Verhältnis von ROPs/TMUs und Shader "falsch" ist. Eigentlich eher das Verhältnis von Hawaii mit der Technik von Tonga/Carrizo (wie es halt jetzt ohne das "richtige" Verhältnis ist).

Is halt blöd gelaufen, dass man statt AA halt SS/Downsampling oder weiteres nutzen muss, um die Shader besser auszulasten, weil der Rest limitiert. Wobei, hat theoretisch besseres Bild zur Folge.

Dafür, dass man damit mit Nvidia gleichgezogen hat, hat man dann für Pascal was in der Hinterhand, wenn man die Flaschenhälse beseitigt und was dann die ACUs bringen, mal schauen. "Gar nicht mal sooo scheiße"
 
pipip schrieb:
Btw, eine kleine Frage. Wieviel MCM Chips gab es eigentlich von NV schon ? Also Chips mit Interposer. Selbst bei der PS3 war der Chip nie mit der CPU auf einem Interposer (XBOX 360 schon).
Vllt ist diese Anbindung simple, aber trotzdem ebenso Neuland für NV.
Naja, ist das aber nicht von Know-how des Fertigers abhängig? AMD hat den auch nicht selber gefertigt und nVidia wird es wohl auch nicht tun. Daher könnte diese Frage zweitrangig werden.
 
Trotzdem hat ein früherer Einstieg für AMD Vorteile, die hier einige eben runterspielen wollen.

Hier will überhaupt niemand etwas runterspielen. Das Fan-Lager habe ich noch auf keiner Seite betreten. Das überlasse ich dir.
Es geht um einfache Logik, darum, was man denn aus HBM1 und Fiji auf Greenland und HBM2 an Erfahrung übertragen könnte. Das sind zwei völlig unterschiedliche Produkte, die eigenständige Lösungen erfordern.
Deswegen wird da AMD nicht als großer Gewinner hervorgehen und bei Nvidia alles ruckeln, weil die "Damen und Herren ja so unerfahren sind" und den Speicher nicht kontrollieren können. Das halte ich schlicht für groben Unfug.
Weiter halte ich es sogar nicht für unwahrscheinlich, dass es Nvidia einfacher hat, da sie eben nicht an zwei Baustellen stehen.

@Kreisverkehr
Der Bulldozer war einfach eine Fehleinschätzung der Marktlage. Das sind alles Beispiele, die mit dieser Situation nichts zu tun haben. Wir reden hier über "Wissenvorsprünge" durch früheren Verkauf (nicht Zugriff, denn den haben beide) von Produkten durch Anwendung auf andere Architektur, Größe und Revision.
Da ist eben nichts. Greenland mit HBM2 ist seine eigene Baustelle, die bearbeitet werden möchte.
 
nVidia hat 2013 angekündigt, dass sie 2016 mit Stacked 3D Ram kommen werden.
Die arbeiten also ebenfalls seit Jahren an der Technik. Die haben sogar den Typen von AMD eingestellt, der bei AMD daran gearbeitet hat.

Du blendest des Weiteren die Nachteile von HBM1 vollkommen aus und schreist hier rum, wie toll und innovativ doch AMD ist. Was genau hat denen denn HBM gebracht, dass zu einem Vorteil gegenüber nVidia mit GDDR5 gelten könnte?
Stromverbrauch? Fury X braucht mehr. Speichermenge? Fury ist limitiert auf 4GB gegenüber 12GB(!). Datendurchsatz? Nö, denn mehr als ~384GB/s sind wohl nicht drin - und damit Gleichstand zu nVidia.

Dann bleibt die Kompaktheit, die bei Fury X jedoch durch die AIO Kühlung nicht komplett zum Vorteil reicht.

nVidia braucht keinen High-End Chip mit HBM1, um ein gutes Produkt mit HBM2 auf den Markt zu bringen.

Man sieht ja an Fiji, das die tollen 5 Jahre Entwicklungszeit nicht ausreicht waren, um eine alte Technik wie GDDR5 zu schlagen.
 
Ich hab Planungsfehler und technische Fehler in einen Topf geworfen, auch wenn es nicht direkt passt, schon klar. Im Nachhinein war da auch nichts mit "reifen beim Kunden"..

Aber ich sehe es so, dass HBM ermöglich hatte, eine Mixed Precision Architektur auf den Effizienzstand der Single-Purpose-Architektur (mir fällt grad das Wort ned ein für Nvidias SP-Architektur) zu heben, ohne großartig die zu Grunde liegende Architektur ändern zu müssen, sondern einfach "nur" den Speicher(-controller) zu ändern.
Daran kann dann später durch Analyse unerwarteter architektonischer Schwachstellen oder Problemstellen für HBM 2 halt intern Verbesserungen erreichen.

Mal schauen, was es mit der Übertaktbarkeit des Speichers auf sich hat.
 
Im Luxx hat heute jemand einen passenden Kommentar über den Sinn des übertakten vom HBM Speicher gemacht.

Ich bin so frei und zitiere einfach einmal vom @Cippoli

Auf den Kommentar: Fury X mangelt es sicher nicht an Bandbreite beim VRAM, was bringt dann Speicher-OC?
Antwortet er: Ist wie bei einer Firmenfeier mit gratis Buffet. Man hat zwar keinen Hunger, stopft aber trotzdem alles rein was geht...
 
Sontin schrieb:
nVidia hat 2013 angekündigt, dass sie 2016 mit Stacked 3D Ram kommen werden.
Ja, damit war HMC gemeint. Nicht HBM.
Die arbeiten also ebenfalls seit Jahren an der Technik.
Nein, sie haben seit Jahren zusammen mit Micron an HMC gearbeitet. Ganz andere Anforderungen ab Speichercontroller und Anbindung bei höherem Verbrauch.
Daher hat sich nvidia davon abgewandt und setzt jetzt nun auf HBM
Die haben sogar den Typen von AMD eingestellt, der bei AMD daran gearbeitet hat.
Das ist ja schön das nvidia Know How abwerben muss(te).

Man sieht ja an Fiji, das die tollen 5 Jahre Entwicklungszeit nicht ausreicht waren, um eine alte Technik wie GDDR5 zu schlagen.
Du spielst immer auf eine Chiparchitektur an. Hat nur leider nicht viel mit HBM oder GDDR5 zu tun.
 
MikelMolto schrieb:
Auf den Kommentar: Fury X mangelt es sicher nicht an Bandbreite beim VRAM, was bringt dann Speicher-OC?

Nein, das war nicht meine Intention. Ich wollte eigentlich das eher für die Zukunft anmerken, da "bald" die Bandbreite genutzt werken kann und dann kein "besserer" Speicher genutzt werden muss, wenn der jetzige noch nicht an der Taktgrenze operiert, sondern dann "nur" die Größe varriert werden muss bei gleicher Busbreite.

Mal gespannt, was da noch alles im Kommen ist.
 
@sontin

ich hätte ehrlich nicht gedacht das noch jemand weniger wissen hier halt als ich, aber was das betrifft scheinst du der guru der unwissenheit zu sein. hbm verbrauch weniger, der datendurschsatz ist schon jetzt höher, auch wenn die fury das nicht ausschöpfen kann bedeutet das nicht, das dies nicht so ist.

gruß
 
Zurück
Oben