Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

Herdware schrieb:
Wenn ich das richtig mitbekommen habe, hat auch AMD bei Fiji die DP-Leistung deutlich reduziert, im Vergleich zu Hawaii.
Kreisverkehr schrieb:
Richtig, Hawaii hat 1/2, Tonga, äh Fiji hat 1/16.
Richtig, und nvidia hat die DP Leistung vom GM200 auf 1/32 reduziert.
Dazu ist dann GCN eben mixed precision, sprich auch wenn nur Single Precision genutzt/benötigt wird ist der Verbrauch höher.

Daher die Effizienz.
 
Ein derartiger Vergleich wird bestimmt kommen, wenn erstmal die ganzen Custom Modelle verfügbar sind. Bei der GTX 980 war das Palit-Modell wohl ganz vorne. Wir werden ja sehen. Doch hier solls ja um die AMD gehen.
 
Was soll eine GAMER-GPU auch mit DP-Power?
Und ich sage es nochmal-Fury ist bis auf die nur 4GB eine gute HE-Graka!
Viell.wäre es besser gewesen anstatt ne "minimal optimierte doppelte Tonga (GCN 1.2)" mehr am Chipdesign zu ändern und dafür erstmal auf GDDR5 zu setzen (Viell.ein optimiertes 384Bit Design mit 6GB?) u.HBM(2) auf dem nächsten Design zu verwenden?
Die anderen "Fakten" hab ich mir in meinem vorigen Thread(75)vom Hertzen geschrieben.
VG
 
Zuletzt bearbeitet:
buzzjung77 schrieb:
u.HBM(2) auf dem nächsten Design zu verwenden?

Wie ich schon geschrieben habe, hat es durchaus Vorteile, dass Fiji/Fury als HBM-"Testballon" benutzt wird. Im absoluten High-End sind die Stückzahlen nicht zu groß und der 28nm-Prozess ist seit Jahren ausgereift und gut bekannt. Bei der GPU-Architektur selbst hat AMD auch keine größeren Experimente gemacht.
Das ist die perfekte Testplattform für so eine radikal neues Speicher-Konzept.

Mag sein, dass die Furys, wie sie jetzt sind, dadurch nicht ganz so gut aussehen, wie sie vielleicht könnten, wenn man auf ein konventionelleres Design gesetzt hätte, aber dafür ist der nächste Schritt für AMD jetzt sehr viel leichter, als für Nvidia, die mit HBM und gleichzeitig 16nm und mehr oder weniger stark überarbeiteter Architektur gleich mehrere Sprünge auf einmal schaffen müssen. Landet man auch nur einen dieser Sprünge nicht ganz optimal, kann sowas wie GF100 dabei heraus kommen.

Wobei ich, wenn AMD HBM erstmal richtig im Griff hat, die interessantere Anwendung sowieso nicht bei High-End-GPUs sehe, sondern bei APUs. Da ist die Speicherbandbreite auch heute schon ein stark limitierender Faktor und DDR4 wird das nicht wesentlich verbessern. Dort wird HBM also wirklich gebraucht.
Ein Notebook oder Tablet mit HBM-APU stelle ich mir richtig genial vor. Nicht nur wegen des wegfallenden Speicher-Flaschenhalses, sondern weil Strom- und Platzersparnis da auch richtig nützlich sind.
(Ergänzung: Eine HBM-Spielkonsole könnte auch ziemlich interessant sein.)
 
Zuletzt bearbeitet:
Dann "frage" ich mich warum nvidia mit Pascal wieder mit DP Power ankommt und den selben Weg einschlägt wie AMD mit GCN, nämlich mit einer mixed precision Architektur.

Dazu ist es ein kluger Schachzug HBM bei einer bereits funktionierenden Fertigungsgröße zu "testen".
Nvidia muss nämlich bei Pascal mehrere Baustellen zu bewältigen. 14/16nm Fertigung, die Architektur auf mixed Precision umstellen, die ROPs vom Speicherinterface zu entkoppeln, neuen HBM Speicher unterstützen usw.
 
@Herdware
Das stimmt so einfach nicht. Ob nun Nvidia oder AMD: beide haben wohl relativ gleichzeitig Zugriff auf HBM. Was die Zwei unterscheidet, ist ein Vorzugsrecht für den Kauf und den damit verbundenen Verkauf in den Markt.

Nvidia hat ja nun nicht im Q2 2016 das erste Mal Kontakt zu HBM, fällt aus allen Wolken und muss dann erst mal frickeln, wie sie ihn mit Pascal vereinen.
Einen technischen Vorteil hat AMD durch das frühere Vertriebsrecht von HBM nicht.
Im Prototypenlabor dürften beide da keine Probleme haben, von Hynix Unterstützung zu bekommen. Vielleicht ist es sogar genau umgekehrt: während AMD sich noch mit 28nm und HBM 1 rumschlägt und gleichzeitig an HBM 2 und Greenland arbeitet, kann sich Nvidia einfach nur auf HBM 2 und Pascal konzentrieren. Wenn man dann noch weiß, wessen Forschungsetat höher ist und AMD vollmundig erklärt hat, dass das Gros ihres Etas in Zen geflossen ist, wird der Himmel schon wieder etwas dunkler.

Das wäre die Gegenprognose. Ich bin echt gespannt auf 2016 (auch wenn ich da nicht viel zocken kann :( ).
 
Zuletzt bearbeitet: (Typo)
AMD und Hynix haben zusammen an HBM seit ca 5 Jahren geforscht, entsprechend auch an den nachfolgenden Versionen.
Nvidia hat in der Zeit ihre Ressourcen in Micron und den HMC Ansatz gesteckt
Also wird wohl AMD etwas mehr als nur einen Vorteil aus einem Vorkaufsrecht haben wenn man im Gegensatz zur Konkurrenz in der Entwicklung involviert war.
 
Grundlagenforschung bringt in der Endanwendung so ziemlich keine Vorteile für den Forscher. Es ist ziemlich egal, ob man jedes Atom mit konzipiert hat (wenn denn AMDs Einfluss überhaupt so weitreichend war). Letztendlich wird der Speicher bei Hynix gekauft und verbracht, wie es vorgesehen wurde. ;)

(Um es bildlich zu beschreiben: man muss die Kuh nicht gezeugt haben, um Milch aus ihr zu pressen.)
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Und woher kommt die Effizienz? Größtenteils dadurch das nvidia simpel die DP Einheiten rausgeschmissen hat und dadurch vor allem den Profimarkt vor den Kopf gestoßen hat.
Und wenn juckts hier in diesen Thread?

GF100 wurde für seine GPGPU Leistung kritisiert. Jetzt wo AMD auch darauf setzt ist es natürlich der heilige Gral. AMD sollte lieber mal Tessellation fixen anstatt Schalter für geringe Qualität einzubauen.
 
@Fried_Knight
Prototypen und Laborexperimente sind schön und gut. Die Erfahrung hat aber gezeigt, dass nichts einen echten Praxiseinsatz im Feld ersetzen kann. Ein Produkt bzw. eine neue Technologie muss zu einem gewissen Grad "im Feld" reifen.

Weder bei AMD noch bei Nvidia kann man sicher davon ausgehen, dass sofort das erste Serienprodukt mit HBM perfekt ausfällt. Es werden sich praktisch immer kleinere und größere Probleme zeigen, die erst im Feld bzw. bei größeren Stückzahlen wirklich auffallen und systematisch analysiert werden können. (Das kann ich übrigens aus meiner eigenen, beruflichen Praxis so bestätigen.)
AMD hat dieses Thema was HBM angeht dann schon mit Fiji abgehakt. Und zwar losgelöst von anderen anderen potentiellen Problempunkten wie neuem Fertigungsprozess und größeren GPU-Architekturänderungen.

Intel setzt auch nicht umsonst seit Jahren auf das Tick-Tock-Modell und bringt immer abwechselnd neue Architektur und neuen Fertigungsprozess und nicht beides gleichzeitig.

Das heißt nicht, dass Pascal automatisch ein Reinfall wird. Es ist einfach ein wesentlich größeres Risiko als beim Fiji-Nachfolger, kann aber auch trotzdem gut gehen. AMD hat seinerzeit mit Tahiti auch direkt das brandneue GCN und den neuen 28nm-Prozess mit einer Big-Chip auf den Markt gebracht und es ist gut gegangen. Ein Beispiel für einen Reinfall wäre die GF100. Da musste dann erstmal der Refresh GF110 her, um die Probleme auszubügeln. Und das, obwohl es garantiert auch von GF100 vorab zahlreiche Prototypen und Laborexperimente gab.
 
hat jemand der Fury X / GTX 980 TI Besitzer hier Windows 10 drauf?

Würde gern mal den DX12 API Test vergleichen

-> eben getestet:


Scheinbar hat Nvidia da massiv was am Treiber gedreht denn ich komm mit neustem Nvidia Treiber auch deutlich höhere Werte als Hardwareluxx hier:


12 Millionen zu 20 Millionen... bei der GTX 980 TI. Unter DX11 kommen beide GTX 980 TI Ergebnisse eher hin .
 
Zuletzt bearbeitet:
Na ja,ich denke das NV nebenbei genug (u.natl.auch durch Hynix/Amd)
Erfahrungen gesammelt hat und auch schon viele Ressourcen in die Entwicklung gesteckt h.und keine grossen Probs.bei der Implementierung v.HBM(2)haben wird!?
Bei AMD sind die 4GB einf.zu wenig.(V.a.w.man das Produkt als perfekt für 4K Gaming bewirbt)
Aber schon die aktuellen HW-Fresser laufen teilw.am 30Fps-Limit bei höchster Q..(ohne AA usw...)
GAMER,die 650E o.mehr ausgeb.wollen eben !min!. 1 1/2 Jahre ihre "Ruhe" haben,ohne mehr o.weniger Features/Qualität reduzieren zu müssen!!!
So ist es nunmal! Ich warte vor dem Kauf immer min. 1,eher 2 Monate!
Allein schon,weil ich auf Nutzerberichte,neue Treiber u. auch Biosupdates warte!

Also,VG u.nen möglst.schönen T..
 
Krautmaster schrieb:
12 Millionen zu 20 Millionen... bei der GTX 980 TI. Unter DX11 kommen beide GTX 980 TI Ergebnisse eher hin .

Bitte die komplette URL des 3DMarks verlinken.

Dann kann man auch die übrigen Einstellungen ablesen. Vielleicht unterscheiden die sich krass.

So ist dein Bildausschnitt als Vergleich ziemlich wertlos.
 
Fried_Knight schrieb:
Letztendlich wird der Speicher bei Hynix gekauft und verbracht, wie es vorgesehen wurde. ;)
Es ist ja nicht nur der Speicher, es gehört ja auch noch der Controller und die Anbindung dazu. Und auch wenn man technische Dokumentationen hat muss es auch in der Praxis funktionieren.

Wenn alles so einfach wäre, wozu hätte dann nvidia bei Micron Ressourcen in HMC stecken sollen?
Es ist ja nicht so das nvidia mit Pascal einfach mal von HMC auf HBM umswitchen kann als ob man einfach einen Autoreifen wechselt.

@buzzjung77
Dann müsste nvidia ja scheinbar Industriespionage betrieben haben.
Nvidia hatte vor mit Pascal auf HMC zu setzen, haben deswegen mit Micron daran zusammen gearbeitet und scheinbar hat dies nicht gefruchtet und mussten jetzt auf HBM setzen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
12 Millionen zu 20 Millionen... bei der GTX 980 TI. Unter DX11 kommen beide GTX 980 TI Ergebnisse eher hin .

Du testest hier mit 6x4.5GHz
Die testen mit 6x3.9GHz mit ner 3960X.
Dazu ist deine 980Ti massivst übertaktet.
Die testen mit 4k, du testest mit 720p. Das wäre der grösste Unterschied.


Dreh dein 5820K halt mal auf 3.8GHz runter und deine 980Ti auf Stock und wähle die richtige Einstellungen. Und dann kann man über die Differenzen sprechen.


PiPaPa schrieb:
Und woher kommt die Effizienz? Größtenteils dadurch das nvidia simpel die DP Einheiten rausgeschmissen hat und dadurch vor allem den Profimarkt vor den Kopf gestoßen hat.

Naja. Man fährt mit Kepler für Profi und Maxwell für Spieler nunmal zweigleisig. Da ist es kein Wunder. Absolut kein Wunder...
Und mit Pascal gehen sie dann dort hin wo AMD schon seit 3 Jahren ist. Naja, wie man das halt sehen will. Nvidias Marketing ist immer noch viel zu gut.
 
Zuletzt bearbeitet:
ja unterschieden werden die sich defintiv da die GTX 980 Ti hier auf 1500 Mhz rennt, aber das macht keine 12 -> 20 Mio aus ;)

Das Furmark liest iwi nix aus... an Settings. Hab mal GPUz aufgemacht nebenher.




Edit:
Ich kann die CPU nich runtertakten grad. Außerdem rennt er zur Zeit auf 4,4 Ghz nich 4,6. Ich teste mal mit GTX 980 TI @ Stock. Ist das so CPU limitiert dieser API Test? Dachte gerade auf DX12 sollte da eher die GPU Flaschenhals sein.
 
Zuletzt bearbeitet:
Herdware schrieb:
@Fried_Knight
Prototypen und Laborexperimente sind schön und gut. Die Erfahrung hat aber gezeigt, dass nichts einen echten Praxiseinsatz im Feld ersetzen kann. Ein Produkt bzw. eine neue Technologie muss zu einem gewissen Grad "im Feld" reifen.

Wir sind hier nicht in der Militärtechnik. Diesen Reifeprozess durchschreitet (wenn dann) Hynix mit verschiedenen Revisionen ihres Speichers in ihren Laboratorien.
"Feldversuche" am Kunden finden so sicherlich nicht statt. Die Karten "reifen" auch nicht beim Kunden.
Weder AMD noch Nvidia muss man wohl lange erklären, wie Speicher zu verbauen ist. Das Know-how bringt Hynix vorbei, die Ingenieure der beiden erledigen den Rest.
Einen Fall im "Feld" nach dem Motto "Oh Gott! Der Speicher muss ja ganz anders verdrahtet werden!" o.ä. gibt es definitiv nicht.
Deswegen hat man vom freien Verkauf keine besseren Informationen, als vom Labor. Wenn dann sind es eher Treibererfahrungen, die man sammeln kann.
Das elektrotechnische "Know-how" einer Grafikkarte, ist jetzt nichts, an dem man ewig basteln und forschen muss. Deswegen reicht - wie gesagt - völlig aus, was ich oben beschrieben habe.

Edit: @Pipapa:
Klar bekommen die das problemlos hin. Letztendlich muss ja nicht die gesamte GPU verändert werden. Das ist die Sache der hauseigenen Ingenieure, die damit auch sicherlich nicht völlig überfordert sind. Die GPU existiert ja bereits und wie gesagt: mit dem Etat und dem Wissen, dass man eh nur auf HBM 2 Rücksicht nehmen muss (was nicht nur Zeit, sondern sogar Mittel spart, da man nicht an zwei Prozessen arbeiten muss), sehe ich da kein Problem.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ja unterschieden werden die sich defintiv da die GTX 980 Ti hier auf 1500 Mhz rennt, aber das macht keine 12 -> 20 Mio aus ;)

Das Furmark liest iwi nix aus... an Settings. Hab mal GPUz aufgemacht nebenher.




Edit:
Ich kann die CPU nich runtertakten grad. Außerdem rennt er zur Zeit auf 4,4 Ghz nich 4,6. Ich teste mal mit GTX 980 TI @ Stock. Ist das so CPU limitiert dieser API Test? Dachte gerade auf DX12 sollte da eher die GPU Flaschenhals sein.

Ja ich wurde auch sehr gerne ein paar links mit 980Ti und Fury X sehen, keine Fotos.
 
Zurück
Oben