Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

Warum gibt's bei Grafikkarten eigentlich kein Dual-Core oder Quadcore (wie bei Hauptprozessoren schon lange üblich?).
 
SimsP schrieb:
​Genau die selbe Relevanz wie AMD's ACE. Anderer Name selbes Prinzip.

Genau das hab ich mich eben gerade gefragt. Ich dachte das Feature hätte nur Maxwell 2 bis zu dem Zeitpunkt. Aber gut wenns GK110 auch schon kann, umso besser. Dann ist Kepler doch nicht so tot wie ich gedacht habe. Dann halt eben nur halb so tot. :p
 
@pipip

Du hast das Thema gerade nicht verstanden. Es geht um den viel beschworenen Vorteil, den AMD durch den Verkauf von Karten mit HBM1 haben soll.
Sie sollen da ja "Unmengen an Wissen häufen, das Nvidia nicht hat und damit den Markt 2016 aufrollen."

Dem ist einfach nicht so. Sie haben einen Marketingvorteil. Technisch ist da nicht viel zu holen. Die Erfahrungen werden mit einer anderen Architektur in anderer Größe erworben.
Nvidia kann sich derweil die ganze Zeit mit Pascal beschäftigen.

Ich sehe da den Vorteil nicht. Zugriff haben beide (Hynix möchte mit HBM auch verdienen, wisst ihr? Die foppen Nvidia da nicht.), verkaufen darf momentan nur einer.

Völlig wumpe.
 
Fried_Knight schrieb:
Der zudem auch in seiner Komplexität abgenommen hat.

Trotzdem ist er was komplett neues, das sich vorher in der Praxis noch nicht bewähren konnte. Da müssen erstmal neue Erfahrungen gesammelt werden.
GDDR5 gibt es schon seit Jahren und es war immer eine schrittweise Weiterentwicklung. HBM ist demgegenüber schon was ganz anderes.

Wie gesagt: Feldversuche am Kunden in der von dir beschriebenen Art gibt es nicht so nicht. Den Speicher zu verbauen, wird kein Problem für die Ingenieure sein.

Redest du da aus deiner beruflichen Erfahrung?

Meine ist wie gesagt ganz anders. Man nennt es natürlich gegenüber dem Kunden in der Regel nicht so, aber jeder weis, was er in der Hand hat, wenn er die erste Generation eines ganz neuen Produktes kauft.
Tatsächlich gibt es aber auch den Fall, dass ein ausgewählter Kunde ganz bewusst als "Pilotkunde" brandneue Produkte bekommt, in der Erwartung, dass es erstmal nicht problemlos ablaufen wird und er besonderen Support durch den Hersteller braucht.

Was auch immer du da für einen Vorteil vermutest, er ist in der Praxis einfach nicht existent. Lediglich auf Softwareebene könnte man argumentieren.

Sowas ist Gang und Gebe. Auch (und längts nicht nur) bei Grafikkarten.

Wenn du Lust hast, kann du dir ja mal die sehr interessante "RV870-Story" bei Anandtech durchlesen. Das ist ein gutes Beispiel, wie GPU-Entwicklung abläuft. Ich linke mal direkt auf den Teil, bei dem es darum geht, dass AMD/ATI vor den großen Cypress/RV870-GPUs erstmal die auf alte/bewährte Architektur basierende RV740-Mittelklasse-GPU als Testballon für den neuen 40nm-Prozess genutzt hat. Die wertvollen Felderfahrungen mit diesem Chip machten den technisch nahezu reibungslosen Erfolg der folgenden Cypress-GPU (z.B. HD5870) erst möglich.
Nvidia tat das damals nicht bzw. testete 40nm nur mit einem kleinen Low-End-Chip vorab im Feld. Wie es dann der großen GF100 erging, wissen wir ja alle.

Und diesen Artikel hat sich Anand nicht nur aus der Nase gezogen. Das kommt direkt vom zuständigen, damaligen ATI-Chef-Entwickler.

Es ist keine gute Idee, eine neue Architektur/Technologie auf einem großen, komplexen Chip direkt auf einem neuen Prozess zu fertigen. Das schreit nach Ärger. (Deswegen macht z.B. Intel sowas auch schon lange nicht mehr.)
 
Zuletzt bearbeitet:
Herdware schrieb:
Trotzdem ist er was komplett neues, das sich vorher in der Praxis noch nicht bewähren konnte. Da müssen erstmal neue Erfahrungen gesammelt werden.
GDDR5 gibt es schon seit Jahren und es war immer eine schrittweise Weiterentwicklung. HBM ist demgegenüber schon was ganz anderes.
Also ganz ehrlich, wenn es so wäre, dann müssten HBM Grafikkarten ja reine Bananen Produkte sein. Reift beim Kunden.
Ich hätte es aber schon gerne, dass der Hersteller genug Erfahrung gesammelt hat bevor er das Produkt auf den Markt wirft.

Dadurch, dass es HBM jetzt bei AMD für den Kunden gibt, gewinnt AMD nichts an Erfahrung. Wenn dem so wäre, dann nur durch Reklamationen und Beschwerden und das kann ja wohl kaum das Geschäftsmodell eines erfolgreichen IT-Unternehmens sein, oder?
​Und da es momentan auch noch keine Beschwerden gibt gehe ich mal davon aus, dass AMD seinen Job richtig gemacht hat und die Erfahrungen bereits vorher gesammelt hat.
 
@Herdware

Mir ist völlig egal, was für Erfahrungen du beim Verschieben von Stereoanlagen machst (:D ). Wenn das bei euch normal ist, hätte ich gerne die Markennamen, damit ich etwas anderes kaufen kann.
Natürlich spreche ich aus meiner Erfahrung. Pascal schlägt als erstes im Profisegment auf. Was auch immer du dir da zusammenreimst (und was auch immer da fürs low-end o.ä. von vor 8 Jahren o.ä. beschrieben steht), es trifft hier nicht zu.
 
Jesterfox schrieb:
@SimsP: quasi, so ganz kann man es nicht vergleichen, da Shader deutlich weniger können als ein CPU Core. Aber es sind unabhängige Recheneinheiten so wie es die Cores einer CPU auch sind.

Das ist so nicht richtig. Bei NVidia werden Threads immer in Warps bzw. Half-Warps und bei AMD in Wavefronts gruppiert. Das sind immer 16-32 bzw 64 Threads die zusammen laufen. Alle haben den Selben L1 Cache und können teilweise sogar auf Register des anderen Zugreifen. Unabhängig sind die nicht.
Bei Intel zählt ja auch keiner die SIMD Einheiten als einzelne Kerne. Die verfahren fast nach dem selben Prinzip.

ALU ist ALU. Egal ob auf GPU oder CPU, die alleine macht noch bei weitem keinen einzelnen Kern aus. Nur ist die GPU eben für ein anderes Aufgabenfeld gedacht, als die CPU und man kann die Struktur der beiden deswegen nicht überall direkt miteinander vergleichen.
​Das was bei NVidia am ehesten einem einzelnen Kern entspricht ist ein Streaming Multiprozessor. Der GM200 hat glaube ich 24.

Edit: Wobei wenn man es genau nimmt teilen sich die SMPs auch noch die TMUs und die Raster-Engine, also eher ein CPU Kern = ein GPC (Graphics Processor Cluster). Davon gibts momentan 6 auf GM200.
 
Zuletzt bearbeitet:
Ich sehe das DX12 und Speicher Gebakel so:

Wer heute spiele geniesen will kauft sich ne 980Ti,
wer sie in 2017 geniesen will kauft sich eine Fury X.
- oder wartet auf pascal

Schluss und aus IMO.

Bonus Frage über mid-range:
Ich habe mir vor zirka 2 Jahren eine neue GTX 770 für 250€ gekauft.

Wie viel mehr performance kann ich heute von einer _neuen_ 250€ karte kriegen?
Was hat sich im mid-range in letzten zwei Jahren angeboten?
 
Zuletzt bearbeitet: (Bonus frage)
pipip schrieb:
Fried_Knight

Das Rad wird heut zu tage keiner mehr neu erfinden. Wenn du das als Innovation verstehst. Es steckt aber hinter HBM doch mehr arbeit, als Kompression für GDDR5 zu integrieren, insbesondere, das Know How auch mit Tonga bewiesen hat.

Mich würde also interessieren, was du denn von einer neuen Speichertechnologie erwartest, mehr VRAM ?

Was für eine geniale Logik.
Was erwartet man sich von neuer Speichertechnik? Mehr Speicher, mehr Bandbreite und mindesten gleichem Verbrauch.

HBM liefert dies. Das erste Produkt damit jedoch nicht.

Nimmt man eure "Innovationslogik" als Maßstab, dann ist HBM ein reiner Flop, da eine Karte mit good old GDDR5 Speicher schneller, sparsamer und mehr Speicher besitzt.

Man könnte auch fragen, was hat AMD denn in den letzten 5 Jahren so tolles in der Entwicklung geleistet, wenn das Endergebnis enttäuscht? :freak:
 
Ich glaube wer 2017 DX12 Spiele genießen will, stellt fest, dass die Fury X viel zu langsam ist, da schon wieder 2 Jährchen ins Land gegangen sind. :-) Ich denke in 2017 wird 4K Standard sein und DX12 in Kombination mit 4K wird zu dem Zeitpunkt noch deutlich mehr von den Grafikkarten verlangen, als 980Ti und Fury X heute zu leisten vermögen.
 
Wer heute zocken will kauft sich eine 980ti oder eine Fury X, zumindest wer das nötige Kleingeld dafür hat. Auf Pascal wartet sicherlich direkt niemand, zumindest würde dies absolut keinen Sinn ergeben. Niemand weiß genau wann und ob Pascal 2016 erscheint, könnte ja auch 2017 werden. Weiterhin weiß man schon mal gar nicht was Pascal leisten kann. Ich vermute mal das Nvidia auch erstmal so eine Strategie fahren wird, sprich High-End mit HBM und darunter alles mit GDDR!

edit: @Laurooon

weshalb 2017? dieses Jahr werden dx12 games erscheinen. Mit der sicherlich schnellen Verbreitung von Win10 werden sich auch dx12 Games schnell verbreiten.

gruß
 
Zuletzt bearbeitet:
Ich denke in 2017 wird 4K Standard sein und DX12 in Kombination mit 4K wird zu dem Zeitpunkt noch deutlich mehr von den Grafikkarten verlangen, als 980Ti und Fury X heute zu leisten vermögen.

Glaube ich nicht, da die meisten Leute ihren Monitor nicht wie die Unterhosen wechseln! Wer n gutes, funktionierendes Gerät hat, behält dieses in der Regel auch einige Jahre und die meisten werden auch in 2 Jahren wohl noch in FullHD herumgurken.
 
Towatai schrieb:
Glaube ich nicht, da die meisten Leute ihren Monitor nicht wie die Unterhosen wechseln! Wer n gutes, funktionierendes Gerät hat, behält dieses in der Regel auch einige Jahre und die meisten werden auch in 2 Jahren wohl noch in FullHD herumgurken.

Weniger geht ja immer. Aber wenn ich mir ansehe, wie jetzt in 2015 schon alles in 4K gebencht wird, dann wird das 2017 mit Sicherheit mehr werden. Die Full-HD Besitzer können sich dann überlegen, ob sie ihren Bildschirm updaten oder nicht. Wir sind halt gerade in einer HD->UHD Transformationsphase. Ich glaube wirklich, dass sich 2017 keiner mehr einen Full-HD Bildschirm kauft und Enthusiasten, werden bis dahin eh geupdated haben.
 
2017 wird 4k nicht Standard sein. Imho ist heutzutage nicht mal FHD Standard, wie soll dann in 2 Jahren 4k Standard werden? Gerade wenn sich die GraKas so lahm weiterentwickeln sollten wie momentan... bei den Steam Statistiken für Mai ist FHD bei noch nicht mal 35% und UHD bei 0,1%.
 
Wir haben ja auch gerade erst erste Grafikkarten bekommen, die sich auf dem Sektor behaupten können. Wenn ich mir jetzt einen neuen Bildschirm kaufen müsste, wäre das ein 4K Monitor. Weiß nicht, wie das bei dir wäre.
 
Zurück
Oben