Test AMD Radeon R9 Fury X im Test: Eine ernsthafte Alternative zu Nvidias Topmodellen

Prozessor Knox schrieb:
Der Kundige weiss die Settings auszulesen und zu deuten. Das geht aber nur mit vollständiger URL und nicht mit einem Snapshot.

moment. Kommt sofort, musste es in der Hilfe anschalten ja
 
ruhig Blut. So genau hab ich das auf Luxx nich gelesen, ich schau mal gleich in 4k

http://www.3dmark.com/receivingfailed?error=7&product=3dm&submitinfoid=37051745

Online is leider nich ^^

Aber immerhin hab ich die Systeminfos jetzt.

Außerdem schient Luxx auch in 720p zu testen, man schaue die Screenshots an. Ist nämlich auch der Default...

http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/3dmark-overhead-test-2.jpg

:rolleyes:



Edit. Klar ich fake in 5 min 3 Screenshots just 4 fun lol... Kindergarten?

4k folgt...
Ergänzung ()

Lag in der Tat an der Auflösung :)
 
Zuletzt bearbeitet:
bringt doch alles eh nichts, wir wissen doch schon längst das die fury x in dx12 draw-calls 20-30% schneller als die 980ti ist. ob das letzt endlich was bei spielen bringt wird sich zeigen müssen, wäre für amd natürlich eine tolle sache wenn sie da ein paar prozente mitnehmen könnten. dx12 games sollen ja noch dieses jahr aufschlagen.


gruß
 
Auf deinem HardwareLux Foto ist GPU: Titan X

Wo findest du diese Fotos eigentlich? Hast auch ein Lux Foto mi 980TI ?
 
Towatai schrieb:
was sagen die "experten" hier eigentlich dazu!? http://www.gamestar.de/hardware/gra...r_gpu_leistung_in_directx_12,709,3084467.html

Wenn sich das bewahrheitet, dieses feature auch genutzt wird, haben AMD-Besitzer nen nicht zu vernachlässigen performancesprung zu erwarten und einzig und allein DAS interessiert mich... wie schlägt sich ne karte (vermutlich) im kommenden DX12.
Gibt's bei NVidia auch seit Kepler GK110. Nennt sich Hyper Q. Wird bei GPGPU auch schon verwendet und hat in der ein oder anderen Situation auch schon seine Vorteile.
 
Fried_Knight schrieb:
Wir sind hier nicht in der Militärtechnik. Diesen Reifeprozess durchschreitet (wenn dann) Hynix mit verschiedenen Revisionen ihres Speichers in ihren Laboratorien.
"Feldversuche" am Kunden finden so sicherlich nicht statt. Die Karten "reifen" auch nicht beim Kunden.
...
Das elektrotechnische "Know-how" einer Grafikkarte, ist jetzt nichts, an dem man ewig basteln und forschen muss. Deswegen reicht - wie gesagt - völlig aus, was ich oben beschrieben habe.

Dann erklär mal die Fermi, speziell die GF100. ;)

Außerdem gehören GPUs (und CPUs) wohl unbestreitbar zu den komplexesten Consumer-Produkten, die es überhaupt gibt. Das sind quasi Großstädte im Miniaturformat, inklusive Strom- und Wasserversorgung, Verkehrsnetz mit Kreuzungen und Ampelanlagen usw. Alles muss perfekt abgestimmt ineinander greifen und passen dimensioniert sein.

Auch wenn es "nur" um die Speicheranbindung geht, das hat erhebliches Fehlerpotential, das sich schlimmstenfalls erst in der Serie bzw. am Markt zeigt.
Die älteren unter uns erinnern sich vielleicht noch an die ersten Intel-820er-Mainboards mit RDRAM, bzw., speziell die Ausführungen, die per MTH-Chip auch konventionelles SDRAM nutzen konnten.
Oder noch bekannter, der Pentium-Divisions-Fehler.
Oder in jüngerer Vergangenheit der SATA-Bug in Intels 6er-Chipsätzen. Oder der TLB-Bug in AMDs ersten Phenoms. usw. usw. usw.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Wenn alles so einfach wäre, wozu hätte dann nvidia bei Micron Ressourcen in HMC stecken sollen?
Es ist ja nicht so das nvidia mit Pascal einfach mal von HMC auf HBM umswitchen kann als ob man einfach einen Autoreifen wechselt.

Ich habe eh schon mal was verlinkt um die Kosten und die Bandbreite von diversen Standards vergleichen zu können. Schade ist eigentlich nur, das da GDDR5 fehlt.

Memory-Bandwidth.jpg


Wer auch halbwegs den technischen Unterschied zwischen HMC und HBM versteht, wird schnell sehen, was Vor und Nachteile der jeweiligen Technik ist.
Man stelle sich vor, NV hätte weiterhin auf HMC gesetzt. Die GPU wäre mit HMC Speicher teurer, aufwendiger, würde mehr Strom verbrauchen, hätte aber mehr Bandbreite, die man wie man bei Fijii aktuell sieht, noch nicht optimal, at least bei Games, ausschöpfen kann.

Man sieht aber, wie weit voraus AMD hier gedacht und geforscht hat, auch wenn es wieder von einigen runtergespielt wird. Wie ein AMD Sprecher schon sagte :
»Es ist eine Kreuzlizenzierung, sie nutzen unsere Technik ständig, insbesondere im x86-Bereich, in den AMD viel Neues eingebracht hat“, so Kumar. Es gäbe viele Dinge, die AMD erfunden oder zuerst veröffentlicht habe und die von der Konkurrenz genutzt würden. »Das ist nicht nur eine Sache oder drei, wie der Markt fälschlicherweise annimmt und davon ausgeht, dass nur AMD die Technik der Konkurrenz verwendet, es ist im Gegenteil andersrum und eine gegenseitige Lizenzierung

Man stelle sich vor, NV hätte weiterhin auf HMC gesetzt. Dann hätte man so oder so, nicht früher als 2016 eine HMC Grafikkarte liefern können, wenn man bedenkt dass Intel selbst, erst Ende des Jahres erste HMC Produkte liefern könnte.
Eventuell hätte man dann selbst am Die nur 4GB VRAM. Der HMC Chip ist aber "schwerer" zu implementieren, ist teurer in der Herstellung, verbraucht mehr "Strom". Dafür hätte man mehr Speed, (wobei HMC nicht wie HBM breit angebunden ist) die man wie aktuell bei Fjiii, nicht bei Gaming, noch nicht wirklich ausnützten kann.

Somit ist klar, wieso NV zu HBM gewechselt ist. Wer ein bissl über HMC und HBM informiert, wird schnell merken, dass Hynix nur mit der Zusammenarbeit eines Grafikkartenhersteller, HBM auch sinnvoll hätte gestalten können, weil die Technologie für GPUs gedacht ist.
Der Interposer, macht die Anbindung zur GPU doch deutlich einfacher als HMC, wo es direkt am Die integriert wird.

Klar kommen aber jetzt einige und meinen. Nein NV hat das schon vor X Jahren gemacht, so wie DX12. War bei GDDR5 auch der Fall ect. NV wollte HMC nützten. Das werden sie auch, wenn die Vorteile von HBM für eine Grafikkarte, nicht mehr so groß sind.
 
@Herdware

Mal die Polemik überlesen und zum Inhalt: du verstehst mich da falsch. Die einzelnen Komponenten auf ein PCB zu bringen (denn so hatte ich es gemeint), ist elektrotechnisch keine Extremleistung. Deswegen baut auch jeder Hersteller nach Gusto Custom-PCBs. Es ist wirklich ein kleineres Problem, SI und Chip zu verbinden.
Dafür muss man nicht wissen, wie die Grundlagenforschung abgelaufen ist.
Man bestellt die Teile und gut ist.
Eine Ampelanlage ist jetzt auch nichts, was groß verwirrt. Dafür gibt es Hardwarebeschreibungssprachen wie VHDL. Ich musste damals schon im ersten Semester einen funktionsfähige Fahrstuhlelektronik im Praktikum entwerfen.

Auch wenn es "nur" um die Speicheranbindung geht, das hat erhebliches Fehlerpotential, das sich schlimmstenfalls erst in der Serie bzw. am Markt zeigt

Nein. Ganz einfach. Wenn da keiner pennt, ist das kein Problem.
 
Zuletzt bearbeitet:
Fried_Knight schrieb:
Eine Ampelanlage ist jetzt auch nichts, was groß verwirrt. Dafür gibt es Hardwarebeschreibungssprachen wie VHDL. Ich musste damals schon im ersten Semester einen funktionsfähige Fahrstuhlelektronik im Praktikum entwerfen.

Wir reden hier von einem Microprozessor. Das ist kein Projekt, wo nur 1, zwei Leute daran arbeiten. Das gehört gut abgestimmt, sonst kommt es dann bei dem Zusammenfassen der Teilaufgaben zu Reibungen.

Das was du beschreibst, sind übrigens Semi-Custom Chips. Ja die sind nicht aufwendig. Anders aber Full custom Chips, auf welche die Bibliotheken für semi custom chips zurückgreifen.

Du kannst einen Chip, der zusammengestellt wird, nicht mit einem neu entworfenen Chip mit neuer Technik gleich setzten. Wenn das ein Semi Custom Chip wäre, wäre die Packdichte nicht so hoch und der Chip würde einiges an Platz verbrauchen. Das einzige was da halbwegs Copy and Paste ist, sind die GCN CUs. Aber so wie die CPU besteht die GPU nicht nur aus Shader/Cores.
 
@Fried_Knight

Wir reden hier nicht nur von Leiterbahnen, die auf einer Grafikkarte (oder einem Interposer) von der GPU zu den RAM-Bausteinen führen. (Auch bei solchem Routing kann viel schief gehen, aber das ist ein anderes Thema.) Wir reden hier von einem komplett neuen Speichercontroller in der GPU, der für HBM benötigt wird. (Und in dem liegen denn auch viele der Vorteile, die HBM gegenüber GDDR5 hat.)

Falls mein Beitrag polemisch rübergekommen ist, dann entschuldige ich mich. Das war nicht meine Absicht.

Nur ist es für mich halt eine Selbstverständlichkeit, dass neue Technologien in den ersten Generationen "am Markt reifen" müssen und ebenso, dass man sie deshalb sinnvollerweise nicht in Kombination mit anderen potentiell problematischen Neuerungen bringt. Dadurch multipliziert sich das Risiko.
Es gibt dafür nicht nur unzählige Beispiele aus der IT-Welt. (Kaufe niemals Version 1.0!) Wie gesagt habe ich damit auch beruflich Erfahrungen. (Ich arbeite in einer Abteilung, die sich mit in der Serie bzw. am Markt auftretenden Problemen in Elektronikprodukten befasst.)
 
Zuletzt bearbeitet:
Wir reden hier von einem komplett neuen Speichercontroller in der GPU, der für HBM benötigt wird. (Und in dem liegen denn auch viele der Vorteile, die HBM gegenüber GDDR5 hat.)
Der zudem auch in seiner Komplexität abgenommen hat.
Wie gesagt: Feldversuche am Kunden in der von dir beschriebenen Art gibt es so nicht. Den Speicher zu verbauen, wird kein Problem für die Ingenieure sein.
Was auch immer du da für einen Vorteil vermutest, er ist in der Praxis einfach nicht existent. Lediglich auf Softwareebene könnte man argumentieren.
Die Fury x werden jetzt nach Schema F produziert.

Am Markt wird schon deshalb mit HBM1 nichts mehr "reifen", weil HBM2 ja schon mehr oder minder steht. Mehr als die Vorstufe nicht wegzuwerfen, sondern zu versilbern, kommt da nicht bei rum.
 
Zuletzt bearbeitet: (Typo)
Ihr tut jetzt so, als ob NVidia in der Cafeteria sitzt, Geld zählt und irgendwann 2016 anfängt HBM in die GPU zu basteln.
Pascal hatte ja schon Tape-Out und das Design der Grafikkarte ist abgeschlossen. Pascal wird mit HBM2-Speicher kommen und ist somit vom Design schon fertig.

Genauso verstehe ich nicht, warum nur AMD überproportional von DX12 profitieren sollte. Einfach einmal abwarten, bis Windows 10 und DX12 offiziell vorgestellt wurden und die ersten DX12 Spiele da sind.
 
Fried_Knight

Das Rad wird heut zu tage keiner mehr neu erfinden. Wenn du das als Innovation verstehst. Es steckt aber hinter HBM doch mehr arbeit, als Kompression für GDDR5 zu integrieren, insbesondere, das Know How auch mit Tonga bewiesen hat.

Mich würde also interessieren, was du denn von einer neuen Speichertechnologie erwartest, mehr VRAM ?

MikelMolto
Von einem Tape out bis zu einem Fertigen Produkt dauert es noch etwas länger. Das Design ist übrigens auch bei Zen schon fertig (arbeiten ja schon an Zen+) , wird aber trotzdem erst 4 Quartal 2016 kommen.
 
Zuletzt bearbeitet:
Stichwort: multiple queues. Das ganze gibt es in DX ab Version 12 und stellt einen ähnlichen Ansatz wie Simultaneous Multithreading bei CPUs dar.

Ich glaube er meinte eher was "HyperQ" im speziellen für DX12 an Relevanz besitzt ;)
 
Zurück
Oben