Warum ist AMD-Hawaii unter 4K schneller als Nvidia-Maxwell?

Faust2011

HTTP 418 - I'm a teapot
Moderator
Registriert
Aug. 2011
Beiträge
12.980
Der Betreff sagt eigentlich alles. Weiß jemand, woran es liegt?

Meine Vermutung: viele architektonische Daten zwischen den Chips sind gleich, z. B. die Anzahl der ROPs. Die Speicherbandbreite ist bei Maxwell etwas höher. Ebenso hat Maxwell einen höheren Dreiecksdurchsatz, kann also mehr Polygone pro Takt rastern. Jedoch hat der Hawaii-Chip deutlich mehr Shader (ca. 2800 vs. 2000). Bei hohen Auflösungen wie z. B. 4k, wo nun in einem Game viele Berechnungen pro Pixel (in welchem Shader auch immer - egal, ob Vertex-Shader oder Pixel-Shader) stattfinden, limitiert die Shaderleistung und damit zieht der Hawaii-Chip am Maxwell-Chip vorbei. Liege ich richtig?
 
Ich denke der schneller angebundene Speicher tut dann sein übriges.
Ansonsten habe ich das auch so verstanden wie du, also wenn es noch was aufzuklären gibt, erleuchtet uns beide ;)
 
Seit Einführung der Unifiedshader gibt es keine strikte Trennung mehr zwischen Vertex und Pixelshader. Außerdem musst du beachten, dass auch 2000 Shader mehr erledigen können als 2800 Shader. Da kommt dann der Takt auch noch dazu.

Prinzipiell dürftest du aber mit deiner Annahme nicht so falsch liegen vermute ich.
 
Ich wäre vorsichtig mich auf die Shaderanzahl zu verlassen. Die kann man allerhöchstens heranziehen um zwei Chips der selben Serie zu vergleichen, darüber hinaus hat diese Zahl 0 Aussagekraft, selbst im wenn man den Takt mit einbezieht lässt sich wenig bis gar nicht auf die Leistungsfähigkeit der GPU schließen.
Interessanter sind da tatsächlich unabhängige Zahlen wie Polygondurchsatz, Speicherdurchsatz oder Füllrate. Aber selbst damit lassen sich schwerlich Vergleiche ziehen.
Die Leistung wird wahrscheinlich ausschließlich übers Speicherinterface erwirtschaftet. Es begrenzt den Hawaii Chip nicht, so dass er im Gegensatz zu Maxwell nicht in einen Flaschenhals rennt. Maxwell kann mit dem dünnen Speicherinterface nur leben, weil es extrem viele Optimierungen innerhalb des Chips gibt und er dadurch weniger Bandbreite braucht. Es mag durchaus sein, dass genau diese Optimierung bei hoher Auflösung nicht oder weniger effizient greifen. Weder Hawaii noch Maxwell sind für diese Auflösungen ausgelegt.
 
Faust2011 schrieb:
Was willst Du mir damit mitteilen? Ich sagte doch in meinem Eingangspost, dass Maxwell (die GTX980) eine höhere Speicherbandbreite als der Hawaii-Chip hat.

Die der 290er ist höher!
 
Faust2011 schrieb:
Was willst Du mir damit mitteilen? Ich sagte doch in meinem Eingangspost, dass Maxwell (die GTX980) eine höhere Speicherbandbreite als der Hawaii-Chip hat.

Das hat er aber nicht. Maxwell macht 224GB/s, Hawaii hat 320GB/s. 384bit setzen sich eben durch, soviel höher kann der Takt nicht sein. Und deswegen werden die AMD Tahiti und Hawaii auch immer besser gegenüber den nvidia Performancechips G**04 mit steigender Auflösung jenseits von FullHD. Die nvidia Chips werden unter anderem auch deswegen oft abschätzig "Speicherkrüppel" genannt.
Bei nvidia HighEnd Chips (G***0) sieht es dann wieder anders aus.

Die Shader haben da gar nix damit zu tun und sind auch nicht vergleichbar. Ist ähnlich wie wenn man AMD und Intel CPU Kerne so vergleicht: völliger Nonsense.
 
Ja, vielleicht sollte ich den Speicher nicht nur über die Bandbreite (GByte/sec.) betrachten, sondern aufgeteilt nach Breite (bits) und Geschwindigkeit (GHz). Das dann in Relation zur Shader-Frequenz gesetzt. Hmm...

Ok, ich habe mir die Rohdaten zum Speicher nochmals angesehen. Die Bandbreite ist bei den Referenzmodellen beim Hawaii doch größer als bei Maxwell, d.h. 320 GB/s gegen 224 GB/s. Das könnte die Erklärung sein.
 
Liegt wahrscheinlich an vielen Faktoren. Und die 290X ist jetzt nicht deutlich besser in 4K etc. als die GTX 980 oder 780 Ti. Die 290X zieht eigentlich bei 4K wieder ungefähr gleich.

https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/2/

Ich würde sagen das die 290X von der HW eigentlich die bessere GPU ist. Jetzt nicht von der Architektur, da ist der Maxwell schon besser. Dafür kann Nvidia besser die Game optimieren, weil die ja fast überall dabei sind. Das ist wieder ein Nachteil von AMD, die müssen die Games danach anpassen und haben wahrscheinlich nicht die Einsicht, wie Nvidia. Und da bei 4K wirklich viel Power benötigt wird, hat die 290X da ihren Vorteil wieder. Siehe z.B. Speicherinterface von 512 usw. Das ist ja nicht ohne und bringt mit der VRAM-Anbindung bei 4K sicherlich einige Vorteile. Wenn man nur die reinen GFLOP/s sich ansieht, da ist die 290X mit 5,6, besser als die GTX 980 mit 5,0. Und dieses spiegelt sich halt bei 4K wieder.

Außerdem ist natürlich die Frage, was in Sachen Zukunft kommt? Viele möchten ja an liebsten auf 4K spielen. Und deswegen hauen die noch Speicherkrüppel raus, damit man diese als "neu" irgendwann raus hauen kann. Wenn bald jeder 2K und irgendwann 4K zockt. ;)
 
Zuletzt bearbeitet:
Canolius schrieb:
Guter Beitrag... Hast dich verlaufen? :)


Die 290(X) hat mehr "Rohleistung" im Vergleich zu den 970/980. Da gab es mal gute Artikel auf PCGH und auf 3DCenter. Die Rohleistung wird aber nicht von jeder Spiele-Engine gleich gut umgesetzt. Manche können damit besser umgehen, andere schlechter. Deshalb gibt es auch genug spiele, in denen eine 290X auch in FullHD vor einer 980 liegt (Teils in CryEngine, Frostbite usw.).
In 4K, wo es auf brachiale Leistung ankommt, liegt eine 290X meist vor der 980 (nicht nur wegen dem Speicherinterface).

EDIT:
Hier ein Test in etwas "höheren" Auflösungen
http://www.pcgameshardware.de/Grafi.../SLI-Crossfire-GTX-970-GTX-980-R290X-1149715/
 
Zuletzt bearbeitet:
Zurück
Oben