News AMD Radeon: RX 470 und 470D liegen bei der Leistung fast gleich auf

Erinnert mich ein bisschen an meine HD7870XT, nur dass bei dieser der Speicher noch kastriert wurde. Für Nutzer, bei denen der Stromverbrauch nicht oberste Priorität hat, könnte die Karte ganz interessant sein. Mit etwas mehr OC wird fast kein Unterschied festzustellen sein.
 
Bestätigt doch eigentlich nur, dass AMD es noch immer nicht hinbekommt die "GFLOPs auf die Straße zu bringen".

Wenn trotz der großen GFLOPs in Spielen nur so wenig Unterschied vorhanden ist, frage ich mich, wo denn jetzt das Problem liegt?
 
Ich finde AMd braucht die 470d auch nicht unbedingt da die 1050Ti P/L mässig im vergleich zur normalen 470 nicht so toll dasteht derzeit .
Da müsste so eine MSI Gaming unter 150€ fallen damit man nicht gleich zu den 190€ Asus/Msi 470er greift.
Die 460 wiederum sind P/L mässig mit 130€ schon wieder zu nahe an der 1050Ti, dass sie für mich auch nicht interessant wären.
Wenn also die 1050Ti noch billiger wird kann AMD die 460 einstampfen.
Irgendwie ist das unter 200€ derzeit alles nicht so wirklich überzeugend preislich im Vergleich zur 470. Da muss man schon ein sehr begrenztes Budget haben um dort zuzugreifen.
Eine 470D für 160€ wäre der Hammer denn die sollte immer noch an die 20% schneller als eine 1050Ti in Benchmarks dastehen.

Eventuell ist in Asien der Markt für die 150€ Karten auch einfach so viel grösser, da dort eben auch viel E-Sport gezockt wird und für SCII, Dota, Lol, Hots reichen die Karten eben locker flockig aus.
 
Zuletzt bearbeitet:
pipip schrieb:
Es ist ja kein Geheimnis, dass Pitcairn lange AMDs effizientester Chip war. Der Grund liegt vermutlich eben daran, dass die Shaderzahl etwa die Grenze der maximalsten Skalierbarkeit entsprach und ab da mehr Shader absteigend mehr Performance gebracht hat.
Der Chip hat insgesamt 1280 Shader.
Da sagst du einiges was sich wohl auch Nvidia gedacht hat. Deren letzten Generationen haben die meiste Performance über den Takt gewonnen und nicht über aufgebohrte große Chips. Klar ist aber auch, dass da die Fertigung mitspielen muss und AMD deshalb wohl auch gezwungen ist, einen anderen Weg einzuschlagen. Das dann aber leider die doppelte Shaderanzahl nicht ansatzweise in doppelter Leistung endet, sieht man glaube ich auch am sehr verzögerten Vega-Release. Ich glaube nicht, dass das nur die Schuld von HBM ist.

Um mal wieder den in Deutschland allzeit beliebten Autovergleich aus der Ecke zu holen:
Es bringt halt nichts immer nur auf Hubraum (Shader) zu gehen wenn dabei die Drehzahl (Takt) nicht mitspielen kann und dann noch die Reifen (Speicher) nicht mitspielen können.

Hoffentlich kommt die 470Der doch noch irgendwie nach Europa.
 
AramisCortess schrieb:
Dann bist du wohl ein ganz besonderer Mensch, mit einer ganz besonderen GPU. Tausende User in sämtlichen HW Foren bestätigen, dass Mem OC mehr bringt als Core oc. Die Korrelation von Bandbreite und Speichertakt scheinst du ebenfalls nicht veratanden zu haben.


Dann zeig mir doch mal die tausende User!
Los die will ich sehen, hier im CB 480 OC Thread wirst du keine finden!
Ergänzung ()

Nicht ich schrieb:
Hm, als RX 480 Besitzer kann ich die Ausführung von Extrem auch nicht bestätigen. Zum einen ist der RAM-Takt eine ordentliche Verbesserung, zum anderen macht meine aktuell problemlos die 2225 MHz weiter war ich einfach zeitlich nicht gekommen. Aber es gibt Modelle, die WerksUV haben und dann nicht mehr ohne weiteres hoch hinaus können. Die Strix ist das glaub ich so ein Fall, weshalb ich eine XFX GTR Black habe.

Deine Karte schafft sicherlich keine 2225 MHz RAM Takt ohne Fehler, wenn doch dann beweiß das doch bitte mit passenden Screenshots hier im Thread https://www.computerbase.de/forum/threads/der-rx480-polaris-10-overclocking-thread.1596225/

Kannst dann ja auch direkt zeigen wie viel FPS der angeblich ach so gute RAM OC bringt. Du bist einer der vielen der sich denkt stell ich doch einfach mal auf 2225 MHz, die RAM Fehler ignoriere ich. Letztendlich hast du weniger Leistung als vorher da dein Speichercontroller 4 Millionen Schreibfehler verursacht.
 
Zuletzt bearbeitet:
@Extrem

Nur mal so als Tipp. Nicht wenige dürften nüchtern betrachtet mehr auf den CB Test geben als im Forum getätigte Aussagen wie "bei mir läufts anders, also isses so".

@Topic

Kannibalisiert man sich hier sein eigenes Portfolio? Die "reguläre" 470 gibts ja dort auch, wie positioniert man denn diese jetzt?
 
zeedy schrieb:
Kauf entweder Zen oder einen günstigen gebrauchten i5. Eine relativ langsame CPU von 2012 im Jahre 2017 zu kaufen wäre Quatsch.
Nö, ergibt schon noch Sinn. ;)

Ich hätte gerne eine RX480 mit GDDRX5. Da kann dann der Mem schön schnell laufen und ab geht die Luzi.
 
Palmdale schrieb:
@Extrem

Nur mal so als Tipp. Nicht wenige dürften nüchtern betrachtet mehr auf den CB Test geben als im Forum getätigte Aussagen wie "bei mir läufts anders, also isses so".

Das ganze lässt sich ja auch sehr schnell beweisen.

Firestrike mit jeweile Reftakt im vergleich zu einmal 10% mehr Mem und 10% mehr GPU takt

Vergleich 1266MHz / 2000MHz zu 1266MHz / 2200MHz

Anhang anzeigen 589262

Vergleich 1266MHz / 2000MHz zu 1392MHz / 2000MHz

Anhang anzeigen 589264

Wie man sehen kann bringen 10% mehr RAM Takt bis zu 2,4% mehr Leistung, 10% GPU Takt hingegen bringen bis zu 8% mehr Leistung.
Ja es handelt sich um einen Benchmark, und es gibt sicherlich Bandbreitenintensive Spiele wo RAM takt mehr bringt, man kann hier aber schön erkennen das die 480 erst mal nicht Speicherlimitiert ist.
 
Wegen dee Speicherfehler, kein Speichercontroller arbeitet fehlerfrei. Deswegen wurde der ECC Ram erfunden.
 
Nitschi66 schrieb:
Da sagst du einiges was sich wohl auch Nvidia gedacht hat.

Woran NV gedacht hat, können nur Mutmaßungen sein, aber ich behaupte mal schlicht und einfach daran, dass sie gar nicht an neuen APIs gedacht haben. Die Begründung dafür ist, dass man unter DX11 sämtliche Optimierungen und Anpassugen gemacht hat, aber unter DX12 oder Vulkan keine wirkliche Performance Gewinne gemacht hat (Pascal verhindert gerade einmal, dass Performance Verlust gemacht wird). Anders bei AMD Hardware, wo die Hardware erst richtig ausgelastet werden kann.

Es kommt eben auf die Software an, wie gut die Hardware ist. Jeder der bissl prozedurales Programmieren kennt, wird das vermutlich ähnlich sehen.

Der Vorteil von NV kann schnell ein Nachteil sein, deshalb tätigt auch NV so gut wie keine Aussagen über DX12 oder Vulkan und vermutlich gibt es deshalb auch jetzt Pascal und nicht schon Volta.

Genauso könnte man argumentieren, wieso sollte AMD noch viele Ressourden in Anpassungen für Hardware (GDDR5 Si) und Software (DX11) investieren, die in den nächsten Jahren sowieso durch aktuelle Software abgelöst werden?

AMD hat HBM und die neuen Low-Level API und macht in beiden Punkten keine schlechte Figur. Wie sieht es bei NV in den Punkten aus ?
An etwas optimieren ist oft die schnelle und kostengünstigere Methode, doch ein Ende ist nicht aufzuhalten und kann höchstens hinauszögert werden, speziell wenn man die Halbwertszeit vieler Software bedenkt.
Mit HBM und DX12/Vulkan wird es später nicht anders sein. Womit man natürlich nicht rechnet, ist Marktmacht um diverse Veränderungen zu beeinflussen oder abzubremsen.

Um mal wieder den in Deutschland allzeit beliebten Autovergleich aus der Ecke zu holen:
Es bringt halt nichts immer nur auf Hubraum (Shader) zu gehen wenn dabei die Drehzahl (Takt) nicht mitspielen kann und dann noch die Reifen (Speicher) nicht mitspielen können.

Das ist eben kein passendes Beispiel, weil in deinem Beispiel keine API vorkommt. Außer du sagst der Bodenbelag (Software) ist die API auf der die Reifen bewegen sich auf diesen. So können sich die NV Karten auf optimalen Belag (DX11) schnell bewegen, AMD gewinnt aber bei Änderung des Belags an Geschwindigkeit und holt auf. Das sieht man jetzt eventuell als "aufholen" aber es kommen weitere Generationen, wo dann die Shader-Anzahl und so weiter noch mal erhöht werden und Taktrate ebenso steigen.
Bei Compute Geschichten handelt es sich beispiel auch um einen anderen Belag(API) und dort kommt interessanterweise die Leistung an und dort ist AMD sogar meist effizienter als NV. (Cuda ist dann wieder ein weiterer Faktor, der den Belag beeinflusst)


EXTREM
Die Aussage mit RAM OC stimmt vermutlich mit der 480 Referenz. Speziell da die sicherlich nicht so einen hohen Takt stabil schafft. da war mit 1350 meist Schluss, wenn überhaupt.
Da kann es sein dass da ganz andere Spannungen anlegen, sodass ein OC der VRAM weniger das rundherum weniger beinflusste, als das OC der GPU (auf das TDP Limit betrachtet).
Desweiteren hat AMD ja selbst schon gesagt, dass SI-Bandbreiten Limitierung auch teils Treiberabhängig ist, deshalb bin ich ja der Meinung, man sollte eher neuere Software beobachten und nicht auf alte Titel verweisen.
 
Zuletzt bearbeitet:
Nicht ich schrieb:
Wegen dee Speicherfehler, kein Speichercontroller arbeitet fehlerfrei. Deswegen wurde der ECC Ram erfunden.


Das ist klar nur wenn man Millionen Fehler pro Sekunde hat bringt keine Korrektur mehr etwas, es läuft auf sehr hohe Framtimes hinaus auch wenn die FPS erst mal besser erscheint.
 
Für mich persönlich liegt eine erhebliche Limiterung des Speichers erst vor wenn er besser mit Oc skalieren würde als der Shadertakt.
Den nach der Logik könnte ich auch sagen, dass das Dualinterface und 2133 MHZ DDR4 limiteren da ich mit 3000 MHZ+ OC oder sogar Quadchannel, also Bandbreitenerhöhung, bei den minimum FPs immer noch was rausholen kann.
Nur wer würde den das bezahlen für 2-5fps wenn nun alle Board auf einmal 40€ mehr kosten würden und selbst die billigen h110er chips bei 80€+ anfangen und die Z170er nicht unter 150€ zu haben sind.

Ist halt alles immer auch eine Preisfrage und Verfügbarkeit, denn HBM2 dürfte halt Anfang des Sommers auch bei der Kapazität noch zu gering gewesen sein um damit die 1070 / 1080 zu versorgen, da man alle HBM2 Chips für die Profikarten nutzte.
Aber Vega + HBM2 steht ja vor der Türe da dürften dann alle Bandbreitenjunkies bediehnt werden , aber nicht wundern wenn trotz HBM2 und 2x er Bandbreite die GPU nicht doppelt so schnell wie die Titan X wird gg.
 
Wenn was Polaris was etwas bringt dann Verschärfung der Timings.

Im Firestrike werden so aus

1400/2000 @ Stock Timings = 14000 GPU Punkte

1400/2000 @ 1750er Timings = 14300 GPU Punkte

1400/2000 @ 1625er Timings = 14400 GPU Punkte
 
EXTREM schrieb:
Wie man sehen kann bringen 10% mehr RAM Takt bis zu 2,4% mehr Leistung, 10% GPU Takt hingegen bringen bis zu 8% mehr Leistung.
Ja es handelt sich um einen Benchmark, und es gibt sicherlich Bandbreitenintensive Spiele wo RAM takt mehr bringt, man kann hier aber schön erkennen das die 480 erst mal nicht Speicherlimitiert ist.
Wenn du schon dabei bist und dir die Mühe machst, dann doch bitte auch in Spielen und nicht dem Firestrike. Da ergibt es herzhaft wenig Sinn, Rückschlüsse auf sowas wie "Polaris hängt nicht an der Bandbreite" zu ziehen. ;)
In Spielen wirst du andere, (deutlich) bessere Ergebnisse erhalten, wenn du den Speicher übertaktest. Ausgehend vom CB-Test mal GTA 5 nehmen und schauen, wie es dort aussieht. Waren dort immerhin 11% fps mehr, die bei 12,5% OC des Speichers durchgeschlagen sind.

Und bei sowas sieht man die angesprochene Limitierung dann doch sehr deutlich.
 
pipip schrieb:
Woran NV gedacht hat, können nur Mutmaßungen sein, aber ich behaupte mal schlicht und einfach daran, dass sie gar nicht an neuen APIs gedacht haben. Die Begründung dafür ist, dass man unter DX11 sämtliche Optimierungen und Anpassugen gemacht hat, aber unter DX12 oder Vulkan keine wirkliche Performance Gewinne gemacht hat (Pascal verhindert gerade einmal, dass Performance Verlust gemacht wird). Anders bei AMD Hardware, wo die Hardware erst richtig ausgelastet werden kann.

Es kommt eben auf die Software an, wie gut die Hardware ist. Jeder der bissl prozedurales Programmieren kennt, wird das vermutlich ähnlich sehen.

Der Vorteil von NV kann schnell ein Nachteil sein, deshalb tätigt auch NV so gut wie keine Aussagen über DX12 oder Vulkan und vermutlich gibt es deshalb auch jetzt Pascal und nicht schon Volta.
...

Der vermeintliche Nachteil in 2-6 Jahren ist aber stand jetzt ein Vorteil, wo alle Spiele in DX11 erscheinen und die bisherigen DX12 Gehversuche wenn überhaupt erst nach 2-6 Monaten und unzähligen Patchen Sinn machten, sie dem Standardpfad vorzuziehen.

Bis dem dann (vielleicht irgendwann) so ist, dass die Mehrzahl der Spiele in low level nativ und Fehlerfrei erscheinen (ich persönlich glaub nicht dran, eher an einen Nachfolger von DX11 mit high lvl), ist der Nachfolger von Nvidia mit Volta bereits veröffentlicht, wenn nicht sogar dessen Nachfolger.

DX12 ist in meinen Augen noch im Stand der Machbarkeitsstudie
 
Zurück
Oben