News AMD Radeon RX 590?: Gerüchte um Polaris 30 in 12 nm verdichten sich

http://www.pcgameshardware.de/Polar.../Radeon-RX-480-Polaris-10-Vollausbau-1200391/

Polaris 10 hat 36 CUs. Da gibt es keine Zweifel
Ergänzung ()

Locuza schrieb:
@Hurricane271
Welchen Sinn hätte es jetzt einen großen Chip mit 384-Bit auf Polaris-Basis aufzulegen?
https://www.anandtech.com/show/11992/the-xbox-one-x-review/3
All of this is built on TSMC’s 16 nm fab process, packing seven billion transistors into 360 mm2.
The Xbox One X has twelve 32-bit channels for the GDDR5, resulting in a 384-bit memory interface.
DIe GPU der XONE hat 44 CUs (davon 40 aktiv). Das sind 2816 Shaders. Die Vega hat 56 hat 3584 Shaders.

Wäre nicht so, als ob es den Chip nicht gäbe. Ob so ein Chip für AMD auszahlt ? Das muss AMD wissen (Vermutlich nicht, da ist Polaris mit 10 als 12nm Refresh vermutlich sinnvoller). Vermutlich ist es für AMD auch einfach praktisch, ihre bisherigen 14nm Produkte auf 12nm umzustellen. Vllt ist es auch teils GF Intention, auf 12nm zu fertigen.

Heißt nicht dass der jetzt wirklich kommt, aber möglich wäre es.
 
Zuletzt bearbeitet:
Ja gut, Fiji hatte ja quasi 4096 von diesen Shader, die krankt aber an zu wenig RAM. Und bei Vega behauptet AMD das meiste des Shader + ist für den Takt eingeflossen, wobei ich mich da etwas frage wie die Konkurrenz dann 2Ghz fahren kann, ohne diese "Special Takt Shader".

Wenn aber AMD aus dem Vega Aufbau noch die Schwachstellen rausbekommen hat und die Shader auch über 4096 hinaus gut skalieren, könnte in 7nm schon was brauchbares rumkommen.
 
Ich hoffe sehr, dass AMD mehr bietet als einen Re-Refresh von Polaris 10. Langsam kann ich ihre GPU Sparte nicht mehr verstehen. Polaris 30 bringen damit man im Weihnachtsgeschäft ein paar Kröten macht weil man für ein paar Wochen gegenüber der 1060 noch besser dasteht?
Und dann? Die Leute bis Mitte 2019 auf Navi warten lassen, damit man 3 Jahre später (gegenüber Nvidia) auch die Leistung einer 1080 hat?

Bin ich froh wenn man aus dieser GCN Sackgasse endlich raus ist.
 
r4yn3 schrieb:
Und dann? Die Leute bis Mitte 2019 auf Navi warten lassen, damit man 3 Jahre später (gegenüber Nvidia) auch die Leistung einer 1080 hat?

Vergiss das Kausalitätsprinzip nicht.
Außerdem wird ja erwartet das AMD mit Navi und Zen 2+ einen weiteren Schritt in unabhängigeren und gleichmäßigeren Investitionen in die R/D Abteilung genehmigt. Kommt alles. Wir sind auf der Überholspur, wenn wir die 1080 knacken.
 
@Dimensionday
Wegen R/D. AMD investiert zur Zeit stark in eine neue GPU Architektur und hat auch ein paar führende Entwickler von Ryzen in das Projekt eingebracht.
Ich vermute, denke mir, GCN wird nicht so schnell aussterben. Es wird neben Vega noch einige weitere Ableger geben, denn im HPC Markt, sind sie sehr effizient. Hier bedarf es eher weitere Arbeit an der Software.

Wenn das so ist, hat AMD große Möglichleiten im Bereich Gaming, weil man dann eine effiziente Architektur für Gaming aber auch APUs entwickeln könnte ohne "Balast".
Es reicht ja dass es eine effiziente GLU für 32, 16, 8 und 4 Bit entwickelt und so teils vllt auch etwas AI mitnehmt. Man darf gespannt sein. Aber was AMD in GPU Sektor macht, hatten wir ja auch mit Bulldozer bis Ryzen.
 
Cpt.Willard schrieb:
Dein Ernst? 350 - 370€ für diese Leistung, das ist nur für AMD lohnenswert.
Mit 350€ für GX1070 Leistung wären wir aber doch ziemlich genau da wo die GTX970 damals auch war, zzgl. Inflation.
Immer noch günstiger als eine brauchbare Vega56 und wenn die Leistungsaufnahme geringer wäre, zusätzlich ein Vorteil gegenüber der Vega.


Ich rechne aber eher mit 250-300€ für eine RX590, die 10% schneller ist als eine RX580.
Damit läge man immer noch 15-20% hinter einer GTX1070, wäre aber auch ca 25% günstiger.

Hayda Ministral schrieb:
Da hat aber jemand voll verstanden was eine APU ist. Nicht.
Vielleicht denke ich da zu simpel, aber so wie man eine APU ihrer iGPU berauben kann und so eine reine CPU hat, kann man doch bestimmt auch den iGPU Teil einer APU nehmen und daraus eine dGPU machen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Und bei Vega behauptet AMD das meiste des Shader + ist für den Takt eingeflossen, wobei ich mich da etwas frage wie die Konkurrenz dann 2Ghz fahren kann, ohne diese "Special Takt Shader".
Die Rede war von Transistoren, nicht von shadern.
Fiji und Vega haben beide 4096 Shader und trotzdem hat Vega deutlich mehr Transistoren.
 
Ja wobei das Ergebnis eher durchwachen ist. Massiv mehr Shader für den höheren Takt (da frag ich mich eben schon etwas ob die Optimierung AUF Takt so viel Transistoren fressen kann) ... Aber pro Takt ist die Karte kaum schneller als ne Fiji.
 
Taxxor schrieb:
Vielleicht denke ich da zu simpel, aber so wie man eine APU ihrer iGPU berauben kann und so eine reine CPU hat, kann man doch bestimmt auch den iGPU Teil einer APU nehmen und daraus eine dGPU machen.

Machbar wäre das. Aber wozu? Die APU erhält AMD indem sie aus dem Baukasten ein CPU-Template, ein GPU-Template, ein Template für einen Memorycontroller(?) nehmen und möglichst automatisiert zusammen konfektionieren und verbinden. Eine standalone GPU nun wieder aus der fertigen APU zu extrahieren wäre alles andere als effektiv. Meine Kritik bezog sich aber auf etwas anderes: Die APU der XBOX hat 44CU. Das besagt aber nunmal rein gar nichts über den GPU-Chip den AMD aus dem Template erstellt hat. Die Kosten für das erstellen und validieren einer GPU mit x CU werden vermutlich sehr gering beeinflußt von einer bereits vorhandenen APU mit y CU. Wieviele CU die GPU hat ergibt sich eben nicht aus der Anzahl der CU einer nach Kundenvorgabe gefertigten APU.

Das heißt nicht dass AMD keinen Polaris Refresh mit 44CU anbieten könnte. Es heißt nur das Scorpios GPU damit nichts zu tun hat ob das passiert oder nicht. Persönlich tippe ich darauf, das Polaris Refresh lediglich minimale Änderungen gegenüber Polaris enthält um die Entwicklungskosten so weit wie möglich zu drücken. Das hängt aber wohl auch davon ab wie AMDs Pläne für 2019 aussehen. Einen Refresh mit überproportionaler Leistungssteigerung (zum Beispiel 44Cu (+GDDR6?)) würde ich als Zeichen dafür deuten das AMD in der Mittelklasse auch 2019 nichts Neues bringt.
 
Krautmaster schrieb:
nd bei Vega behauptet AMD das meiste des Shader + ist für den Takt eingeflossen, wobei ich mich da etwas frage wie die Konkurrenz dann 2Ghz fahren kann, ohne diese "Special Takt Shader".
Es ist das ganze Design vom Chip, welches die Taktraten erreichen muss, je nach Design muss man an unterschiedlichen Stellen drehen.
Nvidia unterscheidet sich da prinzipiell nicht von AMD oder irgendein Unternehmen in diesem Bereich.
Wie bei einem Fahrrad, wo eine Kette nur so stark ist wie das schwächste Glied, ist es auch bei einem Chipdesign.
Die maximale Taktrate hängt vom Logikabschnitt ab, welcher die geringste Taktfrequenz aufweist.
Möchte man nun die Taktfrequenz erhöhen dann muss man nachdem schwächsten Glied schauen, welches aktuell die geringste Taktfrequenz erreicht.
Meistens werden zu viele Operationen in einem Schritt erledigt, was dazu führt das man das Timing nicht so scharf hinbekommt.
Wenn man nun einen Schritt aufteilt in kleinere Zwischenschritte kann jeder Schritt selber mit schärferen Timings laufen und man kann die Taktfrequenz hochdrehen.
Mehr Zwischenschritte erfordern in der Regel mehr Transistoren, da mehr Register benötigt werden, welche die Werte von den Zwischenschritten speichern.

Die Konkurrenz hat entweder einen besseren Job gemacht und/oder die Architektur an sich weißt einige Stellen auf, welche die Taktfrequenz nicht limitiert und es einfacher macht.
Bei Vega/GCN5 kann AMD z.B. den I$ und K$ nur mit maximal 3 CUs teilen, um die hohen Taktfrequenzen zu erreichen, früher gingen auch bis zu 4 CUs, aber das hat die Taktfrequenz zu sehr limitiert.
Solche Stellschrauben können dank dem Architekturaufbau immer unterschiedlich aussehen.

Und ein Design welches auf höhere Taktfrequenzen ausgelegt ist, muss natürlich nicht für mehr Reinleistung sorgen, da schlecht umgesetzt die Latenzen nennenswert steigen könnten und die Balance aus den Fugen gerät.

Krautmaster schrieb:
Ja wobei das Ergebnis eher durchwachen ist. Massiv mehr Shader für den höheren Takt (da frag ich mich eben schon etwas ob die Optimierung AUF Takt so viel Transistoren fressen kann) ... Aber pro Takt ist die Karte kaum schneller als ne Fiji.
Vega ist weird, es gibt viele Verbesserungen, aber die praktische Leistung pro Takt schwankt teilweise sehr arg, liegt in wenigen Fällen sogar unter Fiji.
Es erweckt den Eindruck, als ob AMD auch etwas verändert hat was zu schwächerer Performance führt und dann steht man insgesamt nur mit einem kleinen Vorsprung da.
 
  • Gefällt mir
Reaktionen: Galatian
Ja schön erklärt, danke :)

Bin mal gespannt ob AMD die richtigen Flaschenhälse gelöst bekommt, denke rein vom Scaling her müsste ja die neue NCU Architektur noch Potential haben. Denke Nvidia selbst sieht auch dass man langsam aber in eine Wall läuft, 3x mehr GPU Leistung nur noch marginal bessere Optik bedeutet.

Denke es is durchaus richtig hier mal einen Mind Change in Betracht zu ziehen und laaaangsam RT für diverse Effekte herzunehmen, imho sollte damit bis in 10 Jahren dann die Game Engines auch wieder einfacher und besser skalierbar werden.

AMD wird aber gut daran tun der Sache noch etwas zeit zu geben. Klassisch agieren, mit Vorteilen auf der Marge Seite. Bis Nvidia aus dem großen RT Bereich wirklich Benefit zieht kann AMD sich eher im Hintergrund Gedanken machen wie man das DXR ggf noch besser implementieren kann, ohne dafür direkt Fläche zu opfern.
 
Viel Neues gibt es bei den NCUs nicht.
AMD hat das Taktdesign höher gestellt, es gibt 40 neue Instruktionen, davon sind die meisten mit 2xFP16 verbunden, AMD hat das I$ und K$ sharing auf 3 CUs beschränkt und intern, dass ist dann vermutlich doch eine größere Änderung, gibt es weniger unterschiedlicher Shader-States.
Vega hat intern nicht mehr vier unterschiedliche States bei der Geometrie-Pipeline wie Vertex-,Geometry, Hull- und Domain-Shader state, sondern arbeitet es intern nur mit zwei, als Surface- und Primitive-Shader ab.

Aber man sieht das es bei Vega nicht zu guten Ergebnissen gekommen ist, AMD muss da mehr verändern und dann könnte man auch schon wieder einen neuen Marketing-Namen vergeben, NCUs².

Turing von Nvidia zeigt wohin die Reise hingehen kann, anstatt einen Program-Counter für 32 Threads zu verwenden bzw. 64 (AMD), hat jeder Thread seinen eigenen und kann bei Bedarf unabhängig laufen.
Das hilft bei Code mit größerer Divergenz und bei einigen Dead-Lock-Szenarios, wo die GPU sich aufhängen kann.
Zusätzlich hat Turing einen unified Cache, welcher einteilbar ist und starke Performance bringt.
Das ist ein generelles Problem bei GPUs, dass die Performance massiv einbrechen kann, wenn das Register-File und die Caches nicht penibel genau ausgenutzt werden.
Turings Architektur macht das programmierbaren einfacher und hält die Performance stabiler.
AMD hat aktuell noch kleine L1$ von 16KB und ein starres Scheduling von 64 Threads, was Vor- und Nachteile hat.
Der Vorteil ist das man nur einen Program-Counter für 64 Threads braucht und auch weniger komplex Scheduler für den gleichen Thread-Durchsatz, dass ist energetisch in einigen Fällen günstiger und auch von dem Flächenverbrauch, auf der anderen Seite kann bei nicht optimalen Code oder bei Divergenz mehr Leerlauf entstehen und Leerlauf wiederum sorgt selber für ineffizienz.

AMD hat auch schon viele CUs an einem relativ kleinem Front-End hängen und hat Probleme mit der Fill-Time der CUs, deswegen skalieren AMDs GPUs mit mehr Shadern immer schlechter, weil die Fill-Time nicht proportional mitzieht.
AMD steht relativ an einer Wand und muss etwas für die Skalierbarkeit und/oder praktische Leistung der Einheiten tun.
Und Raytracing wird vermutlich auf die ein oder andere weise sowieso bezahlt werden müssen, falls man ordentliche Performance erreichen möchte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi und Krautmaster
RX590 ? Wird das etwa ne Dual-GPU Karte ?
 
Das wird kein wirkliches Upgrade, und auch keine Konkurrenz zu RTX 2xxx - aber es wird sich preislich einordnen. Das heisst man bekommt eine gute 1080p Grafikkarte für gutes Geld. In Zeiten wo die 2070 Richtung 650-700€ tendiert ist das auch ein Faktor.
 
@Mcmeider Eine RTX2070 würde ich jetzt auch nicht als klassische 1080p Karte bezeichnen, da wird die 2060 der Gegner sein.
 
Toprallog schrieb:
@mambokurt Aber genau das wollte ich damit aussagen. In meinem Post davor habe ich auch geschrieben... maximal 3-5% mehr Leistung. Lesen, verstehen, dann meckern... :daumen:

Das war nicht gemeckert, kannibalisieren könnten sie halt nicht mal wenn sie es wollten, jedenfalls nicht mit einem Shrink. Da müssten sie zumindest schnelleren Speicher draufpacken, selbst dann wären es vielleicht 15% also unter Vega 56...

Und was man immer vergisst: zieh einfach mal eine Linie durchs p/l Diagramm, da liegen die meisten Karten drauf. Heisst wenn 15% mehr Leistung wirds auch 15% teurer gemacht als ne 580 ;)
 
  • Gefällt mir
Reaktionen: Dimensionday
Eigentlich wollte ich dieses Wochenende eeeendlich eine 580 bestellen um meine 7850 abzulösen - naja jetzt hab ich schon so lang gewartet :( ...
 
  • Gefällt mir
Reaktionen: Dimensionday
Polaris30 soll einfach nur eine Marktlücke zwischen GTX1060 und der eben noch nicht erschienenen GTX2060 ausnutzen.
Genau da gibt es noch etwas zu bekommen, wenn der Preis stimmt, was man bei einem Rebrand-Update erwarten kann.
 
Zurück
Oben