News Erste Gerüchte zur AMD „Radeon R9 300“-Serie

kommt schon alles in etwa hin. Sieht ganz gut aus... im Rahmen des Erwarteten für 20nm. Dürfte dann in etwa die DIE von Hawaii haben (was die Größe angeht). Die Frage ist ob AMD den recht großen Chip schon zu Beginn der 20nm bringt oder wie Nvidia mit dem noch größeren Chip bis ~ 2015 oder gar 2016 wartet.

Vielleicht heißt es zu Beginn wieder GM104 vs R9 380X oder AMD kommt auf die Idee und macht aus R9 380X eine 390X und lässt die R9 390X
später als 480X/490X auflaufen (vermutlich bevor oder mit dem GM100/110).

Wohl abh. davon was Nvidia macht.
 
Die shadereinheiten der 390x kommen mir zu hoch gegenüber der 290x vor. Die grafikpower wäre überragend.das Problem ist die spielindustrie. Ich sehe keine grafikkracher kommen. Wenn man überlegt wie lange es die 7970 aka 280x schon gibt. Alles läuft mit dieser alten Gpu mit ausreichend hohen frameraten. Da muss in Zukunft echt mal was kommen,ala crysis 4 oder so:freaky:. Im Grunde war Mantle ein Eigentor für AMD . Mal locker 20 fps mehr , warum also eine neue kaufen könnte der Käufer denken.
 
Zuletzt bearbeitet:
man darf gespannt sein was da kommt, auch die Entwicklung hinsichtlich der Temps, aber bis es soweit ist werden noch viele Nachrichten/Angaben und dergleichen, aufkommen...
 
Birke1511 schrieb:
Die shadereinheiten der 390x kommen mir zu hoch gegenüber der 290x vor. Die grafikpower wäre überragend.das Problem ist die spielindustrie. Ich sehe keine grafikkracher kommen.

Gerüchten zufolge soll der GM100/110 auch so ein Monstrum werden.

Die Grafikleistung kann durchaus auch mit den derzeitigen Spielen schon gebraucht werden, nämlich für die monitorseitig doch ziemlich schnell erschwinglich werdenden UltraHD/4K-Auflösungen. AMD bewirbt die 290(X) zwar schon als Karten für 4K, aber solche 390(X) würden dem wohl eher gerecht werden.
Aber auch VR-Brillen ala Oculus Rift werden reichlich Grafikleistung brauchen. Für ein optimales Erlebnis (ohne Übelkeit) braucht man möglichst konstante 90FPS und die Auflösung des Displays wird quasi halbiert. Eine VR-Brille z.B. mit 1440p-Display könnte eine GTX780(Ti) oder 290(X) locker überfordern.
 
Komm schon CB: lasst den Mist doch in den Gerüchteküchen....
vor allem wenn 20nm Fertigung nicht vor Herbst 2015* marktreif ist und erste Karten damit soweiso erst Anfang 2016 erschienen würden...


*basierend auf den vielen Meldungen von GF/TSMC



Herdware schrieb:
Aber auch VR-Brillen ala Oculus Rift werden reichlich Grafikleistung brauchen. Für ein optimales Erlebnis (ohne Übelkeit) braucht man möglichst konstante 90FPS und die Auflösung des Displays wird quasi halbiert. Eine VR-Brille z.B. mit 1440p-Display könnte eine GTX780(Ti) oder 290(X) locker überfordern.

75FPS reichen schon aus wenn man eh nur 75Hz Displays hat aktuell und 1440p@VR lastet Grakas nicht mehr aus als 1440p@LED, aber ok die konstanten 75fps müssen erstmal lieferbar sein.

Für Normalos, die die Facebook-Brille meiden, bedeutet das aber nur Gutes:
nämlich billige Midrange150bis200€-Karten zu für VR geeignet sind und uns dafür in hohen Monitorauflösungenkeine FPS-Einburch-Sorgen machen, und sogar hohes Downsampling ermöglichen/verbessern :D
 
Zuletzt bearbeitet:
Ich halte die Angaben zur 390X auch für viel zu übertrieben, da möchte jemmand wieder aufmerksamkeit auf sich lenken.

Da Hawaii schon am Strom/Temperatur Limit kratzt. Glaube ich nicht das im 20nm einfach mal so eine Verdopplung möglich ist, es sei den AMD geht wege wie bei der 295X2 :D
 
Birke1511 schrieb:
Im Grunde war Mantle ein Eigentor für AMD . Mal locker 20 fps mehr , warum also eine neue kaufen könnte der Käufer denken.

Das Sind dann aber auch 20FPS mehr, die man in bessere Effekte stecken kann.

Alles hängt nun an der neuen Konsolengeneration. Die XBox hängt schon jetzt am Limit, weil der 32MB Framebuffer meist nicht mehr, als 900p zulässt. Schon blöde von Microsoft die XBone mit einem so offensichtlichen Flaschenhals auszustatten.
Allerdings werden wir da mal sehen, wie es weitergeht. Erst einmal müssen sich Entwickler auf die Architektur einstimmen. Das dauert in der Regel 1-2 Jahre und vllt. gibt es dorthingehend dann Tricks und Kniffe den Framebuffer zu überlisten bzw. effizienter auszunutzen.
Es wird sich auch zeigen, wie sich Sony schlägt. Die PS4 ist auf dem Papier schneller, aber wenn das SDK wieder so gammelig ist, wie bei der PS3, dann gute Nacht :freak:
 
Ich denke mit dem 20nm Schritt, werden die GPUs wieder genügsamer, trotz deutlich mehr Leistung.
Man merkt es den letzten 28nm Karten doch etwas an ^^.
 
Die Spezifikationen lesen sich zwar nicht unglaubwürdig, dennoch ist die Glaubwürdigkeit nicht gesichert.

Da spekulier ich doch auch mal und komme auf andere Daten.

Bei Hawaii hat man einen einzelnen Chip gebracht wo 11 CUs zu einer Shader-Engine zusammengefasst sind. AMD könnte genau dieses Design einfach für die erste Generation im 20nm Prozess nutzen.

20nm APU: 1 Shader-Engine -> 11CUs -> 704 Shader, 16 ROPs und 44 TMUs
Treasure Island XTX: 2 Shader-Engines -> 22 CUs -> 1408 Shader, 32 ROPs und 88 TMUs
Fiji XTX: 4 Shader-Engines -> 44 CUs -> 2816 Shader, 64 ROPs und 176 TMUs
Bermuda XTX: 6 Shader-Engines -> 66 CUs -> 4224 Shader, 96 ROPs und 264 TMUs
 
Zuletzt bearbeitet:
pmkrefeld schrieb:
Das Ineteressanteste, nämlich der Stromverbrauch wird nicht angegeben.
Mal hoffen dass sich durch die 20nm Fertigung einiges bewegt hat.

Ich habe auch schon Gerüchte zur GTX880 gelesen interessant finde ich die Angaben nach denen die nVidia Lösung nur einen 256bit breiten Speicherbus haben soll.

Du fragst ernsthaft nach dem Stromverbrauch? Die ganzen Daten aus der News sind doch eh nur gut geraten bzw. hochgerechnet. Wie die wirklich aussehen kann momentan niemand sagen. Schon allein die 20nm Fertigung ist bis zu den genannten Zeitpunkten nie und nimmer Massentauglich, da muss man sich nur mal die News zu TSMC anschauen.
 
CJay schrieb:
Ich halte die Angaben zur 390X auch für viel zu übertrieben, da möchte jemmand wieder aufmerksamkeit auf sich lenken.

beim Nvidia TopModell ist auch von 2880 -> 6144 Shader die Rede

NVIDIA Maxwell GM100:
The NVIDIA Maxwell GM100 chip would consist of 8 GPCs consisting of 24 SMX modules (3 SMX Per GPC), 384 TMUs, 6144 Cuda Cores, 8 MB of L3 Cache (8 L2 cache’s per GPC), 64 ROPs, a 512-bit interface followed by a VRAM upto 8 GB GDDR5 operation at around 6 GHz. The GM100 is supposed to replace the high-performance GK110 chip so its going to end up in both GeForce parts and Tesla parts. It will probably show up in the Tesla parts first before shipping to consumers.
Clock frequencies would be maintained at different levels for each product tier as listed below:
GeForce GM100: 930 MHz Core / 1 GHz Boost
Tesla GM100: 850 MHz (2.61 TFlops DP)
NVIDIA Maxwell GM104:
The NVIDIA GM104 would replace the current GK104 chip which we have come to know and love since the arrival of the GeForce GTX 680.
This chip would feature 5 GPCs with 15 SMX units featuring 3840 Cuda Cores, 240 TMUs, 40 ROPs with a 320-bit interface coming out with 3 GB VRAM (possibly 2.5 GB as done with Fermi) clocked at around 7 GHz for the memory and 1 GHz for the core.


Read more: http://wccftech.com/alleged-nvidia-...project-denver-maxwell-refresh/#ixzz2yZ3B0yiI
Ergänzung ()

ottoman schrieb:
Du fragst ernsthaft nach dem Stromverbrauch? Die ganzen Daten aus der News sind doch eh nur gut geraten bzw. hochgerechnet. Wie die wirklich aussehen kann momentan niemand sagen. Schon allein die 20nm Fertigung ist bis zu den genannten Zeitpunkten nie und nimmer Massentauglich, da muss man sich nur mal die News zu TSMC anschauen.

es tut sich immer was bei Perf/W aber eine Karte wie die 390X oder das neue Nvidia Topmodell bewegt sich immer in etwa gleicher Region, bei mehr Leistung eben. Weder Nvidia noch AMD werden den Stromverbrauch ihrer Topmodelle Senken, im Gegenteil, schau dir HD6970/HD7970/R9 290X an... es steigt gar etwas.
 
Also ich finde das dieses ständige alljährliche neue Grafikkarten raus hauen so langsam mal aufhören sollte....ein Hersteller egal ob AMD oder NVIDIA sollten sich einfach mal Zeit lassen und dann im Winter pünktlich zum Weinachtsgeschäft 2015 ne richtige brachiale neue Karten Generation raus zu hauen, die nicht nur 15-20% schneller ist zur aktuellen und vielleicht 10W weniger strom verbrauchen.
 
...ich habe noch ne 6950, wenn die 20nm fertigung mal ein halbes jahr lüft werde ich mir das zweitgrösste modell
gönnen...
f,
 
Die Gerüchte zu maxwell und r300 sind noch zu früh, daher auch nicht glaubwürdig
 
Krautmaster schrieb:
beim Nvidia TopModell ist auch von 2880 -> 6144 Shader die Rede

Sehr optimistisch, da wären wir bei Die-Größen von >600mm².
 
Zuletzt bearbeitet: (falsche Einheit)
HI, also wenn die Strukturbreite um 40% verkleinern, können sie soweit ich weiß entweder ca. 40% mehr Leistung oder 40% weniger Stromverbrauch fahren, solang die Architektur nicht grundlegend verbessert wird. Bei diesen Zahlen hieße dass, der Stromverbrauch würde auf einem wie ich finde zu hohen Niveau bleiben.
Glücklicherweise rüsten ja die Firmen der Monitorbranche auf 4K um, wodurch deutlich mehr Leistung benötigt wird.

An Engine's sind in der Pipeline einige, wie zum Beispiel die Snowdrop Engine, auch Projekt Cars wird einiges zu zeigen haben. Die unter Full HD jedoch sicherlich noch wie erwähnt auch auf einer HD7970 laufen werden.
Wenn man die Situation von der Einführung der HD7970 und der 28nm Struktur betrachtet, so fällt auf, dass AMD dort mindestens 2 Monate früher war und zwischen Marktstart und Serienfertigung nur 2-3 Monate vergingen.
 
Und bei ca 500 Watt Verbrauch. So eine Steigerung ist unrealistisch. AMDs 50% sind schon viel.
 
@Matzegr: Die Einheit sollte wahrscheinlich mm2 sein.
 
@Matzegr

naja, es geht. Ist ja nicht so dass die DIE nur aus Shadern besteht. Das SI sollte ja in kleinerer Fertigung entsprechend kleiner werden, eventuell kann man zudem die Shader selbst im Verhältnis dichter packen (wie bei Hawaii, da wurde massiv gepackt)

Denke das Shader zu DIE Verhältnis ändert sich etwas und selbst 500-600mm² wären Nvidia schon recht sofern man wieder früh den GPGPU Markt bedient und zig 1000 € für ein Chip veranschlagen kann.

@Piak

es sind keine 40%.

-> (28*28) / (20*20) ergibt nen Faktor von 1.96. Bei selber PackageDichte zu Fertigung kann man also knapp das doppelte auf die DIE packen.

Von daher könnten die 6144 Shader bei Nvidia auf einem Chip der Größe etwa wie der GK110 schon hinkommen. Den GK110 könnte Nvidia heute sicher um 10-20% kleiner in 28nm fertigen, er ist halt schon in recht früher 28nm Fertigung eingetütet worden und etwas großzügigerer Aufbau reduziert Leckströme. Der große Nvidia GK110 kann ja recht effizient betrieben werden.
 
Zuletzt bearbeitet:
Immer diese dämlichen Gerüchteküchen auf CB.Bis die Karten auf den Markt kommen fiest noch viel Wasser den Bach runter.Vielem was heutzutage geschrieben wird kann man eh keinen Glauben mehr schenken.

20nm?

Interessant wenn es soweit ist und vor allem was die High End und Middle End Karten dann maximal an Watt schlucken.Sollte meine HD 7950 bis dahin noch ihren Dienst verrichten und die neuen Karten keine merklichen Effizienzverbesserungen aufweisen,werde ich weiterhin warten bis es Spiele gibt, bei denen ich gezwungen bin, die Grafikeffekte auf Mittel oder Low zu stellen.Es war die richtige Entscheidung damals mit der HD 7950.Oktober 2012 gekauft und seit 1 1/2 Jahren hochzufrieden.

Sollten die Karten dann wirklich volle DX 12 Unterstützung haben wird eine neue Karte aber auch wahrscheinlicher werden.Schön wäre dann wie gesagt auch eine bessere Effizienz,die ich aber bei den High End Karten eher nicht erwarte.In erster Linie geht es eher bei der 20nm Fertigung auch um die Wärmeentwicklung.Die empfinde ich bei der R9 290X und R9 290 als nicht akzeptabel unter Lüftkühlung.
 
Zurück
Oben