News AMD Polaris: Next-Gen-Radeon mit 14-nm-FinFET kommt Mitte des Jahres

Palmdale schrieb:
Mehrere Fertiger für das gleiche Produkt kann aber auch Nachteile haben

In dem Fall ist es ja nicht der selbe Chip für die gleiche Anwendung, wie es bei dem Apple Chip der Fall war.

Hier geht es darum, dass GF eher die Mittelklasse GPUs fertigt und bei TSMC die Performance, Chips geschmiedet wird.

Was mir noch bei allem einfällt. Es gibt ja die neue geleakte Folie :
AMD Zen APU Featuring HBM Spotted – 128GB/S Of Memory Bandwidth And Large On-Board GPU

Read more: http://wccftech.com/xbox-one-may-be...d-on-amds-polaris-architecture/#ixzz3wIcLrpoD
http://wccftech.com/xbox-one-may-be-getting-a-new-apu-based-on-amds-polaris-architecture/
AMD-Zen-APU-With-HBM.jpg


Da ist schon 2016 als Jahr genannt. So oder so, selbst wenn 2017, die APU auf Basis Zen wird aufgrund es HBM Speicher auf einen Interposer setzten. Weiteres ist bekannt, dass AMD in Zukundt für APUs sogenannte Module einsetzten möchte, wie es bei der XBOX One ja schon zu teil der Fall war. Das bedeutet, man hat Zen Module, GPU Module, Chipsatz Modul und den HBM Speicher.
Somit drei mal kann man raten, wer dann das GPU Modul für die APUs fertigt. GF offensichtlich. Gut fraglich, ob es das selbe DIE sein wird, oder ob es dann noch eine kleinere Variante geben könnte.
Was gegen den Einsatz dieser GPU in der APU spricht, ist der eingesetzte Speichercontroller, da ja der kleinere Chip laut News noch GDDR5 haben soll.


So oder so, in dem Fall ist es kein Nachteil, weil die Hersteller unterschiedliche GPUs für unterschiedliche Performance Chips fertigen würde. TSMC Bsp für den BIG Chip/ Performance. GF für Mittelklasse und Samsung low cost, das aber in Massen. Kann gut sein, dass Samsung eventuell sogar ein Modell dann bevorzugt in eigener Hardware verbauen würde. Für AMD wäre es wohl kein Aufwand, weil ja die Fertigung bekanntlich die selbe sein sollte.

Matzegr schrieb:
Der hier gezeigte Chip ist nach Schätzungen von Ryan von Anandtech wahrscheinlich kleiner als 120mm². Dies ist in der Größenordnung von Cape Verde, der bei der Einführung der 28nm Chips der kleinste Chip war. Der Chip wird also auf die kleinsten und billigsten Karten der FinFET Generation drauf kommen. Da kann man also von einem 128-bit Interface ausgehen. Da macht die 2. Generation von HBM einfach keinen Sinn, da schlicht zu teuer und kein Vorteil in Sachen Effizienz

Naja, in meinen oben beschrieben Fall würde das sehr wohl einen Sinn machen. Denn wenn die GPU tatsächlich so klein wäre, würde sie doch auf einen Interposer nebst Zen Core passen. Dann wäre es sinnvoll, wenn der Speicherkontroller HBM unterstützen könnte. Interessant ist, bei wccft ist von nur einen HBM Stack der 1 Gen die Rede.
 
Zuletzt bearbeitet:
die neue Fertigung dürfte bei Nvidia dann auch bald anstehen. Meist hat hier AMD etwas früher zugeschlagen.

14nm, da geht schon was. Mit unter der gewaltigste Sprung bei den Desktop GPUs seit langem oder gar überhaupt. Bis Nvidia und AMD aber da wirklich Fat DIE aus den Prozessen klopfen dürfte es noch etwas dauern. Auch bin ich mal gespannt wie sehr der neue Prozess mit dem Takt skaliert.

Sollten wir 2 Ghz sehen dann verdoppelt sich die Leistung schnell mal und Flächentechnisch ist bis Faktor 3 Möglich, genug um die nächsten Jahre pö a pö ordentliche Mehrleistungen dem Endanwender zu präsentieren.
Im Prinzip ist die GPUu Entwicklung immer von der Fertigung abhängig und diese bremst aus. Wären 500mm² Chips in 14nm heute wirtschaftlich hätten wir ruck zuck 4x so schnelle GPU wie heute...
 
Zuletzt bearbeitet:
vielleicht schafft es Amd mal eine gute Lowprofile Karte für unter 100 euro zu bringen,
Und nicht diesen seit Jahren erhältlichen Rotz alias 7750
 
Ich will Testberichte aus verschiedenen Quellen lesen und dann selbst entscheiden was ich Ende 2016 kaufen werde. Bis dahin kann AMD oder NVidia ankündigen was die wollen und es juckt mich einfach nicht.

Was mir aufgefallen ist:
Hätte AMD als Vergleichs GPU keine GTX 950 sondern eine von AMD genommen, dann wäre die Stromersparnis noch bedeutend höher ausgefallen.
 
Ich freu mich auf Polaris. AMD wäre selten dämlich, wenn sie 6 Monate vor Release Benchmarks der High-End GPU veröffentlichen würden. Da können sie ja gleich nvidia alle internen Produktblätter zukommen lassen. Selbstverständlich hütet man diese Werte bis zum Release! Finde ich sehr befremdlich, dass einige dies bemängeln.

Die Effizienz scheint gegeben zu sein, ich bin sicher, dass auch die Performance den Etwartungen entsprechen wird. Die Fury X ist auch keine langsame Karte, aber mit 28nm ist man schon deutlich über dem Limit.

2016 wird ein gutes Hardware-Jahr :D
 
Klingt für mich alles nach:"Mit der Bulldozer Architektur wird alles besser." und "Mit dem Phenom wird alles besser."
 
Hört sich ja alles ganz gut an.
Bis auf die 900er Serie von nVidia gab es ja quasie keine Effizienzsteigerung seit 2011.
 
NVIDIA hält den Ball flach, released dann wieder früher und AMD hechelt hinterher.
Ich hoffe dass es nicht wieder so läuft und wünsche mir, dass AMD den Spieß mal wieder umdreht.

Die letzte spitzen ATI/AMD Karte war meine 5870 vor vielen Jahren. Da hatte NVIDIA lange nichts entgegenzusetzen. Aber seither gabs von AMD leider nix Bahnbrechendes.

Noch wichtiger wäre, dass AMD mal wieder konkurrenzfähig in Sachen high end CPUs wird.
 
Ich hoffe nur, dass die neue Kartengeneration Star Citizen auf einem 4k Monitor in anständigen Einstellungen flüssig darstellen kann. Der Rest ist mir egal ;)
 
Seit dem Bulldozer-Debakel und dem mega übertaktbaren Titankiller glaub ich AMD nichts mehr.

Nach Release zählen nur unabhängige Tests ... bis dahin ist alles nur Marketinggeschwätz.
 
Man darf gespannt sein ob AMD ihre Marketing Versprechen diesmal auch so erfüllen kann, zumindest Mitte 2016 halte ich für sehr ambitioniert ;)
 
Komisch, dass sich hier viele kritisch über diese Ankündigung äussern, aber in 8 von 10 Fällen wird in den Kaufberatungs-Threads zu einer 380/390 geraten. Da scheint AMD doch einiges richtig gemacht zu haben.
AMD hat gute Produkte zu guten Preisen, das ist ihre Stärke. Ja, eine 390X kommt nicht an eine 980Ti ran, dafür an eine 980 GTX und dies für schlappe 350€. Eine differenzierte Sichtweise wäre hier angebracht.
 
Freut mich. Hoffe das es wie immer auch so Eintritt wie versprochen.
Ich hatte mit beiden Lagern eigentlich nie Probleme. Weder mit AMD/ATI noch mit Nvidia. Hatte schon immer beide Fraktionen abwechselnd im Rechner.

Bei Nvidia muss ich halt sagen das sie bis jetzt meistens immer etwas effizienter waren in Sachen Stromverbrauch und meist ein gutes Stück schneller als AMD/ATI. Dafür war die rote Fraktion in den letzen Jahren auch immer etwas billiger....

Die guten alten, also eigentlich sehr sehr alten Nachteile wie Anisotrope Filterung, etwas schlechtere Treiber und hohe Lautstärke hat ATI bzw AMD ja ausgebügelt und baut von dem her jetzt schon einige Jahre sehr ordentliche Grafikkarten mit gutem Treiber.
Crossfire ist mittlerweile auch Top. Von dem her weiter so. Fehlt jetzt eigentlich nur noch das sie endlich mal wieder die Leistungskrone Nummer 1 für sich verbuchen können!

Viel wichtiger ist wahrscheinlich die Frage in Zufunkt auf welches Pferd man setzt. Freesync oder Gsync....
Leider bin ich jetzt bis zum nächsten Monitor an Nvidia gebunden da ich auf Gsync nicht mehr verzichten will und Polaris wohl eher nicht in den Rechner kommen wird, eher dann Pascal! :D
 
Zuletzt bearbeitet:
VAN DOOM schrieb:
Ich hatte mit beiden Lagern eigentlich nie Probleme. Weder mit AMD/ATI noch mit Nvidia. Hatte schon immer beide Fraktionen abwechselnd im Rechner.

Bei Nvidia muss ich halt sagen das sie bis jetzt meistens immer etwas effizienter waren in Sachen Stromverbrauch und meist ein gutes Stück schneller als AMD/ATI. Dafür war die rote Fraktion in den letzen Jahren auch immer etwas billiger....
Also ich verfolge das Thema seit meinem ersten eigenem Spielehobby PC und bis jetzt kann ich sagen, das Nvidia keinesfalls schlechter dasteht als AMD oder umgekehrt. Bei beiden gab es Treiber die an der Bildqualität geschraubt haben um beim nächsten Benchmark besser dazustehen oder die sich gegenseitig bei der Effizienz den schwarzen Peter zugeschobene haben und beide hatten schon tolle Treiber die Totalausfälle verursacht hatten. Auch hatten beide Lager immer wieder "Preiskracher", unangenehm laute Lüfter etc.
Und auf eins kann man sich verlassen: Die Werbeangaben sind durchweg gelogen und geschönt.

Klar muß die Leistungsaufnahme bei einer besseren Lithografie besser werden, aber um Faktor >2? Am Arsch.
Denke eher da hat man einen Chip mit der Leistung >Fury/Titan genommen und um auf die Leistung der 950 zu kommen, die Taktschraube so massiv nach unten gedreht, dass man praktisch im Idle daheim ist.
Ich wette dass hier wieder Äpfel mit Birnen verglichen werden. Könnte mir gut vorstellen wenn die Polaris Karte mit dem Takt läuft, den sie von AMD bekommt um die Leistungskrone zu ergattern, wird der Verbrauch in einer ganz anderen Kategorie liegen, als der Verbrauch einer Stock 950.
Dafür wird sie dann aber auch wesentlich schneller sein, nur wird sie auch dementsprechend kosten.

Ganz gewollt wird hier im Markt Meinungsmache betrieben und tatsächlich ist es viel wichtiger, zuerst solche Marketing Lügen zu veröffentlichen und als erster den Launch der Karte zu schaffen, damit die Kundschaft schnell die "richtige" Meinung hat, bevor beim Kunden eingekauft wird.
AMD, Nvidia, Intel und wie sie alle heißen sind Konzerne, die wollen das Geld in deiner Tasche und sonst nichts.

Das ist genauso albern, wie "später" aufgeschrien wurde, dass die 970 beschnitten ist. Selbst in den Kristallkugel News hier auf CB, VOR Release war klar, dass die Karte ein beschnittener Mittelklasse Chip ist. Auch nach dem Feststellen, des beschnittenen Speichers, bringt die Karte die Leistung, die beim Release getestet wurde.

Daher gilt auch in Zukunft:
Lesen-in Frage stellen-Nachdenken-Bewerten
Daher
 
Max007 schrieb:
Komisch, dass sich hier viele kritisch über diese Ankündigung äussern, aber in 8 von 10 Fällen wird in den Kaufberatungs-Threads zu einer 380/390 geraten. Da scheint AMD doch einiges richtig gemacht zu haben.
Es gibt aber auch noch Leute die sich an die 200'er Serie erinnern.
Dort stand nämlich meine letzte Kaufentscheidung an und da waren die Karten so brüllend heiß und laut, dass sie noch nicht einmal die versprochenden Maximaltaktraten erreichen konnten.
Die wurden zuvor auch als ware Wunderkarten angepriesen und haben sich anschließend nicht als all zu toll herausgestellt. Von daher ist es sinnvoll skaptisch zu sein und erst einmal den Launch abzuwarten.
 
noxon schrieb:
Hier wird immerhin eine relativ schwache 950 mit einer sehr leistungsstarken Polaris bei Full HD @ 60 fps verglichen.
Die 950 wird das Spiel gerade mal so bei voller Auslastung und ihrem maximalen Powertarget darstellen können und wird dabei knüppelheiß.
Die Polaris kann so ein spiel locker flockig mit halber Taktung darstellen und wird dabei höchstens lauwarm. Da kommt man natürlich leicht auf 84 Watt. Das heißt aber nicht, dass die Karte bei einem 4K Spiel auch nur 84 Watt verbrauchen wird. Da braucht man sich also keine falschen Hoffnungen machen.

Aus dem Artikel:
Energiesparmechanismen wie Power Gating oder variierende Taktraten und Spannungen waren noch nicht aktiviert, sodass die finale GPU theoretisch noch genügsamer ist.
 
Woodz schrieb:
Klingt für mich alles nach:"Mit der Bulldozer Architektur wird alles besser." und "Mit dem Phenom wird alles besser."

Hm. Ich habe mich eher an "seht nur unsere brandneue Phenom-CPU, und sie läuft mit 3 GHz!!!111einseinseins" erinnert.

Natürlich bin ich dennoch gnadenlos optimistisch das AMD, die Firma die beim Bulldozer mit vollkommen leerem Blatt noch Kredit vom Kunden aufgenommen hat um im Poker-Spiel weiter bluffen zu können ab Spätsommer ein gutes Angebot macht und damit NVIDIA, die Firma die ihre Kunden mit angeblich lauffähigen Holz-Mockups, die Arktis aufheizenden Thermis und Speicherkrüppeln mit betrügerisch geschönten technischen Angaben endlich in die Schranken weist.

Die Hoffnung stirbt zuletzt...mit einem wütenden #Aufschrei.
 
Zuletzt bearbeitet:
Max007 schrieb:
Ich freu mich auf Polaris. AMD wäre selten dämlich, wenn sie 6 Monate vor Release Benchmarks der High-End GPU veröffentlichen würden. Da können sie ja gleich nvidia alle internen Produktblätter zukommen lassen. Selbstverständlich hütet man diese Werte bis zum Release! Finde ich sehr befremdlich, dass einige dies bemängeln.

​Andererseits gibt man dann für den Kunden keinen Anreiz zu warten, wenn man keine Werte hat. Und außerdem steht schon in dieser News genug, damit Nvidia sich etwas zusammen reimen kann. Man weiß welcher Speicher wohl zum Einsatz kommt und welche Architektur

Polaris besteht nicht nur aus einer neuen Fertigung, auch die Architektur wurde überarbeitet. Es bleibt allerdings bei der im Jahr 2011 eingeführten Graphics Core Next, dann allerdings in der 4. Generation. Tonga (Radeon R9 380, Radeon R9 380X) und Fiji (Radeon R9 Fury (X), Radeon R9 Nano) setzen zurzeit auf die 3. Generation (GCN 1.2). Koduri spricht von großen Änderungen, die ebenfalls zum Ziel haben, das Performance-pro-Watt-Verhältnis massiv zu verbessern.
Da sollte eigentlich reichen, dass Nvidia in etwa einschätzten kann, was auf die zukommt. Anders wäre es, wenn es wirklich eine ganz neue Architektur wäre.
 
Flinxflux schrieb:
Zur Amd Nvidia Treber Debatte will ich noch sagen das meine Amd 7870 GHZ besser gealtert ist als
meine GTX 770.Bis Mitte letzten Jahres lag fast immer die GTX770 von der Spieleleistung vorne, nun ist es bei neueren Spielen
meist die AMD HD HD7870 GHZ.

AMD Karten altern meistens besser weil sie mehr VRAM bieten und AMD sich die Mühe macht auch für die Vorgängergeneration die Treiber zu optimieren und nicht nur Bugfixing zu betreiben. Prominente Beispiele sind GTX 560 vs Radeon 6950 oder GTX 780 vs Radeon 290.

In beiden Fällen sind die grünen Karten allmählich hinter den vergleichbaren roten Karten zurück gefallen als nVidia die nächste Generation auf den Markt gebracht hat.

Das nVidia in FullHD meistens etwas bessere Leistung bringt, relativiert sich dadurch das AMD in höheren Auflösungen nicht so stark verliert wie eine nvidia mit vergleichbarer Rohleistung. Falls man plant mittelfristig ein Display mit höherer Auflösung anzuschaffen, aber die Grafikkarte nicht gleichzeitig austauschen will, sollte man eher bei AMD vorbeischauen.

Wer sich sowieso jede Generation eine neue Karte kauft und ständig die allerneusten Spiele am Day One spielen will, war bisher mit nvidia besser bedient. Wer eine Grafikkarte bis zur übernächsten Generation nutzen möchte und Spiele erst kauft wenn die Fehler rausgepatcht wurden, sollte sich eher bei AMD umschauen.

Von daher finde ich diese rot/grünen Grabenkämpfe reichlich beschränkt. Es kommt halt darauf an welche Strategie der Käufer verfolgt.

P.s.: Wo sich neuerdings beide nichts mehr geben ist die PR. Da hat AMD endlich nachgezogen und trumpft nun auch mit feisten Geschichten auf. In Sachen Marketing war nvidia historisch gesehen immer besser, bzw hat sich morgens die Zähne scharf gefeilt, während AMD nur die Zähne geputzt haben :D
 
Zuletzt bearbeitet von einem Moderator:
SavageSkull schrieb:
Und auf eins kann man sich verlassen: Die Werbeangaben sind durchweg gelogen und geschönt.

Manchmal stimmen PR-Folien auch, zuletzt war es bei der Nano Folie vom Juni der Fall gewesen (beim Vergleich zur 290X).

SavageSkull schrieb:
Denke eher da hat man einen Chip mit der Leistung >Fury/Titan genommen und um auf die Leistung der 950 zu kommen, die Taktschraube so massiv nach unten gedreht, dass man praktisch im Idle daheim ist.

Der Chip der gezeigt wurde, war je nach Schätzung 120-150mm² groß, da ist ne Leistung >Fury/Titan nicht drinne. Das Engineering Sample lief mit 850MHz, laut Testvideo.
 
Zurück
Oben