News AMD Polaris: Next-Gen-Radeon mit 14-nm-FinFET kommt Mitte des Jahres

Kasmopaya schrieb:
Aber das lustigste an den Folien ist wie immer das sie ihre neue GPU mit den alten der Konkurrenz vergleichen um besonders gut da zu stehen, Sinn machen solche Vergleiche nur
Pascal v. Polaris

Aber du wirst doch nicht müde zu wiederholen, wie extrem geil Maxwell 2.0 ist, und ich meine AMDs aktuelle GPUs sind nur geringfügig optimierte Architektur von 2011, während Maxwell im Vergleich zu Kepler komplett umgekrempelt wurde.

Wie sollen sie auch mit Pascal vergleichen? Und warum? Sie wollten einfach zeigen, wie weit sie mit ihrem engineering Sample sind und was man von der kommenden Generation erwarten kann.
 
oldmanhunting schrieb:
Hätte AMD als Vergleichs GPU keine GTX 950 sondern eine von AMD genommen, dann wäre die Stromersparnis noch bedeutend höher ausgefallen.

haha ! lol

Stimmt!

Wie heißt es ?

Traue nur der Statistik, die Du selber gefälscht hast. ;)
 
Zotac2012 schrieb:
Das sehe ich ein wenig anders, alle die jetzt noch eine GTX 970/980/980Ti/TitanX oder AMD R9 390/390X werden nicht nochmal auf GDDR5 setzen, sondern warten jetzt auf die neuen Grafikkarten mit den neuen Chips Pascal und Solaris mit HBM2 mit mindestens 8.GB/Vram. ... Die Flaggschiffe von beiden Herstellern werden dann dementsprechend teurer sein aber auch dann noch etwas mehr HBM2 Speicher haben, bei Nvidia soll das Flaggschiff ja dann mit 16.GB HBM2 Speicher kommen, bei AMD wird es dann wohl ähnlich sein.
...
Bei allen anderen Grafikkarten unterhalb einer GTX 970 wie auch einer R9 390 wird dann wohl aus Kostengründen noch weiter der GDDR5 Speicher verbaut, vermutlich dann aber mit mehr GDDR5 Speicher als bisher [4/8.GB/Vram]. AMD hat es ja mit der R9 390/390X als Neuauflage mit 8.GB/Vram vorgemacht. Ich rechne damit das 2016 ab dem III.Quartal [Aug./Sept./Okt.] die neuen Grafikkartengenerationen [zumindest die ersten Modelle] von AMD wie auch Nvidia mit HBM2 erscheinen werden.


Denkbar dass bei AMD mehr als nur die High End Karten auf HBM setzen, und hier muss man hoffen dass HBM 2.0 auch zeitnahe fertig ist (besser wäre es wenn er das bereits ist).

Nvidia trau ich eher Kostenoptimierung zu. Wenn eine GTX 960 mit 128Bit auskommt dann sehen wir da GDDR5 noch länger. Pascal mit HBM wird man wohl erstmal nur im High End Segment sehen (wenn überhaupt) oder gar nur als Tesla Karte Mitte - Ende des Jahres.

Die Fat Chips auf neuer 16nm Fertigung dürften beide nicht 2016 rauskloppen. Am ehesten noch NVidia im HPC Markt, Anfang 2017 als TITAN. Außer AMD zwingt sie dazu...

So würde zumindest ich spekulieren ;)

Edit. Die eigentliche Überraschung sind die 2 Prozesse, 14nm GF und 16nm TSMC. Ich denke beide schließen hier stark zu Intel auf und der GF Prozess ist das Wichtige im Hinblick auf Zen.
 
Zuletzt bearbeitet:
sverebom schrieb:
Die Fury war/ist keinesfalls eine schlechte Karte, aber AMD hat m.E. beim Launch die Schwerpunkte falsch gesetzt. Es wurde viel über das designierte Top-Modell "Fury X"und das Effizienz-Experiment "Fury Nano" geredet, die aber aufgrund des jeweils strikt vorgegebenen Referenzdesigns vielen Kunden nicht geschmeckt und nur Nischen angesprochen haben. Über die normale "Fury"wurde kaum oder viel zu spät geredet, nachdem die Vorstellung und das TamTam über die Fury-Geschwister bereits einen gewissen Eindruck hinterlassen haben. Dabei ist die normale "Fury" wohl die interessanteste der drei GPUs, gerade weil sich die Hersteller hier mit eigenen Designs austoben durften. Schnell, leise und je nach Hersteller einigermaßen effizient. Und die "R9 Nano" ist mittlerweile um 550 Euro zu haben. Wenn AMD etwas potentere Custom Cooler gestatten würde, dann könnte die R9 Nano der Preis-/Leistungs- und Effizienz-Höhepunkt der nun ausgehenden GPU-Generation sei. So wie ich das sehe, ist die "Fury" eine hervorragende GPU, die einfach schlecht vermarktet wurde und der man das Leben mit allzu strikten Designvorgaben unnötig schwer gemacht hat.

Nö das Problem war das AMD genau wie hier auch wieder viel zu viel blabla und Wind um die Karte gemacht hat, sodass jeder enttäuscht war als sie letztendlich auf den Markt kam. Aufgrund der großen Reden und Ankündigungen hat man einfach mit mehr gerechnet.
Im Endeffekt wars ne nette Machbarkeitsstudie, die AMD vermutlich mehr gekostet hat, als es letztendlich eingebracht hat. Aber das ist nur eine Vermutung.
Ich erwarte einfach dass hinter dem ganzen Geblubber auch mal das steckt was man erwartet.
 
Glub schrieb:
Mir kommen die Wörter Energieeffizienz und Performance-Pro-Watt eindeutig zu oft vor.
Was doch hauptsächlich interessiert ist die reine Leistungsteigerung, für VR und 4k reicht das was es zur Zeit gibt nicht wirklich aus.

Wie sich die neue Generation gegen ne GTX 950 (lol) in Sachen Verbrauch schlägt find ich jetzt nicht so spannend.

Gerade im HTPC-Bereich und für MMOs ist dieser Vergleich sinnvoll.
 
Man sollte nicht zuviel erwarten, es handelt sich wahrscheinlich erstmal um chips für den low- und mid range bereich. Bei globarfoundries würde ein chip im bereich von 100mm²(für den bereich bis 150 oder 200 dollar) sinn machen, welcher vlt sogar relativ ähnlich dem gpu part der kommenden zen apu ist. Bei tsmc würde ich einen chip für modelle im preisbereich von 200-400 dollar erwarten, also irgendwas im größenbereich von 200-300 mm². Ein größerer chip währe vlt möglich, würde aber auch direkt die fury ersetzen und wäre je nach yield zu teuer für den bereich bis 400 dollar. Chips in der grösse von 600mm² werden vlt getestet, aber bis der yield ausreichend ist um sie im consumer bereich von 1000 dollar anbieten zu können, wird es wohl noch bis mitte oder ende 2017 dauern.
 
ich meine AMDs aktuelle GPUs sind nur geringfügig optimierte Architektur von 2011, während Maxwell im Vergleich zu Kepler komplett umgekrempelt wurde.
Ja und? Man muss das vergleichen was gleichzeitig raus kommt. Und Fury(HBM) tritt nunmal gegen Big Maxwell an.

Und Pascal tritt gegen Polaris an und nicht gegen Fury oder sonst was. Polaris tritt nicht gegen 28nm Big Maxwell an.

Das AMD sich auf den Speicherkontroller und auf die Speicherchips, anstatt auf die GPU Architektur konzentriert hat, ist ihr Problem. Das Ergebnis kam aber zeitgleich raus wie der Konkurrent. Unterschiedliche Herangehensweisen an ein Problem, unterschiedliche Ergebnisse.

Sollte sich Pascal um 1 Jahr verspäten, erst dann darf Polaris gegen Big Maxwell antreten, denn in einem Jahr wenn Pascal dann aufschlagen würde, hätte AMD schon wieder die neue Generation am Start.
Sie wollten einfach zeigen, wie weit sie mit ihrem engineering Sample sind und was man von der kommenden Generation erwarten kann.
Die Folie ist so überflüssig. Wenn man nicht effizienter ist als die alte 28nm Generation ist sowieso alles vorbei. Das ist also das mindeste was sie bringen müssen. Marketing bla bla @ its best, ich muss bei sowas immer drüber lachen.
 
Zuletzt bearbeitet:
freacore schrieb:
Der Energieverbrauch ist auch deshalb wichtig, weil er Auswirkungen auf die Lautstärke der Karte hat.
Nicht wirklich.
Sieht man z.B. an den Karten mit Hawaii/Grenada-GPU, deren Effizienz ist im Vergleich zu Maxwell und Fiji eher gering und die verbrauchen relativ viel, trotzdem sind die Karten mit die leisesten auf dem Markt, wenn man zu den richtigen Modellen greift.

Selbst meine Sapphire Tri-X welche noch nicht den besten Kühler hat (im vergleich zur Vapor-X oder dem was es bei der 390 gibt)macht subjektiv weniger Lärm als die Palit GTX970 Jetstream die ich vorher drin hatte.

Am Stromverbrauch der Highend-Karten wird sich nicht viel verändern, auch wenn die Effizienz steigt. Mehr Effizienz bei gleichem Stromverbrauch bedeutet mehr Leistung, und das ist genau das, was die meisten wollen - und auch gebraucht wird. Aktuelle Highend-Karten packen in den meisten Spielen ja gerade so die 1080p mit 60fps. Wo soll das denn mit VR hinführen? Also richtiges VR, nicht den Pixelbrei der ersten folgenden) Generation.
Wenn man mal zockt darf der Rechner auch gut 400W ziehen, wo ist das Problem. Ich zumindest komme gar nicht so oft dazu sodass sich das am Ende kaum auswirkt. Aber wenn ich dann mal was zocken will, dann auch richtig und nicht halbgar.
 
noxon schrieb:
Es gibt aber auch noch Leute die sich an die 200'er Serie erinnern.

An welche? GTX 200 Serie oder AMD 200 Serie?:evillol:
 
Marcel55

Ich vermute, es wird wohl ähnlich wie bei Maxwell der Fall sein. Es wird Referenzmodelle geben, die am Sweetpoint laufen und dutzende OC Varianten, die dann höchstmögliche Taktrate fahren. Da spielt auch etwas Marketing rein.
 
Kasmopaya schrieb:
Wenn man nicht effizienter ist als die alte 28nm Generation ist sowieso alles vorbei.
Dann muss ja bei nvidia alles vorbei gewesen sein als bei der nvidia GTX 200er serie von 65nm auf 55nm es effizienzmäßig gen 0, eher noch das Gegenteilige, ging.
Ich glaube es war der Heckmeck mit der GTX280 in 65nm vs die 275 / 285 in 55nm.
 
Jesterfox schrieb:
Da wünsch ich mir doch direkt Motorola zurück, die überlebens sogar wenn man sie 180° gedreht in den Sockel verbaut und einschaltet ;-)

Ich wünsche mir auch den Trabbi zurück, weil man da alles selbst reparieren kann und die Karosserie mehr oder weniger aus "Pappe" ist und ich die Soße im Garten anrühren und neue Karosserieteile formen kann? ^^ ( Duroplast)

Motorolla Chip schön und gut. Leistung hätte ich aber schon gerne ;D
 
Das ist klar, dafür wird es ja auch mehrere Modelle geben.

Wobei die Karten die am sweet-spot laufen ja auch HBM haben müssten, um maximale Effizienz zu erreichen.

Was letztlich mit HBM und was mit GGDR5 kommt wird wohl noch die interessanteste Fragestellung, bzw. ab welchem Preisrahmen man mit HBM rechnen kann.

Um möglichst viele Kunden zu erreichen müsste es wieder ein Modell geben, welches unter 350€ kostet, aber die Fury X und 980ti hinter sich lässt.
 
Wäre super wenn AMD was kräftiges bringt - bin vor zwei Jahren auf nVidia umgestiegen und bin unzufrieden. Der neuste Treiber führt zu heftigen Bildfehlern in Call of Duty: Black Ops 3.
 
Kasmopaya schrieb:
Und Pascal tritt gegen Polaris an und nicht gegen Fury oder sonst was. Polaris tritt nicht gegen 28nm Big Maxwell an.
[...]
Die Folie ist so überflüssig. Wenn man nicht effizienter ist als die alte 28nm Generation ist sowieso alles vorbei. Das ist also das mindeste was sie bringen müssen.

Was hätte AMD denn machen sollen? Bei nvidia anklopfen und nett fragen, ob die ihnen für ihre Polaris-Präsentation ein Pascal-engineering-sample zur Verfügung stellen? :freak:

Wenn Pascal jetzt schon draußen wär, könnte ich deine Kritik verstehen, aber so ist doch alles im Lot, weil eine gewisse Vergleichbarkeit gegeben ist und man so sieht, wo die Reise ungefähr hin geht.
 
DrToxic schrieb:
Was hätte AMD denn machen sollen? Bei nvidia anklopfen und nett fragen, ob die ihnen für ihre Polaris-Präsentation ein Pascal-engineering-sample zur Verfügung stellen? :freak:

Achwo, Holzbretter besitzt kasmo bestimmt auch selbst :p

Am Ende heißt es immer: abwarten, Tee trinken, schauen was wirklich raus kommt, usw.
 
Kasmopaya schrieb:
Das AMD sich auf den Speicherkontroller und auf die Speicherchips, anstatt auf die GPU Architektur konzentriert hat, ist ihr Problem.
Na ob das ein Problem ist, sich viel früher mit HBM zu beschäftigen, wird sich noch zeigen ;)

Kasmopaya schrieb:
Die Folie ist so überflüssig. Wenn man nicht effizienter ist als die alte 28nm Generation ist sowieso alles vorbei. Das ist also das mindeste was sie bringen müssen. Marketing bla bla @ its best, ich muss bei sowas immer drüber lachen.

Dass Polaris gegen Pascal antreten wird, ist jedem klar. AMD hat einfach präsentiert was möglich sein wird im Vergleich zum extrem geilen Maxwell... nicht mehr und nicht weniger. Keine Ahnung, was an einem präsentations- und lauffähigen engineering Sample so lustig ist. Lachen muss ich eher über Nvidia's Folien: "Pascal = 10x Maxwell" :lol:
 
Drummermatze schrieb:
Nö das Problem war das AMD genau wie hier auch wieder viel zu viel blabla und Wind um die Karte gemacht hat, sodass jeder enttäuscht war als sie letztendlich auf den Markt kam. Aufgrund der großen Reden und Ankündigungen hat man einfach mit mehr gerechnet.
Im Endeffekt wars ne nette Machbarkeitsstudie, die AMD vermutlich mehr gekostet hat, als es letztendlich eingebracht hat. Aber das ist nur eine Vermutung.
Ich erwarte einfach dass hinter dem ganzen Geblubber auch mal das steckt was man erwartet.

Feiste Geschichten erzählen beide Hersteller, da geben sie sich nichts mehr. Insbesondere hier bei CB hängen viele Kiddies rum die sich gerne in irgendwelche Hypes rein steigern und natürlich ernüchtert sind wenn die neue Karte nur das bringt was zu erwarten war.

Als super Beispiel führe ich die 380X an welche hier von so manchem Träumer als GTX 970 Killer gehandelt wurde... :freak:
 
tek9 schrieb:
Als super Beispiel führe ich die 380X an welche hier von so manchem Träumer als GTX 970 Killer gehandelt wurde... :freak:
Sowas hat nie jemand behauptet. Dafür gibt es ja die R9 390.

Die 280X sollte eigentlich diese riesige Lücke zwischen 960/380 und 970/390 füllen, was sie leider nur bedingt getan hat, der Abstand ist zu gering.
 
D708 schrieb:
Wenn ich noch einmal von der GTX 970 Verarsche lese, lauf ich Amok. Jap stimmt, Nvidea hat bewusst die Kunden verarscht. Ist eigentlich nicht tolerierbar aber juckt einen auch nicht bei andern Sachen.

Hahaha. Das ist der beste Post im ganzen Thread. Ich musste lange nicht mehr soo schmunzeln...

Jetzt wissen wir, wie GTX 970 Liebhaber ticken.

Du musst wohl oder übel damit Leben das dein Schmuckstück nicht mehr so gut zum protzen geeignet ist wie im Herbst 2014.

Wir haben erst Anfang Januar, und Du stehst auf der Liste der Anwärter für den Titel UBER FANBOY 2016 bereits jetzt ganz weit oben. Auf jeden Fall hast du es mit deinem Post in meine Signatur geschafft, Gratulation!
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben