News AMD Polaris: Next-Gen-Radeon mit 14-nm-FinFET kommt Mitte des Jahres

bensen schrieb:
Ist das so abwegig? Wir stehen hier vor einem großen Wechsel der Lithografie. Dazu kommen dann architektonische Verbesserungen.

Nee, das habe ich ja auch nicht gesagt. Aber der eine meinte, dass -30% Verbrauch und +30% Performance nichts aufregendes wär und der andere wär enttäuscht, wenn nicht mindestens -50% und +100% herauskommt.

Ich fänd -30%/+30% schonmal nicht verkehrt, aber vielleicht lass' ich mich auch einfach nur gern (positiv) überraschen :p
 
doch, alles andere wäre verkehrt ;)

Allerdings muss man das Speichersystem mit einbeziehen, bei GDDR5 bleibt der Verbrauch ja erstmal unverändert. Klar, das SI selbst dürfte auch sparsamer werden.
 
Krautmaster schrieb:
eben. Hallo... 28nm -> 16/14nm. Man sollte nicht vergessen, dass der eigentliche 20nm Schritt komplett übersprungen wurde.

Man sollte aber auch nicht vergessen, dass der nächste Sprung von 16/14nm weiter runter wieder ein paar Jahre ziehen kann, und man den Pulver nicht schon am anfang verschiessen möchte. Zuerst kommen 200-300mm^2 Chips die zwar was reissen können (aber bestimmt keine 50% gegenüber die grössten 28nm Karten, vielleicht 20?), aber nicht viel, dafür vor allem Perf/W mässig am meisten. Bis wir dann wieder die 250-300W 550mm^2 Klopper bekommen vergehen wohl wieder 2-3 Jahre, weil alles andere wirtschaftlich nicht funktionieren würde, geschweige denn bis dahin ist die Fertigung ebenfalls ein Stück weiter effizienter geworden, und vor allem sicherer bezüglich Fehlerrate, damit man solche Klopper auch problemlos produzieren kann.

Ich würde so ne 980Ti, Fury X oder Titan X nicht so schnell aufgeben wollen, ausser natürlich man möchte so früh wie möglich in den VR Zug einsteigen und man braucht das letzte bisschen Leistung (wenn überhaupt wie schon gesagt).

Vielleicht halte ich den Ball zu flach, mag sein. Aber sonst wird immer zu viel gelabbert und am Schluss sind alle enttäuscht. Und am ende muss AMD mit nem miesen PR leben, weil wir uns zu viel von deren Angaben intepretiert haben. :/
 
Zuletzt bearbeitet:
Der Energieverbrauch ist auch deshalb wichtig, weil er Auswirkungen auf die Lautstärke der Karte hat.
 
Krautmaster schrieb:
Naja, ich gehe von aus dass die kleineren Karten auch kein HBM 2.0 sehen werden sondern GDDR5, imho rechnet sich da HBM 2,0 kaum außer man hat die Architektur seit je her auf HBM ausgelegt, dann wäre ein Umschwenken zu teuer.

Das sehe ich ein wenig anders, alle die jetzt noch eine GTX 970/980/980Ti/TitanX oder AMD R9 390/390X werden nicht nochmal auf GDDR5 setzen, sondern warten jetzt auf die neuen Grafikkarten mit den neuen Chips Pascal und Solaris mit HBM2 mit mindestens 8.GB/Vram. Das diese Grafikkarten am Anfang noch recht teuer sein werden, muss wohl auch jedem klar sein, ich rechne mit 500,00 Euro [Plus/Minus] in der Kategorie einer jetzigen GTX 970/980 bei Nvidia, bei AMD wird sich das in der Kategorie einer 390/390X auch so in diesem Preisgefüge einpendeln. Die Flaggschiffe von beiden Herstellern werden dann dementsprechend teurer sein aber auch dann noch etwas mehr HBM2 Speicher haben, bei Nvidia soll das Flaggschiff ja dann mit 16.GB HBM2 Speicher kommen, bei AMD wird es dann wohl ähnlich sein.

Bei allen anderen Grafikkarten unterhalb einer GTX 970 wie auch einer R9 390 wird dann wohl aus Kostengründen noch weiter der GDDR5 Speicher verbaut, vermutlich dann aber mit mehr GDDR5 Speicher als bisher [4/8.GB/Vram]. AMD hat es ja mit der R9 390/390X als Neuauflage mit 8.GB/Vram vorgemacht. Ich rechne damit das 2016 ab dem III.Quartal [Aug./Sept./Okt.] die neuen Grafikkartengenerationen [zumindest die ersten Modelle] von AMD wie auch Nvidia mit HBM2 erscheinen werden.

 
Wenn ich noch einmal von der GTX 970 Verarsche lese, lauf ich Amok. Jap stimmt, Nvidea hat bewusst die Kunden verarscht. Ist eigentlich nicht tolerierbar aber juckt einen auch nicht bei andern Sachen.

Die Graka ist einfach gut. Die 970 benutzt sowieso keiner mit Sinn und Verstand für mehr als FullHd. Maximal bei manchen Spielen 1440p. Bis die ernsthaft in ihr Limit läuft, saufen eher die Durchschnittsfps ab, als Große Spiks. Der Fall ist ähnlich zur Fury. Für 4K zu wenig Speicher aber auch sowieso zu wenig Kraft.

To Topic
Hoffe da kommt auch ein bisschen Bewegung in den Laptopmarkt. Gerade da interessiert doch Energieeffizienz. Dazu kommt, gleiche Leistung, weniger TDP. Freue mich auch eventuell in Ultrabooks mal eine dedizierte Gpu zu finden.
 
makus schrieb:
Warum wird nicht Intels 11nm Verfahren angewendet.

Was hat Intel in einem Thread über AMDs Grafikkarten zu schaffen?
 
Zuletzt bearbeitet:
Invd

Von was sprichst du ? Das ist das erste mal, dass konkret überhaupt mal ein Zeitpunkt angegeben wurde. Bisher gab es nur Gerüchteküche und ein ungefähre Vermutung (aus Gerüchten, Beispiel Tapeouts) wann die neuen FinFet Grafikkarten von AMD und NV kommen würden. Das ist dann doch überraschend, dass da so ein ungefähres Zeitfenster bekannt gegeben wurde.

EDIT: achso, verstehe, du meinst das rückwirkend auf die Ankündigung.

ronrebell schrieb:
NVIDIA hält den Ball flach, released dann wieder früher und AMD hechelt hinterher.
...

Die letzte spitzen ATI/AMD Karte war meine 5870 vor vielen Jahren. Da hatte NVIDIA lange nichts entgegenzusetzen. Aber seither gabs von AMD leider nix Bahnbrechendes. /QUOTE]

Zur Erinnerung, AMD hat ebenso die 7970 im 28nm Verfahren wesentlich früher auf den Markt gebracht und die 7770 und 7750 war bis Maxwell die effizientesten Karten.

Mir kommt es oft vor, als würden die Leute sich nichts merken. Vorhin hatte man auch gelesen, dass es seit Ewigkeiten keine Performance/Watt Karte unter 100 Euro gab. Was ein völliger Blödsin ist, weil gerade mal mit Maxwell, NV die Nase vorne hatte. Davor war die 7750, 5670 (6670) ect Karten von AMD immer vorne.
Aber man sieht, es reicht nur eine gute Generation, damit die Verallgemeinerung und der "war doch immer schon" Status einstellt.

Btw, NV hat immer bei der Revision, also zweiten Generation früher geluncht. Bei neuer Fertigung war bisher AMD meist schneller. 7000 Generation, 5000 Generation, 3000 Generation.
NV war bei der 500 GTX Serie schneller, und bei der 700 GTX Serie schneller, so wie bei der 900.
AMD ist deren Chip in den letzten Generationen deutlich länger gefahren als NV es gemacht hat.
Im Endeffekt hat AMD den Gegenpart zur 900 Serie nicht komplett rausgebracht. Eine R9 390X oder R9 370/360 wäre ebenso in GCN 1.2 effizienter gewesen, aber hätte AMD wieder einige Millionen gekostet.
 
Zuletzt bearbeitet:
Larve74 schrieb:
Kann sein, dass das oft der Fall ist.

Trotzdem bedeutet weniger Stromaufnahme niedrigere Temperaturen, kleinere Kühllösungen, weniger Lautstärke und dass im DesktopBereich endlich das ankommt, was im mobilen Bereich schon seit Jahren Priorität hat: Energieeffizienz !

Schau mal was Intel seit Sandy macht: Energieeffizienz steigern.
Schau mal was Intel seit Sandy kaum macht: Performanceverbesserung.
 
Der Energieverbrauch ist auch deshalb wichtig, weil er Auswirkungen auf die Lautstärke der Karte hat.
Kühlere Temps. ermöglichen höhere Boost Taktraten und somit mehr Leistung. Weniger Abwärme im Zimmer etc.

Eben der größte Eckpfeiler warum Big Maxwell aktuell dominiert. Extrem schnell und sparsam gegenüber anderen GPUs.

Ohne eine Effiziente Architekt können sie gleich mal einpacken, denn ich glaube NV wird ihnen nicht mehr den Gefallen machen und eine neue Thermi raus hauen.

Aber das lustigste an den Folien ist wie immer das sie ihre neue GPU mit den alten der Konkurrenz vergleichen um besonders gut da zu stehen, Sinn machen solche Vergleiche nur
Pascal v. Polaris

Wie schon gesagt wurde wird der 14nm Prozess wahrscheinlich noch länger wie 28nm, also 4+ Jahre der neue Standard sein. Die besten, schnellsten und größten 14nm Karten wird es also nicht 2016 geben sondern erst viel später. 2016 geht es erstmal darum überhaupt liefern zu können und nicht das Intel Skylake Desaster nach zu machen. Dazu werden winzige GPUs als high End verkauft. Spannend wird ob NV wieder beschnittene SI Karten als "awesome" verkaufen wird.
 
Zuletzt bearbeitet:
Ne große Klappe und viel Marketing Blabla.
Wie damals bei der Fury.
Ich bin gespannt was wirklich am Schluss rauskommt.
Gönnen würde ichs AMD.
 
Mir als Kunde ist es im Endeffekt egal ob HMB2 oder GDDR5 verbaut wird, so lange wie die Bandbreite nicht limitiert ist mir das Wie doch egal. Wenn also ein GP204 384bit 6GB GDDR5 hat ist das für mich okay.
 
hört sich interessant an - wie meistens hoffen wir es wird auch was, vor allem das die Dinger dann auch ausreichend verfügbar sind :rolleyes:
 
das klingt alles sehr vielversprechend.

mal sehen, vielleicht wird dann nächstes jahr ein umstieg auf 2560x1440 + freesync@144hz erschwinglich.

wie ist das eigentlich wenn man 2 monitore mit unterschiedlicher bildwiederholfrequenz hat? Also z.B. einer mit 60hz ohne freesync, der andere mit 144hz und freesync, funktioniert das?
 
Bible Black schrieb:
Mir ist der Verbrauch reichlich wumpe, egal ob jetzt 100, 200 oder 300Watt, solange es sich kühlen lässt und _dementsprechend_ Leistung gebracht wird...
Leistung, dass will ich. GPU ist kein Auto wo Sparsamkeit gleich mehrere € pro Fahrt spart und nicht im Jahr 10€.

​Und du siehst das Paradox in deiner Aussage wirklich nicht??
 
tic-tac-toe-x-o schrieb:
Man sollte aber auch nicht vergessen, dass der nächste Sprung von 16/14nm weiter runter wieder ein paar Jahre ziehen kann, und man den Pulver nicht schon am anfang verschiessen möchte.

Ich denke, das ist weniger ein Möchte als ein Können.
Es war eigentlich immer so, dass mit der Zeit immer mehr aus einem neuen Fertigungsprozess heraus geholt werden konnte, bzw. die GPU-Architektur dafür optimiert, und auch immer größere Chips wirtschaftlich wurden.
Besonders bei 28nm ist es schon sehr beeindruckend, was da im Laufe der Jahre noch alles rausgekitzelt wurde, und da war ja ursprünglich defintiv nicht geplant worden, dass man so lange auf diesem Prozess bleiben wird.

Ich bin auch der Meinung, dass wir uns wohl darauf einrichten können, dass der nächste Sprung nach 14/16nm auch wieder sehr lange auf sich warten lassen wird. Das wird wohl zukünftig der Normalfall sein. Man merkt doch langsam, dass die Chipfertigung an die Grenzen des technisch möglichen bzw. wirtschaftlichen kommt.
Um so mehr kommt es auch neue Architekturen an und ganz neue Technologien wie HBM.

Dass HBM erstmal weiter dem High-End vorbehalten bleibt, finde ich ziemlich schade. Geht wohl technisch/wirtschaftlich noch nicht anders. Dabei fehlt es gerade im Low -End und besonders bei APUs an Speicherbandbreite, im High-End hingegen so gut wie gar nicht.
Eine kleine Polaris-APU mit HDMI2.0a und HBM würde ich mir sofort zulegen, als Herzstück für einen neuen HTPC. Vielleicht gibts sowas dann ja zusammen mit den Zen-CPU-Cores.
Die Frage ist, ob ich noch so lange warten will.
 
Ich habe in diesem Artikel viel Marketing gelesen.
Einen Termin von AMD, den ich nach den letzten Terminansagen nicht erst nehmen kann. (Mantle, Fury)
Außerdem wurde einen Konkurent zur GTX950 gezeigt?

Also derzeit alles noch zu utopisch für mich.
Weckt mich wieder Mitte 2016, nach der ersten Terminverschiebung.
 
Drummermatze schrieb:
Ne große Klappe und viel Marketing Blabla.
Wie damals bei der Fury.
Ich bin gespannt was wirklich am Schluss rauskommt.
Gönnen würde ichs AMD.

Die Fury war/ist keinesfalls eine schlechte Karte, aber AMD hat m.E. beim Launch die Schwerpunkte falsch gesetzt. Es wurde viel über das designierte Top-Modell "Fury X"und das Effizienz-Experiment "Fury Nano" geredet, die aber aufgrund des jeweils strikt vorgegebenen Referenzdesigns vielen Kunden nicht geschmeckt und nur Nischen angesprochen haben. Über die normale "Fury"wurde kaum oder viel zu spät geredet, nachdem die Vorstellung und das TamTam über die Fury-Geschwister bereits einen gewissen Eindruck hinterlassen haben. Dabei ist die normale "Fury" wohl die interessanteste der drei GPUs, gerade weil sich die Hersteller hier mit eigenen Designs austoben durften. Schnell, leise und je nach Hersteller einigermaßen effizient. Und die "R9 Nano" ist mittlerweile um 550 Euro zu haben. Wenn AMD etwas potentere Custom Cooler gestatten würde, dann könnte die R9 Nano der Preis-/Leistungs- und Effizienz-Höhepunkt der nun ausgehenden GPU-Generation sei. So wie ich das sehe, ist die "Fury" eine hervorragende GPU, die einfach schlecht vermarktet wurde und der man das Leben mit allzu strikten Designvorgaben unnötig schwer gemacht hat.
 
Zuletzt bearbeitet:
D708 schrieb:
Wenn ich noch einmal von der GTX 970 Verarsche lese, lauf ich Amok. Jap stimmt, Nvidea hat bewusst die Kunden verarscht. Ist eigentlich nicht tolerierbar aber juckt einen auch nicht bei andern Sachen.

Die Graka ist einfach gut. Die 970 benutzt sowieso keiner mit Sinn und Verstand für mehr als FullHd. Maximal bei manchen Spielen 1440p. Bis die ernsthaft in ihr Limit läuft, saufen eher die Durchschnittsfps ab, als Große Spiks. Der Fall ist ähnlich zur Fury. Für 4K zu wenig Speicher aber auch sowieso zu wenig Kraft.

Amen.

Hört sich natürlich alles gut an (erstmal), aber Marketing und Realität liegen oft weit auseinander.
Ich bin derweil zufrieden, damals mit der GTX780 ein super Geschäft gemacht zu haben. Komme damit immer noch super klar, daher können sich AMD und nVidia gerne noch Zeit lassen und dann mal wieder richtige Hammerkarten auf den Markt bringen!
 
Zurück
Oben