News AMD Polaris, Vega, Navi: Roadmap nennt HBM2 erst für Polaris-Nachfolger Vega

bin mal gespannt ob sich der Aufbau mit Polaris ändert oder ob es wirklich ein GCN 1.3 ist. GCN ist bisher im Grundshader ja kaum bis gar nicht verändert worden.
GCN_CU.jpg
GCN11.jpg
29%20-%20Kaveri%20GPU%20GCN%20Cores.jpg
 
Zuletzt bearbeitet:
Krautmaster schrieb:
High End weil Preis = hoch?

High End ist in meinen Augen der Fall wenn der Prozess ausgereizt wird, und das wird er nur bei der Fiji in deiner Serie. Hawaii usw. sind ~350mm², das ist nicht sonderlich groß (auch wenn es bei 16 / 14 nm schon überraschend groß wäre für den Einstand).

Ich denke Nvidia wie AMD werden unter 300mm² bleiben bei den ersten Karten. Siehe Nvidias "erste Pascal" die mit einem 8 Pin auskommen soll. Klar, preislich und in Relation zu den aktuellen Grakas "High End" aber weit davon entfernt was man bringen könnte würde man wollen.

Nvidia bringt meistens halt etwas früher nen fat DIE die den Prozess ausreizt weil sie den Tesla Markt bedienen müssen. Und das dürfte bei Pascal auch der einzige Chip sein der wieder mehr Computing Leistung bringt. Der GP104 wird eher für Gaming zugeschnitten sein wie Maxwell aktuell auch.

Ich denke auch das man am Anfang unterhalb der 300mm² Grenze bleibt oder bestenfalls nur leicht darüber starten wird weil der Prozess für größere GPUs einfach zu jung und anfällig sein ist.
Das sah man ja bereits bei den Problemen vom Cypress (HD5870) und Tahiti (HD7970) die beide mit einem neuen Prozess starteten und über 300mm² groß waren aber auch bei nvidia denn der Fermi ging mit seinen über 500mm² erst ein halbes Jahr nach dem Cypress und da auch nur in kastrierter Form an den Start. Da lief der GK104 mit seinen knapp unter 300mm² deutlich besser an. Die großen GPUs mit ihren über 500mm² kamen ja erst deutlich später.

PS: Im übrigen ist der Hawaii lt. Wikipedia 438 mm² groß. ;)
 
Kasmopaya schrieb:
Und Polaris? Nochmal 4GB maximal oder was? Oder 16GB GDDR5?

-> Polaris = GDDR5 (X?)
-> Vega = HBM 2

wie viel davon ist erst mal egal. HBM1 wird AMD nicht mehr bringen außer sie wollen ein Eigentor.
Ergänzung ()

ChrisMK72 schrieb:
Passt das nicht auch zeitlich sehr gut zu den großen Karten von Pascal zusammen ?

doch natürlich. Die Chips werden auch (längst) fertig sein, AMD und Nvidia warten halt noch auf den HBM 2 und ggf. noch generelle Optimierung (die Sache mit dem Interposer ist ja noch recht grün hinter den Ohren).

Erst mit HBM 2 ist man überhaupt etwas flexibel und kann mit Speichergößen spielen. Zb 16 GB TITAN V und 8 GB für den normalen TI Ableger, oder auch 16Gb für eine Vega Fury Z und 8 GB für eine Fury Nano Z ;)
Ergänzung ()

Wadenbeisser schrieb:
PS: Im übrigen ist der Hawaii lt. Wikipedia 438 mm² groß. ;)

stimmt der war ja schon recht fett, mein Fehler ;)

Ein Fiji wäre ohne Wegoptimierung von Computing Power und platzsparendem HBM SI vermutlich auch gar nicht möglich gewesen.
 
Zuletzt bearbeitet:
Ich verstehe gar nicht was alle mit HBM haben.

Sicherlich nette Technologie, aber zum jetztigen Zeitpunkt einfach Overkill.

Die Speicherbandbreite wird sicherlich nicht der Flaschenhals sein für schlechtere Performance.
 
incurable schrieb:
Also waren die drei jeweils das high-end ihrer Generation.

gut dann war auch die GTX 680 für dich High End, liegt wie gesagt im Auge des Betrachters. Ein 14nm Chip mit 200mm² ist für mich wenig High End auch wenn er sich vor die Fury X platzieren mag. Künstlich beschnittenes High End wegen mir.

Ich mein, ein i7 6700K ist auch kein High End (weil der höchste seiner Serie) weil ein Broadwell E nunmal einfach 24 quasi Kerne draufpappt. Der is in meinen Augen eher High End ;)
 
HBM ist die Zukunft, aber noch deutlich zu teuer ;)
Niemand kauf eine 500€ HBM Karte, nur weil sie weniger verbraucht als einer gleich schnelle 390X.
Meinetwegen auch 8/16GB GDDR5.

mfg,
Max
 
Zuletzt bearbeitet:
hm ja die Zukunft ist relativ. Mich wundert etwas das AMD schon HBM direkt durch "next Gen Speicher" ablöst, natürlich nur auf dem Papier, aber wieso? Was kommt nach HBM und vor allem vergleichsweise zeitnahe...
Vielleicht meint man einfach nur HBM 3. ^^

Nextgen zusammengeschrieben is eh etwas gaga :D

Edit: Großer Nachteil von HBM seh ich durch die statische Verdrahtung. Die ganzen OEM müssen quasi schon vor der Bestellung der Interposer Chip Memory Cluster wissen welchen Speicherausbau sie haben wollen. Spontan mehr draufpappen ist nicht.
Der ganze Bestellprozess ändert sich mit HBM schon, auch was Resteverwertung und Relabel für kommende Generationen angeht. Man kann nicht wie bei Hawaii spontan den VRAM verdoppeln.

Ich geh mal von aus dass der Interposer / HBM recht früh miteinander verschmolzen ist. Oder leistet das der OEM vor Ort? Dann würde aber wohl der Interposer je nach OEM auch anders aussehen. Auch wäre es interessant was dieser kostet. Ich denk günstig is der nicht da schon recht komplex.
 
Zuletzt bearbeitet:
MONSTER schrieb:
Gibt es Irgendwo eine übersicht mit den ganzen Karten wie die Leistungs- und Verbrauchs-mäßig einzuordnen sind?

Hab etwas derartiges mal auf 3D Center gesehen, die alle möglichen Test-Seiten zusammennehmen und einen Durchschnittswert daraus bilden.

http://www.3dcenter.org/artikel/stromverbrauch-aktueller-und-vergangener-grafikkarten
Mit idle und Spieleverbauchsübersicht.

Da kann man auch noch die alten Serien anklicken, wie kepler, wo ich mir gern mal die 144 Durchschnittswatt meiner 670er anschaue, bei immerhin 330%(aktuelle 960er z.B. 340%). :daumen:
 
Krautmaster schrieb:
gut dann war auch die GTX 680 für dich High End, liegt wie gesagt im Auge des Betrachters.
Wenn Du das so lesen möchtest, bitte, aber nur weil GK100 komplett in die Hose ging wird GK104 für mich nicht high-end.

Krautmaster schrieb:
Ich mein, ein i7 6700K ist auch kein High End (weil der höchste seiner Serie) weil ein Broadwell E nunmal einfach 24 quasi Kerne draufpappt. Der is in meinen Augen eher High End ;)
Der wird vielleicht bald high-end, im Moment ist er noch gar nichts. :p
 
Krautmaster schrieb:
gut dann war auch die GTX 680 für dich High End, liegt wie gesagt im Auge des Betrachters. Ein 14nm Chip mit 200mm² ist für mich wenig High End auch wenn er sich vor die Fury X platzieren mag. Künstlich beschnittenes High End wegen mir.

Ich mein, ein i7 6700K ist auch kein High End (weil der höchste seiner Serie) weil ein Broadwell E nunmal einfach 24 quasi Kerne draufpappt. Der is in meinen Augen eher High End ;)

Ja der wäre dann wohl eindeutig zu dick geraten. :)
Das kann man vielleicht schon vom Tonga ableiten der immerhin schon gute 359 mm² auf die Waage bringt. Dagegen sind die 596 mm² vom Fiji fast schon wenig wenn man bedenkt das er im Kern fast ein doppelter Tonga ist.
 
doch halt nur als ES ;)

-> GK100? Gabs vermutlich nie oder wurde einfach umgelabled in GK110 da der GK104 ja gut gereicht hat (wurde halt etwas hochgezüchtet was Takt angeht). Namen sind doch Schall und Rauch, wen interessiert wie Nvidia oder AMD ihre Chips intern benennen.
Außerdem ändert das ja auch nichts dran dass der "High End" GK104 klein war, selbst das 104 stand bei Nvidia nie für High End, dazu das SI usw passte alles nicht zu High End.... , aber wie gesagt, Schall und Rauch, der fat DIE kam ja dann als Tesla nicht wirklich viel später.

Ja ist eben reine Auslegungssache. Ich denke ein Chip mit 400-500mm² (was man als High End bezeichnen könnte) wäre in 16nm TSMC auch heute möglich, sogar ohne dabei Kopf und Kragen bei den Yields zu provozieren - nur rechnet sich das natürlich mehr wenn man dem Endkunde mehrere Generationen vorgaukelt und erstmal im Tesla Segment satt absahnt.

Da sich Nvidia und AMD sicher gut absprechen wird man vermutlich erstmal hochgetaktete kleine DIE launchen mit kleinem SI. Weil jeder mm² in neuer Fertigung gerade recht teuer ist.
 
So nebenbei....das mit der Highend Definition dürfte bei AMD etwas kompliziert sein da wir über unterschiedliche GCN Generationen reden und Tahiti, Hawaii und Fiji jeweils die schnellsten Vertreter ihrer Ausbaustufe waren ud zum jeweiligen Zeitpunkt die oberste Leistungsklasse vertraten.
 
Krautmaster schrieb:
Spontan mehr draufpappen ist nicht.

Doch, HBM2 kann man stacken ;)
Laut wccft lässt Nvidia seit Q1 bereits 4GB HBM2 Stacks herstellen, - wenn das stimmt könnten bald die ersten 8/12GB HBM2 Karten erscheinen.
Da AMD mit Low/Mid-End Consumer Karten beginnt, hier GDDR5 und erst im späteren Verlauf mit High-End/Enthusiast HBM2 - allerdings mit je 8GB Stacks, d.h. 8/16GB.

mfg,
Max
 
Krautmaster schrieb:
Ja ist eben reine Auslegungssache. Ich denke ein Chip mit 400-500mm² (was man als High End bezeichnen könnte) wäre in 16nm TSMC auch heute möglich, sogar ohne dabei Kopf und Kragen bei den Yields zu provozieren - nur rechnet sich das natürlich mehr wenn man dem Endkunde mehrere Generationen vorgaukelt und erstmal im Tesla Segment satt absahnt.

Da mir kein Vergleichschip mit dem Prozess und in der Größe bekannt ist wäre ich mir da nicht so sicher.
Das hat einen ganz einfachen Grund. Je größer der Chip desto warscheinlicher ist es das er mindestens einen Defekt hat und je größer der Chip desto weniger passen auf den Wafer.
Doof ausgedrückt könnte bei einem halb so großen Chip die hälfte voll intakt sein, bei dem großen aber alle ein Ding weg haben.
Ich denke das deshalb auch der Fermi am Anfang nur in kastrierter Form auf den Markt kam.
 
simons700 schrieb:
Du meinst also ende des Jahres gibt es R9 390x leistung mit GTX960 Stromverbrauch für 240€^^.
Das wird leider nicht passieren! Die Hersteller lassen sich Mehrleistung sicherlich fürstlich entlohnen!
Neue Karten nehmen nicht den Preisspot ihrer Vorgänger ein und Haben dann einfach mehr Leistung und weniger Stromverbrauch!
die 480(X) hat so viel Leistung (oder mehr) wie eine R9 390X aber weniger Stromverbrauch? Dann wird sie mit c.a. 400€ einsteigen, da kannst du dir sicher sein :D

Früher war es genau so, wie du meinst, dass es nicht sein kann ... Die neue Gen bot mehr Leistung bei gleicher Kohle ... Ich erinner mich gerne an 7900gt -> 8800gt zurück
 
@Krautmaster

Ja, das ist eine gute Idee. So werde ich das machen! :D
 
max_1234 schrieb:
Doch, HBM2 kann man stacken ;)

ja klar die HBM Stacks selber schon aber mal eben auf das Fertige Interposer Ram + Chip Konstrukt den Speicherausbau ändern ist nicht. Ich denke mal der OEM bekommt eben dieses Konstrukt geliefert und pappt das auf sein PCB. Er kann dann aber nicht spontan sagen "Fury XYZ mt HBM2 mach ich spontan 16 GB" sondern er muss wissen "ich bestelle 20k Chips mit 8 GB, 10 k Chips mit 16 GB HBM2".
Ergänzung ()

Wadenbeisser schrieb:
Da mir kein Vergleichschip mit dem Prozess und in der Größe bekannt ist wäre ich mir da nicht so sicher.
Das hat einen ganz einfachen Grund. Je größer der Chip desto warscheinlicher ist es das er mindestens einen Defekt hat und je größer der Chip desto weniger passen auf den Wafer.
Doof ausgedrückt könnte bei einem halb so großen Chip die hälfte voll intakt sein, bei dem großen aber alle ein Ding weg haben.
Ich denke das deshalb auch der Fermi am Anfang nur in kastrierter Form auf den Markt kam.

Wie groß ist denn zb der Apple iPad Pro Chip in mm²?

Edit: Okay "nur" 104.5 mm². Gut, dass es bisher keine 400mm² 16nm Chips bei TSMC gibt ist klar. Aktuell fertigt nur Intel in ihrem vergleichbaren 14nm Prozess extrem große DIE bei Knights Landing und Broadwell.
Ersterer >700mm².

@Wadenbeisser
wirklich gute Zahlen zur Yield bekommt man leider selten. Klar ist die Defektrate bei einem 400mm² Chips exponentiell größer als bei 100mm².
 
Zuletzt bearbeitet:
ah okay danke, dann war das andere wohl der A9 generell ;)

150mm² is auch schon ordentlich wenn man bedenkt wie viele man davon in Apfelprodukten braucht.
 
Zurück
Oben