News AMD Polaris, Vega, Navi: Roadmap nennt HBM2 erst für Polaris-Nachfolger Vega

Vielleicht ist es gar nicht so schlecht das HBM 2 gestrichen wurde.
So ist es denkbar das man peislich bei AMD mit dem High End nun 12GB VRam anbieten kann und mit GDDR5X hat man nun ja auch mehr Bandbreite, sodass man locker die 500GB/s knackt was wohl derzeit ausreichend sein müsste.
Auch möglich ein 320 bit interface und 10GB Vram, sodass man sich leicht von den 390er auch beim Vram absetzen kann.

Auch wenn ich mir ebenfalls HBM2 schon gewünscht hätte sehe ich das jetzt aber auch nicht als so schlimm an .
Es wäre eher technologisch interessant gewesen als das man es wohl brauchen würde dank GDDR5X.

Könnte aber sein das AMD halt HBM 1 als Test in der Fury eingebaut hat um Erfahrungen zu sammeln für ihre APU`s .
Vielleicht sehen wir ja in der nächsten Konsolen APU 4gb HBM1 eingebaut. Für die 1080p die ja jetzt nur hin und wieder knapp erreicht werden ja vollkommen ausreichend und da man ja sehr nahe API nahe programmieren kann kann man auch die Texturen so anpassen das diese auf die 4gb Speicher optimiert sind.
Selbst bei normalen Heim APUS wäre es für mich denkbar auch wenn so einen apu 200@ kostet das man hbm1 einsetzt. An Broadwell sieht man ja gut was passiert wenn die Rohleistung auf die Strasse gebracht werden kann und das nur mit nem kleinen 128mb cache.
Somit könnten so eine APU, die ja auch immer sträker werden durchaus in Berreiche einer 750 vordringen. Da müssten es eben auch nicht mal die vollen 4 Gb sein, sondern 2 Gb würden fürs erste wohl reichen .
 
Zuletzt bearbeitet:
Krautmaster schrieb:
150mm² is auch schon ordentlich wenn man bedenkt wie viele man davon in Apfelprodukten braucht.
Der wird nur im Ipad Pro verbaut, also in der Nische in der (schrumpfenden) Nische, so viele braucht Apple davon gar nicht.
 
Krautmaster schrieb:
Wie groß ist denn zb der Apple iPad Pro Chip in mm²?

Edit: Okay "nur" 104.5 mm². Gut, dass es bisher keine 400mm² 16nm Chips bei TSMC gibt ist klar. Aktuell fertigt nur Intel in ihrem vergleichbaren 14nm Prozess extrem große DIE bei Knights Landing und Broadwell.
Ersterer >700mm².

@Wadenbeisser
wirklich gute Zahlen zur Yield bekommt man leider selten. Klar ist die Defektrate bei einem 400mm² Chips exponentiell größer als bei 100mm².

Wird der Knights Landing schon gefertigt?
Wenn ja könnte der hohe Preis auch seine Wurzeln in der Chip Ausbeute haben. :D
 
Ich denke die Computing Kunden werden bereits beliefert, Testsamples gehn auch so raus. Gut, 700mm² is auch n Brett. Aber stimmt schon, bei den neuen Prozessen von TSMC und GF weiß keiner so genau wie gut sie mit der Größe skalieren. Skylake hat ~200mm² mit der GPU.
 
@Vitec: Wenn GDDR5X verwendet werden würde, bedeutet das aber auch, dass AMD im Juni/Juni keine Karten verkaufen könnte, wenn zu dem Zeitpunkt erst die Massenproduktion von GDDR5X startet.

Ich weiß auch nicht, ob es wieder klug wäre eine potenzielle 490(X) mit 12GB GDDR5(X) anbieten zu wollen, wenn der Nachfolger von der Fury(X) dann evtl. wieder nur 8GB HBM2 bekommen würde.
 
Krautmaster schrieb:
Skylake hat ~200mm² mit der GPU.
Ich glaube der einzige Skylake, der bei 200mm² liegt, ist die mythische quad core + GT4e Version. Die Massenware findet sich bei ~100 bzw ~125mm².
 
Da mache icch mir keine Sorgen den die Furys gehen auch aktuell nicht so schlecht weg, obwohl die 390 mit 8gb angeboten wird.
Die Enthusiasten wissen sehr wohl was sie bei einer HBM2 Karte erwarten dürfen auch wenn diese "nur" 8Gb Vram hätte.
Immerhin kann die Fury ja auch gut mit ihren 4Gb VRAM derzeit mithalten mit den 6gb 980ti und HBM 2 bringt ja nochmal den doppelten Speed mit sodass der Speicher noch schneller/ besser neu befüllt werden kann als bei der Fury.
Natürlich wäre 8gb hbm2 nun nicht wirklich als gut bestückt zu bezeichnen ,aber auch nicht so schlecht.
 
Zuletzt bearbeitet:
Vitec schrieb:
Natürlich wäre 8gb hbm2 nun nicht wirklich als gut bestückt zu bezeichnen ,aber auch nicht so schlecht.

Ich sehe eigentlich keinen grund auf 8GB HBM2 momentan zu setzen.
Günstiger wären sicherlich eine Mischung aus 3GB HBM1 und 6GB HBM2, je nach Preisklasse. Meines Wissens ist HBM ja auch nicht so streng ans Speicherinterface gebunden, was die Menge angeht.
 
Ich weiß garnicht, warum ihr alle auf die vollausbaustufe der chips lechzt.

Für die mehrzahl der user hier, wird die leistung der R9 490(x)/R9 480(x), oder der GTX 1080/70/(60) praktisch am interessantesten sein.
 
als laie gefragt....

ist es nicht möglich mehere Imposer auf das PCB zu setzen und damit mehr als 4 GB HBM1 Ram zu verbauen ?

mfg

P.S. Ich finde immer lustig das die Leute eine Erwartunghaltung haben 100% mehr Leistung, 90% Stromersparniss und das für 100€. Man müsste Sie fragen ob Sie jedes jahr auch so entsprechend Ihre Arbeitsleistung erbringen ^^
 
thuNDa schrieb:
Ich weiß garnicht, warum ihr alle auf die vollausbaustufe der chips lechzt.

Leistung satt ;) die Leistungsaufnahme interessiert mich da weniger.
Ergänzung ()

latexdoll schrieb:
als laie gefragt....

ist es nicht möglich mehere Imposer auf das PCB zu setzen und damit mehr als 4 GB HBM1 Ram zu verbauen ?

nein, man ist ja dennoch an das SI der GPU gebunden.
 
thuNDa schrieb:
Ich weiß garnicht, warum ihr alle auf die vollausbaustufe der chips lechzt.

Für die mehrzahl der user hier, wird die leistung der R9 490(x)/R9 480(x), oder der GTX 1080/70/(60) praktisch am interessantesten sein.

Kommt drauf an von welcher Karte aus man aufrüsten will.
Ich hatte bis letzte Woche eine HD7970 verbaut, die lief mittlerweile nurnoch unter Volllast und war dadurch verdammt laut.
Das einzig sinnvolle Upgrade wäre eine 980ti weil die durchgängig gut 100% schneller ist, alle anderen derzeit erhältlichen Karten hätten sich nicht wirklich gelohnt.
Die ersten Versionen von P&P scheinen ja im besten Fall ähnlich schnell zu sein wie die 980ti wenn man nach den Gerüchten geht, dadurch wären die bis auf den geringeren Stromverbrauch für mich nicht wirklich interessant.
Ich hätte gern den Big Chip weil das für mich ein wirklich lohnenswertes Upgrade wäre.
Bin froh das ich meine 7970 noch für 130€ verkaufen konnte und eine praktisch geschenkte GTX 980 als Überbrückung bis zu den Big Chips nutzen kann.
 
Zuletzt bearbeitet:
thuNDa schrieb:
Ich weiß garnicht, warum ihr alle auf die vollausbaustufe der chips lechzt.

Für die mehrzahl der user hier, wird die leistung der R9 490(x)/R9 480(x), oder der GTX 1080/70/(60) praktisch am interessantesten sein.

Das heißt aber nicht, dass es User gibt, die noch mehr Leistung benötigen. Nicht jeder Kunde hat das gleiche Anforderungsprofil an ein Produkt. Und die Kunden, die bereits sind das Geld für die höchste Leistungsklasse investieren zu wollen, die interessieren sich überhaupt nicht für untere Mittelklasse Produkte wie eine 480(X) oder 1060.

Es gibt hier auch User, die erst dann ein Upgrade vollziehen, wenn die nächste Generation an GPU min. 100% mehr Leistung liefert. Und wenn letztendlich nur das Topmodell diese Erwartung erfüllen kann, dann sind automatisch alle anderen GPUs außen vor. Einfach gesagt: Das Topmodell liefert dann Qualität, die anderen Modelle nicht.
 
Das ist natürlich klar, daß die vollausbaustufen an sich, und auch speziell für leute mit viel geld:evillol: interessant sind, aber auch die mid-high karten werden schonmal die tendenz des zu erwartenden anzeigen, und letztendlich auch darüber entscheiden wie erfolgreich die gesamte generation sein wird.
 
edenjung schrieb:
Can you borrow me your Polaris 10??? .

:) ... eine neue Polaris überlege ich mir auch, wenn Hitman unter DX12 mit 60fps butterweich auf 1440p läuft (das wäre dann anhand aktueller Benchmarks in etwa mit der Leistung einer GTX 980Ti oder R9 Fury X vergleichbar bzw. leicht darüber liegend) wenn idealerweise 8GB GDDR5X verbaut sind (oder vielleicht wird die "X" Speicher-Variante, ähnlich OC, von einigen Board-Herstellern mit Aufpreis etwas später im Jahr (Herbst?) angeboten/verbaut, wer weiss?) und der Preis stimmig ist ... übrigens, "Can you lend me your Polaris" ... oder "Can I borrow your Polaris".

Abwarten werde ich aber wohl noch müssen bis 2017 (bis meine GTX 670OC ihren Soll erfüllt hat), um zu sehen wie Vega (neue Fury (Nano) Modelle mit 8GB HBM2) sich im Vergleich dazu schlagen wird, zumal die Preise mit Einführung von Vega etwas rutschen könnten.

Interessant fand ich bei der AMD Capsaicin Präsentation, die ich mir gestern Nacht angetan habe, auch, dass ewig Async Compute (oft im Zusammenhang mit DX12) erwähnt wurde und man will den technischen Vorteil gegenüber nVidia bewusst hervorheben bzw. die Gunst der Stunde wohl nutzen, zumal das ja bestenfalls bis zu 40% mehr Leistung in Spielen bringen soll, im Schnitt wohl 15 - 20%.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
weiß man was zu den Settings in Hitman?

Bisher leider noch nicht (es sei denn es gibt dazu irgendwo noch ein Interview oder kursierendes Gerücht), aber bilde Dir selber eine Meinung anhand des Clips:

https://www.youtube.com/watch?v=eFvi0Spgpls

Vielleicht kannst Du es ja nachstellen, falls Du das neue Hitman hast, auch wenn Ultra von High Settings in der gezeigten Sezne sich evt. nicht sehr stark/deutlich abheben werden.
 
hab ich nicht, sieht aber in den PCGH Videos auf Low eh fast knackiger aus als in Max lol ^^

Ich denk halt ohne Settings is sowas = 0 was Aussagekraft angeht.
 
Chismon schrieb:
:) ... eine neue Polaris überlege ich mir auch, wenn Hitman unter DX12 mit 60fps butterweich auf 1440p läuft (das wäre dann anhand aktueller Benchmarks in etwa mit der Leistung einer GTX 980Ti oder R9 Fury X vergleichbar bzw. leicht darüber liegend) wenn idealerweise 8GB GDDR5X verbaut sind (oder vielleicht wird die "X" Speicher-Variante, ähnlich OC, von einigen Board-Herstellern mit Aufpreis etwas später im Jahr (Herbst?) angeboten/verbaut, wer weiss?) und der Preis stimmig ist ... übrigens, "Can you lend me your Polaris" ... oder "Can I borrow your Polaris".

Abwarten werde ich aber wohl noch müssen bis 2017 (bis meine GTX 670OC ihren Soll erfüllt hat), um zu sehen wie Vega (neue Fury (Nano) Modelle mit 8GB HBM2) sich im Vergleich dazu schlagen wird, zumal die Preise mit Einführung von Vega etwas rutschen könnten.

Interessant fand ich bei der AMD Capsaicin Präsentation, die ich mir gestern Nacht angetan habe, auch, dass ewig Async Compute (oft im Zusammenhang mit DX12) erwähnt wurde und man will den technischen Vorteil gegenüber nVidia bewusst hervorheben bzw. die Gunst der Stunde wohl nutzen, zumal das ja bestenfalls bis zu 40% mehr Leistung in Spielen bringen soll, im Schnitt wohl 15 - 20%.

Danke für die Berichtigung. War in Eile geschriebe. Hast aber recht. Das müsste ich besser können :D
 
Zurück
Oben