Bericht AMD Radeon: Vega-GPU mit neuen Shadern, höherer IPC und HBM2

BF1 lief ja auch gut auf dem Vorführungsmodell. Die Frage ist ob für die 2x IPC massive Optimierung nötig ist und ob falls diese nicht durchgeführt wird, der Titel wie auf üblichen 4096 GCN Shader rennt.

Laut Folien wurde die Architektur auch eher auf mehr Takt ausgelegt, also kann man denk ich mit etwa 1400 bis 1500 MHz schon rechnen.

Man liest oft 4096 Shader aber so wirklich ne Quelle dafür gibt's kaum. 2x IPC bei klassischem GCN wurde ja 8k Shader verlangen was dann etwa der gezeigten Chipgröße entsprechen würde. Vielleicht sind es aber wirklich nun größere Shader Einheiten die als 2er Cluster fungieren.
Ergänzung ()

@Chrismon
"Kepler ausbremsen bkabka" klingt für mich immer nach Aluhutträger, sry. Maxwell hat wohl was bahnbrechendes geändert, das Rastering.
http://www.anandtech.com/show/10536/nvidia-maxwell-tile-rasterization-analysis

Das wurde nie so kommuniziert aber es schlägt wohl voll durch, anders ist die massiv gesteigerte Leistung bei gleiche Fertigung kaum erklärbar.
Kepler wurde nicht langsamer. Schon garnicht bewusst langsam geschraubt wie einem manch einer weismachen will. Schon damals war Tahiti und Hawaii was Rohleistung und entsprechend auch Verbrauch angeht weit vorn... Hätte wenn AMD schon damals ihre Treiber optimiert gehabt hätte auch gut vorlegen können/ müssen. Es trat das typische Nachoptimieren ein, AMD Karten wurden schneller, NVidias Kepler in Relation langsamer und fertig war das Aluhutträger "Ausbremsen Gerücht".

Sry, aber davon halte ich ganz unabh ob sowas AMD oder Nvidia vorgeworfen wird einfach wenig bis nichts.
 
Zuletzt bearbeitet:
HoniQKekzZ schrieb:
Wären ja dann von der TITAN XP rund 20 FPS mehr. Klingt ja gut für NVIDIA und schlecht für AMD.

Naja mal ganz im ernst.
AMD hat ja meist nichtmal zu release die Treiber komplett fertig.
Und das bei GPUs die alle die selben Alus nutzten.
Bei Vega mit NCUs wo der Treiber neu programmiert werden muss würde ich monate vor release keinen performanten Treiber erwarten.
Ich denke das auch zu release nicht das volle Potentiall ausgenutzt wird.
Ich denke es wird wie bei GCN und Tahiti enden.
 
Also wieder nichts Neues von AMD :rolleyes: .

Ob es bist zur Cebit etwas wird? Liegt ja im ersten Halbjahr :rolleyes:.
 
han123 schrieb:
Wird bestimmt eine schöne Karte zum Rendern. Geld liegt schon lange bereit. Dank AMD xD

Is bei mir auch schon eingeplant. Was mich noch immer bei AMD nervt sind die Treiber. Der Crimson war fehlerbehaftet, und der ganz neue Treiber ist noch schlimmer. Man sollte nicht so mit Features um sich schmeissen, die man dann nie richtig implementiert - lieber weniger Umfang, dafür alles ordentlich umgesetzt. Aber sonst war ich mit allen meinen AMD Karten seit der HD3870 immer super zufrieden.

An alle die, die wegen dem Launch Date jammern: es ist schon länger bekannt, dass die Karte erst 2017 kommen soll. Is ja auch nicht so, dass grad ein Game ala Crysis 1 draussen ist, das die beste Grafikkarte im SLI/CF erfordert, um es ordentlich spielen zu können - wer auf AMD steht, ist mit einer 390 oder 480 oder Fury noch immer bestens für jedes aktuelle Spiel gerüstet.
 
Krautmaster schrieb:
"Kepler ausbremsen bkabka" klingt für mich immer nach Aluhutträger, sry. Maxwell hat wohl was bahnbrechendes geändert, das Rastering.
http://www.anandtech.com/show/10536/nvidia-maxwell-tile-rasterization-analysis.

Ich bestreite nicht, dass nVidia von Kepler zu Maxwell innovativer war als von Maxwell zu Pascal bspw., aber m.M.n. war der Schritt von Fermi/Thermi zu Kepler der innovatiste/größte in der 28 nm Fertigung (weswegen ich mich auch damals für nVidia entschieden habe, denn eine Fermi/Thermi Karte hätte ich mir nie geholt).

Ersichtlich ist die Manipulation ganz eindeutig beim Vergleich einer GTX 960 die über einer 780(Ti) lag, nachdem die "Treiberanpassung" von nVidia eingesetzt wurde und somit ganz klar im Sinne eines besseren Verkaufs von Maxwell die Leistung manipuliert wurde. Das kann man auch nicht schön reden, denn das zog sich damals durch die nVidia Foren und wurde in Test-Seiten/Artikeln (z.B. hier oder hier / Bench) thematisiert und trotzdem und trotz des GTX 970 Speicherbetrugs haben sich genug Lemminge/Fanboys gefunden, die diese Politik noch gutgeheißen haben ... einfach nur traurig, sorry.

Das hat mir jedenfalls gereicht, auch wenn meine GTX 670 OC damals und nach wie vor keine Fehlentscheidung war bzw. andere viel mehr durch den Kakao gezogen worden sind als meiner einer - auch vielleicht deswegen, da ich weniger GPU intensive Spiele (kaum Ego-Shooter, mehr klassische RPGs und Rundenstrategie) spiele - aber das ändert nichts an Prinzip/Tatbestand/Praxis, woraus ich zumindest eine Konsequenz ziehe und weder Maxwell noch Pascal für mich in Frage kamen/kommen, sondern vermutlich Vega kommen wird (auch weil Polaris mir nicht die erste vollwertig innovative Architektur in 14/16nm bietet und meine Karte noch läuft).

Als Kunde sollte man König sein und (zumindest noch) nicht Bittsteller von nVidia ;).
 
Zuletzt bearbeitet:
Lumi25 schrieb:
Also wieder nichts Neues von AMD :rolleyes: .

Ob es bist zur Cebit etwas wird? Liegt ja im ersten Halbjahr :rolleyes:.

Ich denke mal eher Computex im Mai. Das ist so ein typischer Event, wo sowohl AMD als auch nVidia schon mal gerne ihre Produkte dann offiziell vorgestellt haben. Vielleicht für die Gaming-Variante von Vega sogar ein E3 Event. Die findet allerdings erst im Juni statt.
 
zeedy schrieb:
Gehst du etwa davon aus, dass 14 nm tatsächlich 14 nm sind? Also die Hälfte von 28 nm? :lol:
Es ist doch schon längst bekannt, dass das reine Marketingzahlen sind. Wenn ich mich nicht täusche ist das 20 nm FinFet..
Das sind keine Markeingzahlen. Das sind eigentlich Zahlen, die nicht für den Endverbraucher bestimmt sind, denn nur Physiker/Elektroniker und Berufsverwandte wissen was dies Zahl ausdrückt:
Es ist (ziemlich genau) die Länge des Source/Drain Kanals. Hier in grün
Doublegate_FinFET.PNG
Mit der Länge ist nicht die Distanz von Source (unten) nach Drain (oben) gemeint, sondern das Stück unter dem Gate (von links nach rechts. Es sit quasi die kleinste Struktur des 'Bauteils' Transistor.

Deswegen haut Krautmasters Rechnung auch nicht hin. Nur weil die kleinste Struktur halbiert wurde, heisst das nicht, daß der ganze Transitor um 50% geschrumft wurde


Krautmaster schrieb:
Junge, wie wenig Ahnung du hast zeigt gut wie du Faktor 2 gleichsetzt mit einer Skalierung 28->14nm. Denk ins Quadrat. (28*28)/(14*14) = 784/196 = 4, was logisch ist da 2 im Quadrat 4 ist. Ergo würde ein perfekter 14nm Prozess sogar 4x so viele Transistoren in dieselbe Fläche quetschen. Tut er nicht, aber beim aktuellen 14/16 nm Prozess sind es dennoch ~ Faktor 2.
Denk nicht mahtematisch, sondern Physikalisch ;)


PS: Die Grafik ist zur Veranschaulichung, und nicht maßstabsgetreu.

PS2: Diese ist besser. Unten links, das kleine, grüne ist aktuell 14/16nm groß.
Bildschirmfoto_2017-01-06_01-35-30.png
 
Zuletzt bearbeitet:
"Vega bringt viel neues mit unbekanntem Ergebnis"
Diese Überschrift des Fazits fasst die Problematik halbwegs zusammen. Dass es einige Veränderungen geben wird, war immer klar. Nur sind wir heute immer noch nicht schlauer als gestern. AMD lässt das Entscheidende weiterhin offen:
1. 8GB oder 16GB im Preisbereich bis 700€?
2. In welcher Preislage wird Vega denn liegen?
3. Wann werden die Karten im Handel sein?
4. Wie viele Varianten wird es geben?
5. Wie hoch wird die Leistung(-ssteigerung ggü. Fury X) sein, welche Karte von Nvidia will man denn angreifen?

Allein schon dass im Januar 2017 immer noch von 1. Jahreshälfte gesprochen wird zeigt, dass es im Idealfall März wird, eher später. Wenn die Karte im Mai im Laden steht, dann hat Nvidia bereits 1 Jahr(!) saftig mit der GTX1080 verdient und wird mit der 1080Ti nachlegen.

Die ganzen technischen Details bringen nichts ohne brauchbaren Hinweis auf die Leistung in der Praxis. Wenn am Treiber so viel optimiert werden muss, was passiert dann mit DX11? Wird das links liegen gelassen um sich auf Vulkan und DX12 zu konzentrieren, deren Marktanteil extrem gering ist und auch gering bleiben wird?

Aber wenigstens wissen wir weshalb Nvidia heute keine 1080Ti präsentiert hat: AMD hat heute auch keine Karte präsentiert. Diesen Trumpf hebt sich Nvidia für die eigentliche Präsentation auf.
AMDs Verschwiegenheit zeigt deren Unsicherheit. Es ist mehr denn je zu befürchten, dass Vega nicht das liefern kann was erwartet wird.
 
Interessant finde ich es Nvidia gerade abzieht.
Meine GTX 780 hat 7,1 Mrd Transistoren auf 561 mm^2
Eine 1080 hat 7,2 Mrd Transistoren auf 314 mm^2.
Gleiche Transistoren, halbe Fläche, halbe Produktionskosten. Und beide werden/würden für 600€ verkauft
 
Für den Kunden ist halt nur die Leistung relevant und nicht die Chipfläche. Dennoch interessant, dass man die Rechenleistung so stark steigern konnte, bei gleichbleibender Anzahl an Transistoren. Teilweise lässt sich das durch den höheren Takt erklären, aber die IPC wurden auch kräftig gesteigert.
 
Gandalf2210 schrieb:
Interessant finde ich es Nvidia gerade abzieht.
Meine GTX 780 hat 7,1 Mrd Transistoren auf 561 mm^2
Eine 1080 hat 7,2 Mrd Transistoren auf 314 mm^2.
Gleiche Transistoren, halbe Fläche, halbe Produktionskosten. Und beide werden/würden für 600€ verkauft
Naja, da kommt halt alles zusammen. Zu zahlst halt für die Technologie und die Konkurrenzlosigkeit. Würde es eine AMD 490 mit etwa derselben Leistung für 400€ geben würdest du auch keine 600€ zahlen. Würde die AMD auch 600€ kosten, dann würdest du auch 600€ zahlen.
Es zählt halt nur die Leistung. Und die stimmt halt.
 
Die IPC der ALUs zwischen Maxwell und Pascal ist beinahe identisch. Lediglich durch andere Optimierungen wie bessere Delta-Color-Compression, besserer IMC und kleinen Anpassungen an Front- (Dispatcher, Scheduler) wie auch Backend (ROPs) kommt pro Takt mehr heraus.
Was AMD hier Architecture details nennt, ist für mich allenfalls eine Broschüre die auch von NVIDIA hätte stammen können. :rolleyes: Wirft mehr Fragen auf, als beantwortet werden. Fail AMD! Hoffentlich wird das Produkt umso besser, nicht so Fiji2...
 
Zuletzt bearbeitet:
@IDukeI

bei ca 0:31 ist aber ein heftiger Framedrop.... von den 92 -105 fps teils runter auf 64 fps.

@ oldmanhunting

Nvidia wollte was ganz großes bringen am 5.1., ich kann leider ausser Shield und Gsyn HDR, weit und breit keine 1080ti sehen. Wenn ich die Kommentare hier lesen, haben viele hier in der Glaskugel geschaut und die 1080ti für heute erwartet. Hier bauen die Leute sich selber den Shitstorm/Hypertrain auf ;-)
 
IDukeI schrieb:
Habe mich mal an einem Testvergleichsvideo mit der Pascal X (StandardLukü) probiert
HoniQKekzZ schrieb:
Wären ja dann von der TITAN XP rund 20 FPS mehr. Klingt ja gut für NVIDIA und schlecht für AMD.
Häh? Vega 10 liegt bereits leicht unter Titan X (Pascal) Niveau - und das mit Alpha-Treibern.

Bg5CCoF.png
 

Anhänge

  • Bg5CCoF.png
    Bg5CCoF.png
    116,9 KB · Aufrufe: 449
Turrican101 schrieb:
1. Halbjahr 2017?

Und an dieser Info ist was neu?


Ich kanns nicht mehr lesen: "Viel zu lang, kaufe ich jetzt Nvidia". Bist der zwanzigste, der das schreibt.
Meine Meinung: entweder seid ihr alle schrecklich uninformiert (1. HJ 17 steht schon lange fest) oder ihr trollt alle nur hart. Ich tippe auf zweiteres.
 
Halbe Produktionskosten in einem teuren neuen 14nm Verfahren?
typischer Gedankenfehler.....
Jede Generation ist neu wenn nicht gerade ein Refresh und somit mit Kosten eines neuen Verfahrens verbunden! Das war damals bei den Wechseln der Serie das gleiche wie heute.
Es ist also falsch, dass man hier einen Aufschlag einrechnet für das 14nm Verfahren!
Zudem kann man ja auch sehr gut sehen, wie die Gewinne bei nVidia im letzten Jahr explodiert sind trotz diesem neuem Verfahren, hier in 16nm!
 
Der Gedankenfehler liegt eher bei dir. Die Fertigungen werden immer komplexer.
Es geht hier nicht um Kosten die bei jedem neuen Verfahren entstehen (R&D, Equipment, anfangs schlechte yield) sondern um Kosten die durch zusätzliche oder aufwändigere Prozessschritte entstehen.
Dadurch bekommst du in der gleichen Zeit weniger Wafer bearbeitet. Bei gleicher Die Größe, ist der Output also niedriger und somit würde natürlich teurer.
Nur haben die Endkundenpreise wiederum nicht all zu viel mit den Herstellkosten zu tun. Nvidia könnte auch ne 1080 für 300€ noch mit ordentlich Gewinn verkaufen. Aber warum? Die Marktanteile sind auch bei den hohen Preisen sehr hoch.
AMD muss mal wieder den Arsch hoch kriegen.
 
bensen schrieb:
AMD muss mal wieder den Arsch hoch kriegen.

Als GTX 1070/1080 raus kam haben sich noch alle gewundert "wo bleiben denn die AMD High End Karten?", dann hieß es immer " die kommen zum Jahresende'. Jetzt ist Anfang nächsten Jahres und es gibt nicht mal Benchmarks zu den Karten. Irgendwann zwischen den GTX 1070/1080 Veröffentlichungen und heute hieß es Q1 2017 ist Veröffentlichung, daraus wurde dann ein H1 Termin, in meinen Augen hat AMD gegenüber den Kunden nie mit offenen Karten gespielt sondern sie an der Nase rumgeführt, ich kann mich zumindest daran erinnern, dass als GTX 1070/1080 rauskam nie die Rede davon war, dass Vega erst ein komplettes Jahr später kommen sollte. Es kündigt sich ja geradezu an, dass die AMD's Leistungskrone im etwa die Performance einer GTX 1080 haben wird, weil AMD ein Jahr hinterher hinkt. Ich lasse mich gerne eines besseren belehren, aber dann wieder: wann hat AMD das letzte Mal wirklich positiv überrascht? Das ist mittlerweile ewig her. Über den CPU Bereich braucht man gar nicht erst reden. Auch im GPU Bereich gab es nur ewige Neuauflagen der alten Chips und die einzige Neuentwicklung (Fury Reihe) entpuppte sich als Speicherkrüppel. Wer jetzt noch ernsthaft große Hoffnungen auf einen hervorragenden Produktstart legt muss zwangsläufig bitter enttäuscht werden. Wenn AMD ihren GTX 1080 Counterpart dann irgendwann dieses Jahr doch nochmal veröffentlichen sollten, haut nvidia die GTX 1080Ti raus und senkt den Preis der GTX 1080 um 100€, dann steht AMD wieder blöd da. Merkt euch meine Worte^^
 
Zurück
Oben