News Radeon Vega Frontier Edition: Platine mit 484 mm² großer Vega-10-GPU enthüllt

Vega hat die FP16 fähigen Kerne mit an board fürs deep learning im Gegensatz zur GP102 von der 1080ti was den Größenunterschied erklären dürfte ohne dabei mehr Leistung zu bringen bei reiner grafikberechnung (mal abgesehn von den treibern).

Der Die steht was die Komplexität an geht also eher mit GP100 und GV100 in Konkurenz welche aber beide aus gutem Grund nicht in Consumer Karten vorkommen da mit GP102 eine deutlich günstigere Alternative zur verfügung steht.
 
Zuletzt bearbeitet:
@pipip

ich denke es ist eher das Gegenteil der Fall, dass eine gesplittete GPU deutlich schwerer umzusetzen ist als bei CPU. Die Arbeit die da abläuft ist noch weit weniger granular / Shader, zudem die hohe Bandbreite. Aber da bin weder ich noch zu vermutlich technisch nah genug dran um das abschätzen zu können.

Wäre es einfach aus 2 GPU Die quasi eine zu machen hätte man das ggf schon längst mal gesehen.

@Steeeep

With their latest architecture, AMD is now able to handle a pair of FP16 operations inside a single FP32 ALU. This is similar to what NVIDIA has done with their high-end Pascal GP100 GPU (and Tegra X1 SoC), which allows for potentially massive improvements in FP16 throughput. If a pair of instructions are compatible – and by compatible, vendors usually mean instruction-type identical – then those instructions can be packed together on a single FP32 ALU, increasing the number of lower-precision operations that can be performed in a single clock cycle.This is an extension of AMD’s FP16 support in GCN 1.2 & GCN 4, where the company supported FP16 data types for the memory/register space savings, but FP16 operations themselves were processed no faster than FP32 operations.
So while there is some long-term potential here for Vega’s fast FP16 math to become relevant for gaming, at the moment it wouldn’t do anything. Vega will almost certainly live and die in the gaming space based on its FP32 performance.
http://www.anandtech.com/show/11002/the-amd-vega-gpu-architecture-teaser/2

du meinst das oder? Hm, okay, kann auch die Größe erklären. Die Frage ist ob es sich für AMD vielleicht auch mal wie bei Nvidia Lohnt einen eigenen HPC und eigenen Gaming Chip zu bringen.
 
Zuletzt bearbeitet:
Das ist keine "Kupfer-kontacktfläche", das ist ne Varpochamber.

imho.
zeigt der Kühler grandios wo eines der größten Probleme liegt, viel zu wenig Masse und Kühlfläche, da helfen auch 4900rpm nicht bei 300W.:lol:

Ich denke mal durch die DIE-Size wird da ca. die 1080Ti Leistung bei rum kommen mit RX Vega, in DX11 etwas weniger, DX12/Vulkan das übliche.
In 4K gehe ich auch mal von aus das da mehr min. FPS kommen.
Ich für meinen teil glaube nicht das über 200mm² des chips nutzlos für Gamer sind, sicher aber auch nicht die ganzen 564mm² in Leistung umgesetzt werden.

Der AiO RX Vega wird wohl hoffentlich mit einer ca. so großen Platine wie Fiji kommen.

@yummycandy
Der Träger ich wohl eine Art Infinty Fabric , das wo die 3 DIEs draus Stizen, diese sind miteinander verbunden, nichts mehr.
Es ist zu vermuten das die verwendete Technik die selbe ist wie bei Epyc und Threadripper, da auch APUs kommen werden.
Es würde mich nicht wundern wenn AMD gegen GV100 einfach zwei Vega10/20 mit effizientem Takt auf einem IF-Träger stellt und nicht erst mit Navi, have fun Nvidia.
 
Zuletzt bearbeitet von einem Moderator:
@Shrimpy,

nicht nur MultiGPU, sondern auch gemischt. Mich interessiert daran, ob selbst Desktopableger schon von IF profitieren. Das wäre ja HSA auf Systemebene :D

Infinity Fabric allows us to join different engines together on a die much easier than before. As well it enables some really low latency and high-bandwidth interconnects. This is important to tie together our different IPs (and partner IPs) together efficiently and quickly.

It forms the basis of all of our future ASIC designs.

We haven't mentioned any multi-GPU designs on a single ASIC like Epyc, but the capability is possible with Infinity Fabric.
 
Jetzt bei DIESER Graka, nein, bei Vega FE /RX dient es einzig den Speicher an die GPU zu "klemmen".
Bei Zwei GPU DIEs auf IF wäre das auch kein mGPU wie von DX12 oder gar das ranzige CF/SLI gefrickel sondern wirklich nur eine.
Bei Epyc hat man auch nur eine CPU und nicht vier.

Und ja da es APUs mit Vega geben soll gehe ich davon aus das da 3 DIEs auf einem IF Träger sitzen werden, Zeppelin/Vega(20 maybe?)/HBM2.
IF ist wohl auch der Hauptgrund wieso AMD ums verrecken an HBM fest hält, trotz der miesen ausbeute derzeit.
 
Zuletzt bearbeitet von einem Moderator:
Wenn VEGA10 aber schon >550mm^2 ist, dann wirds noch dauern, ehe 2 GPUs auf einem Interposer kommen, oder? Maximal für HPC könnte ich mir das jetzt vorstellen. Mit VEGA11 könnte das aber schon funktionieren.
 
Muss nicht, GV100 wird auch selten sein.
Und selbst wenn die HPC 2xVega10 Version die hälfte von einem GV100 Kosten, wird da wohl mehr Marge drin sein als bei zwei Vega-Fe geschweige denn RX Vega.
Ich glaube eher das HBM2 seltener ist als ne Vega10 DIE...
Auch müssten die nicht mit 1600MHz laufen, da wäre schon der Effizienz willen weniger besser.

EDIT:
Ich hab aber keinen schimmer wie das Interface/Link bei Zeppelin zu IF ausschaut und ob der derzeitige Vega10 sowas überhaupt hat.
Das da ein HBM SI durch geht bedeutet nicht das zwei Vega10 DIEs kommunizieren können.


meine Glaskugel glüht grade. :evillol:
Bitte dran denken das das nur mein Gedankengang ist. xD
 
Zuletzt bearbeitet von einem Moderator:
C4rp3di3m schrieb:
Sind diese "hohen" Chips um den GPU die HBMs? sehen Lustig aus so dicke Brummer, das kommt von der Stabelung oder?
16GB sind schon schön :)

mfg

Was meinst du genau?
Das gelbe ist die GPU, das rote die zwei HBM Speicher und das blaue sind Spulen.

DSC03536 copy.jpg
 
yummycandy schrieb:
Hat eigentlich jemand von euch verstanden, was genau VEGA mit Infinity Fabric macht? Kommuniziert die GPU dann über PCIe mit einer AMD CPU?

https://www.overclock3d.net/news/gp...ega_utilises_their_new_infinity_fabric_tech/1

Das sind alles Low Voltage Differential Signals (LVDS) die eben je nach Protokoll anders arbeiten. Also kann man grundsätzlich ein PHY für mehrere Funktionen nutzen. In deinem Beispiel also statt PCIE per IF (wie zum Beispiel auf der spekulierten APU mit Ryzen+Vega). Auf kurze Distanz bekommt man da abartig hohe Frequenzen und Bandbreiten zu stande.
NVIDIAs NVLINK ist im Grunde auch einem PCIE oder Open CAPI PHY gleich (weshalb die auch kompatibel sind). Beantwortet das deine Frage ausreichend? :)
 
Viel interessanter fürs Gaming wären Polaris GPUs mit IF verbunden da bekommst dann auch locker 4 Dies auf den gleichen Interposer wie der von Vega.
Die sind deutlich günstiger herzustellen und liefern mehr Leistung pro mm²
 
@hüble,

das IF ein Protokoll ist, welches über verschiedene Signalträger arbeiten kann, war mir klar. Ich wußte nur nicht, ob das auch bei Desktopmodellen funktioniert.
Vielen Dank für die Antwort! :)
Ergänzung ()

@Steeep,

Polaris dürfte noch nicht mit IF umgehen können. Da wird wohl weiterhin ein PLX notwendig sein.
 
Steeeep schrieb:
Viel interessanter fürs Gaming wären Polaris GPUs mit IF verbunden da bekommst dann auch locker 4 Dies auf den gleichen Interposer wie der von Vega.
Die sind deutlich günstiger herzustellen und liefern mehr Leistung pro mm²

Die Idee kannst du mal schön vergessen. Klassisches SLI will keiner und für die Übertragung von Daten+Befehlen ist auch IF im Grafikbereich viel zu langsam. MCM geistert seit R600 durch die Blätter. Mit dem Interposer für HBM ist man zwar ein gutes Stück näher dran aber ohne Beschränkung auf die allernötigste Kommunikation wird das nichts.

PS: Herstellungskosten und Leistung pro mm² sind doch noch vollkommen unbekannt.
 
Zuletzt bearbeitet:
Würde ich nicht unbedingt sagen da es schon länger so ausschaut als wenn es spätestens mit Navi vom AMD umgesetzt werden soll, bzw. will.
 
Krautmaster schrieb:
@pipip

du meinst also zb sowas wie einen 7nm 200mm² GPU standard Die mit zB 3000 Shadern + 1 HBM Stack? Und diesen dann wie bei Ryzen -> Epyc also Multi Chip aufgelegt.
Puh, glaub ich ehrlich gesagt kaum da GPU hier doch etwas anders ticken als bei CPU.
Genau DAS soll aber passieren.. AMD möchte Skalierbare GPUs, das wird bedeuten die GPUs werden nicht mehr Klassisch sein bei AMD sondern via Fabric anbindbar. Die große Frage dürfte hier aber sein, ob man damit die HPC und Deep Learning Sparte zufrieden stellen kann, denn der Spielecode ist ja mehr oder weniger leicht auszuführen, wenn auch nicht effizient. Und ein Navi Modul mit 50W TDP wäre schon nett, so könnte man eben "mehr Modul GPUs" bringen, die wie CF agieren, nur eben ohne die Nachteile.
Man müsste ja nichtmal HBM anflanschen, das Huma könnte man ein HBM Modul zwischensetzen und alle Einheiten würden darauf zugreifen. Hier benötigt man aber dann eben einen Compiler, der das alles gebacken bekommt
 
Zurück
Oben