News AMD Vega: „Die Shot“ sowie 64 und 56 NCUs im iMac Pro

Cyberfries schrieb:
Alleine schon dass Titan Xp 89% schneller als die GTX 1080 sein soll...

bei 4k und Full Setings in Ultra ist es nicht so abwägig bei doom. doom war aber immer schon mehr eine AMD Domöne in benchmarks. real würde ich sie vllt auf augenhöhe einstufen geschätzt. also vega vs. titan xp
 
Chismon schrieb:
Na, ich denke erste Vega Frontier Testartikel in ca. 3 Wochen dürften sehr aufschlussreich werden, ich hoffe Ihr bekommt bei CB auch eine Frontier Karte seitens AMD für einen Test gestellt, das wäre fein ;).

Die 8 Shader Engines klingen schon ziemlich vielversprechend bzgl. Tesellations- und Rasterizer-Leistungen (auch mit Blick auf die Zukunft), zumal man dann vermutlich deutlich näher an der Leistung der nVidia Pendants läge bei Effekten die spezifisch/beabsichtigt darauf setzen wie Hairworks oder andere geometriebasierende Effekte ...

das klingt in der Tat echt gut und ich hoffe auch dass du mit dem anderen Post Recht behältst. Ich hätte gern ne 16Gb Vega unter Wasser in meiner Kiste :)
Mir 2 Ghz natürlich ^^

Dass was grundlegend anders laufen muss, zeigt ja schon die Größe des Vega Chips.
 
@ComputerBase
Grammatik und Schreibung in dem Artikel sind stellenweise grauenhaft:

ComputerBase schrieb:
11 Teraflops bei FP32-Berechnungen und die doppelten 22 TFLOPs bei halbierter FP16-Genauigkeit
Es müsste FP16-Genauigkeit oder halbierte FP32-Genauigkeit heißen; so ist es falsch.

ComputerBase schrieb:
fälschlicher Weise
Richtig: fälschlicherweise

ComputerBase schrieb:
Richtig: herausgegeben

ComputerBase schrieb:
Richtig: möglicherweise

ComputerBase schrieb:
Richtig: erscheint


Nicht persönlich nehmen - es ist nur als konstruktive Kritik gedacht. Abgesehen von dem Genannten ist der Artikel gut geschrieben.
 
Chesterfield schrieb:
bei 4k und Full Setings in Ultra ist es nicht so abwägig bei doom. doom war aber immer schon mehr eine AMD Domöne in benchmarks. real würde ich sie vllt auf augenhöhe einstufen geschätzt. also vega vs. titan xp

Bei 4k und Ultra vergrößert sich der Vorsprung der Titan Xp auf die GTX 1080 von etwa 20-25% auf etwa 35-40%. Das ist meilenweit von 89% entfernt. Und das Vulkan Argument fällt raus, da beide Karten von nVidia stammen.

Und zu deinem "Leak" ein Zitat von Techspot.com:
"We've got word [...] that the Doom benchmark below was "confirmed" to be a fake a few weeks back. As with all leaked information, let alone benchmarks, their unconfirmed nature comes with the territory, but apparently this has been discarded as not credible, even for a rumor.
 
Lassen sich diese "Pro"-Karten wie die Vega (ohne 'RX') eigentlich auch zum Spielen verwenden oder fehlen da Dinge wie Pixelshader oder Ähnliches?
 
Krautmaster schrieb:
das klingt in der Tat echt gut und ich hoffe auch dass du mit dem anderen Post Recht behältst. Ich hätte gern ne 16Gb Vega unter Wasser in meiner Kiste :)
Mir 2 Ghz natürlich ^^

Dass was grundlegend anders laufen muss, zeigt ja schon die Größe des Vega Chips.

/sign, auf das hoffe/spekuliere auch auch. mal sehen was AMD abliefert.
die punkte lautstärke, wärme und verbrauch sind besonders unter wasser ja eher zweitrangig => 60fps high settings @ 4k am 50'' fernseher sind bei mir das ziel =)
 
@Strulf
Eine Radeon Pro als Spielekarte zu kaufen wird man preislich nicht rechtfertigen können.
Eine Radeon Pro WX4100 (Polaris 11) kostet laut Geizhals 292€, eine Pro WX7100 (Polaris 10) 641€
 
Chesterfield schrieb:
wenn die bisherigen gerüchte stimmen, kann und wird AMD Vega nicht nur Intel ärgern sondern auch die Grünen.

wenn es auch nur ansatzweise stimmt , dieses hier:

Anhang anzeigen 626917


dann wird das jahr 2017/2018 ein highlight für PC freaks

Naja ist halt Doom, imho genau so aussagekräftig wie Hitman oder AOTS.
Zieh da halt mal 30% von ab, das wird wohl die avg FPS in DX11-Titeln sein.
Die Auflösung kommt noch mal dazu, klar skaliert da ne Vega viel besser als Pascal.
 
Zuletzt bearbeitet:
also auch in der Variante ist der Speicher recht lahm. HBM2 wird wahrscheinlich für AMD ein großes Problem, wenn die nicht die Werte erreichen, die möglich sein sollen.

Trotzdem freue ich mich auf die Karten, da ich dann endlich vergleichen und entscheiden kann. In 3 Wochen wird bestimmt jemand die Frontier Version testen, da bin ich mir sicher.

Mir wird selbst die kleinere Vega mit 56 NCU's reichen, wenn die am Ende trotzdem ähnlich schnell sein wird. Hoffentlich werden dann im Juli-August mehr Infos angegeben.
 
@Shaddix22
Lahm ist relativ.
Vega64 mit (laut Text) 930MHz Takt ist nur knapp unterhalb den maximal möglichen 1000MHz.
Das wären immerhin 476GB/s und damit auf Augenhöhe mit 1080TI und Titan X.
Vega56 mit 800MHz und 409GB/s läge zwischen 1080 und 1080TI.
Würde also zu den Wunschgegnern passen.

Aber: Das gilt natürlich nur, wenn AMD es schafft die Bandbreite ebenso effektiv auszulasten.
GCN hat bisher immer eine ganze Ecke mehr Bandbreite benötigt.
 
@Chesterfield; Du hast das "Under NDA until May" überlesen.
Somit ist das Bild ein Fake.
 
Krautmaster schrieb:
... klingt in der Tat echt gut und ich hoffe auch dass du mit dem anderen Post Recht behältst... hätte gern ne 16Gb Vega unter Wasser in meiner Kiste :) ... was grundlegend anders laufen muss, zeigt ja schon die Größe des Vega Chips.

Ob oder wann die 16 GB kommen ist eine gute Frage, ich rechne nicht mit 16 GB vor nächstem Jahr (nVidia Volta Marktstart), denn vorher wird es AMD nicht benötigen und dürften die vermutlich deutlich teureren 8-Hi Stacks eher für den (semi-)professionellen Markt abgezweigt werden.

Des Weiteren ist dann zu bedenken, ob sich der vermutlich sehr üppige Aufpreis von 8 auf 16 GB HBM2 lohnen wird, denn durch HBCC bzw. den bis zu 512 TB Virtual Address Space (VAS) wird man wohl eher selten bis gar nicht in Schwulitäten mittel- bis langfristig geraten mit den 8 GB HBM2 (sondern eher zu wenig Rohleistung haben), wenn alles so funktionieren sollte wie angedacht (es damit dann auch ein neuer GPU-Architektur-Meilenstein würde).

Wie gut der VAS funktioniert und wie/ob dieser und die Primitive Shaders einfach von Entwicklern oder Treiberteam genutzt werden kann, wird man wohl abwarten müssen ... ein wenig sind die HBCC und Primitive Shaders "Geschichten" schon pokern und hoffen, dass die Entwickler das annehmen und vernünftig umsetzen werden, schätze ich 'mal, aber das ist ja oft so bei ganz neuen Architekturbestandteilen.

Ja, ich dachte nur an den Leistungsunterschied zwischen R9 Fury und R9 Fury X, der ja auch nicht wirklich üppig ausfällt trotz "Beschneidung" (es ist ja der gleiche Chip im Gegensatz zu GTX 1080 und GTX 1080Ti, daher sollte der Leistungsabstand kleiner ausfallen).

Ergo, ist wohl auch etwas ähnliches für die RX Vega GPUs zu erwarten, wäre meine Vermutung, zumal sich der Vollausbau (XT Chip) dann mit der GTX 1080Ti oder Titan Xp (wassergekühlt) Stock bis OC duellieren kann, wohingegen die beschnittene Version (Pro Chip) dann hoffentlich leicht oberhalb einer GTX 1080 angesiedelt ist.

Das wäre auch stimmig was evt. Preiserwartungen von AMD/RTG angeht, denn die beschnittene Version mit teurem HBM2 wird man schon noch gerne für mindestens 500 Euro anbieten wollen (für Custom-Modelle hielte ich gar 550 bis zu 600 Euro für realistisch, ähnlich wie bei den besseren bis besten GTX 1080 Modellen der nVidia Boardpartner).

Natürlich würde eine solche GPU wohl auch genau meinen Geschmack treffen :), denn eine GTX 1070 ist schon eher mager für WQHD-Downsampling mittlerweile, GTX 1080 Rohleistung sollte es - zumindest für mich - da schon mindestens sein, welche eine GTX 1170/2070 mit Sicherheit mindestens auch bieten und vermutlich sogar übertreffen wird (ob es wieder für annähernd Ti-Leistung reicht, bleibt abzuwarten ... halte es aber eher für unwahrscheinlich).

Fraglich bleibt, ob es die XT Chip (64er) Variante nur mit Wasser im Referenzdesign (à la R9 Fury X) oder auch als wahlweise luft- oder wassergekühltes Modell der AMD Boardpartner geben wird, bei der Pro Chip (56er) Variante wird letzteres mit Sicherheit der Fall sein.

2 GHz wird in 14nm - also vor den Navi GPUs - bei AMD wohl noch ein Traum bleiben, denn dann wären die GPUs wohl nicht mehr weit entfernt von kompletter 4K/UHD-Tauglichkeit (60fps bei Maximaleinstellungen in allen aktuellen und bevorstehenden Spieletiteln) und selbst kommenden Volta GPUs deutlich überlegen. Solch eine Rohleistung halte ich aber erst realistisch für den Nachfolger der Navi-GPU-Generation (hoffe mich aber in dem Punkt zu täuschen und positiv überrascht zu werden ;) ).

Leistung oberhalb der GTX 1080 für den 56er Chip macht alleine schon wegen der nahenden Volta GPUs von nVidia Sinn, denn sonst sähe man wohl ziemlich alt nach GV104 Marktstart aus und das gleiche gilt natürlich auch für den 64er Chip, der eine Anfangsleistung von GTX 1080Ti Stock bis OC Niveau (je nach Spieletitel und API) erwarten lässt, später wegen der neuen Architektur noch dazu gewinnt und sich davor setzt.

Hoffen wird, dass AMD das auch so gebacken bekommt/bekommen hat und Klein-Vega(11) sich auch mit der GTX 1160/2060 mindestens auf Augenhöhe wird messen können, zumal die ersten vollständig von Koduri designten Navi GPUs für den Konsumentenmarkt wohl nicht vor 2019 erscheinen dürften.
 
Zuletzt bearbeitet:
Ich, nur ich bin der mit dem Durchblick.

Klein Vega wird die Titan Xp in der Luft zerreißen und Vega 16 GB wird warten bis Volta kommt um dann von oben mitleidig auf Volta herab zu lächeln. :evillol:
 
AMINDIA schrieb:
Ich, nur ich bin der mit dem Durchblick.

Klein Vega wird die Titan Xp in der Luft zerreißen und Vega 16 GB wird warten bis Volta kommt um dann von oben mitleidig auf Volta herab zu lächeln. :evillol:

Offenbar gibts schon drei Varianten, und die kleine kommt auf 1070 Niveau laut Benchmarkdatenbanken. Bezweifel also, dass AMD nur ne kleine releasen wird. Denn sonst wäre alles über 1070 wieder außerhalb der Reichweite.
 
Ich hoffe wirklich, daß etwas auf Leistungsniveau der 1070 zu vergleichbaren, besser noch etwas günstigeren Preisen, kommt. Angesichts der exorbitanten Preise für HBM habe ich da aber irgendwie wenig Hoffnung. Für eine RX580 würde ich meine R9 290X sicher nicht in Rente schicken, weil es sich einfach nicht lohnen würde.
 
Gefühlt wartet man auf VEGA schon 1 Jahr oder länger ... Schade dass sie die Karten nicht früher ready bekommen haben!
Spannend wirds trotzdem
 
Cyberfries schrieb:
@Shaddix22
Lahm ist relativ.
Vega64 mit (laut Text) 930MHz Takt ist nur knapp unterhalb den maximal möglichen 1000MHz.
Das wären immerhin 476GB/s und damit auf Augenhöhe mit 1080TI und Titan X.
Vega56 mit 800MHz und 409GB/s läge zwischen 1080 und 1080TI.
Würde also zu den Wunschgegnern passen.

Aber: Das gilt natürlich nur, wenn AMD es schafft die Bandbreite ebenso effektiv auszulasten.
GCN hat bisher immer eine ganze Ecke mehr Bandbreite benötigt.
OK stimmt, lahm ist das falsche Wort dafür ^^
 
etoo schrieb:
Gefühlt wartet man auf VEGA schon 1 Jahr oder länger ... Schade dass sie die Karten nicht früher ready bekommen haben!
Spannend wirds trotzdem

HBM2 sei Dank.. Da muss man eben klar sagen: AMD hat aufs falsche Pferd gesetzt
Aber wenn ich hier lese AMD muss billiger sein.. Nene wenn AMd die gleiche Leistung bringt und 10% günstiger in der UVP ist, ist das auch völlig ok.. Ich tippe Vega Pro zwischen 1070 und 1080 und Vega 10 Full knapp über 1080Ti
Die GPGPU Leistung ist aber nett, was AMD gezeigt hat.. Da werden die Miner sich freuen
 
Chismon schrieb:
Ob oder wann die 16 GB kommen ist eine gute Frage, ich rechne nicht mit 16 GB vor nächstem Jahr (nVidia Volta Marktstart), denn vorher wird es AMD nicht benötigen und dürften die vermutlich deutlich teureren 8-Hi Stacks eher für den (semi-)professionellen Markt abgezweigt werden.

Apple wirbt im iMac Pro ja mit ner 16GB und 8 GB Variante, letztere = Cut. Schön wäre wenn AMD auch so in den Desktop Markt startet. Man würde sich dabei vielleicht die Marge versauen aber 16 zu 11 GB (1080 TI) gäbe wohl einen Marketing Vorteil der nicht zu unterschätzen ist. Besser als 8Gb die man schon bei der R9 390 hatte und aktuell <300€ Karten ebenfalls mit 8GB daherkommen.

HBM2 dürfte dann ja auch so mit der Zeit im Preis fallen.
 
Krautmaster schrieb:
Apple wirbt im iMac Pro ja mit ner 16GB und 8 GB Variante, letztere = Cut. Schön wäre wenn AMD auch so in den Desktop Markt startet ... vielleicht die Marge versauen aber 16 zu 11 GB (1080 TI) gäbe wohl einen Marketing Vorteil der nicht zu unterschätzen ist. Besser als 8Gb die man schon bei der R9 390 hatte und aktuell <300€ Karten ebenfalls mit 8GB daherkommen. HBM2 dürfte dann ja auch so mit der Zeit im Preis fallen.

Vielleicht wird das dann ja die RX Vega in der wassergekühlten Limited Edition von der schon gemunkelt wurde :).

Dass eine solche spätestens zum Volta Marktstart aufschlagen sollte, halte ich auch für erforderlich, aber wenn HBCC/HBM2/VAS wirklich gut funktionieren sollten, dann halte die 16 GB für "nice to have" aber evt. auch "overkill".

Außerdem, wie groß wird der Markt wohl sein für solche 16 GB HBM2 Modelle abseits der Enthusiasten, die im CB Forum und anderen vergleichbaren Foren unterwegs sind (?) ... vermutlich sehr überschaubar .... daher würde so eine Limited Edition (die evt. auch für Sammler interessant werden könnte) sicherlich passen, aber im großen Stil und nur für geringeren Aufpreis auf Kosten der Marge, glaube ich eher nicht daran.

AMD kann mit 16 GB HBM2 dann locker 1200+ Euro verlangen, auch im Hinblick auf den aktuellen Preis einer Titan Xp mit "nur" 12 GB GDDR5X und wärst Du bereit soviel Geld dafür hinzublättern nur des Speichers wegen (den Du vielleicht - auch wegen HBCC - niemals komplett ausreizen wirst)?

Klar, wenn man sich jetzt bspw. eine Maxwell Titan wie bei Kasmopaya anschaut, hat die zwar immer noch reichlich (eben 12 GB) Speicher, aber mehr als Full-HD mit 60+fps oder WQHD bei 30+fps kann man mit der GPU schon länger in vielen Toptiteln nicht mehr reißen.

Deswegen lohnt sich m.E. für Enthusiasten-GPUs auch soviel Speicher i.d.R. nicht (es sei denn man setzt auf SLI/CF/MultiGPU und das erreichen von Spielbarkeit/Spielerlebnissen, die man per Single GPU nicht bekommt ... etwa bei Spielen in 8K), weil man als "wahrer" Early Adopter oder Enthusiast oft (im Vergleich zu Ober- oder Mittelklasse-GPU-Käufern) nicht bereit ist solche Abstriche dann zu machen und spätestens nach 3 Jahren auf eine neue GPU wechseln wird ;).

So gesehen war der bis heute meist ungenutzte/überschüssige Speicher bei der Maxwell Titan sogar (teurer) Overkill für die "echten" Early Adopter und Enthusiasten und man wäre mit einer GTX 980Ti und danach GTX 1080Ti um Klassen besser und günstiger gefahren als mit einer Titankarte.

Das wird wohl auch so bleiben, zumal die Titan-Serie ja auch nicht mehr wirklich primär an Spieler gerichtet ist, auch wenn man die HardCore-Early Adopter und -Enthusiasten trotzdem gerne noch bei großer Marge mitnimmt bei nVidia ;).

Mit Sicherheit wird die RX Vega GPU in welcher Ausführung auch immer (wie auch das kommende Volta Topmodell) nicht durch die Bank 60fps in Maximaleinstellungen unter 4K/UHD stemmen können, somit nur 4K/UHD-fähig (30+fps) aber nicht komplett 4K/UHD-tauglich (60+fps) sein.

Allerdings vermute ich, das AMD wieder mit einer Dual GPU auf den Markt kommen wird (analog zu einer Dual CF RX Vega), die dann vermutlich das fast packen könnte bei guter Multi-GPU-/CF-Unterstützung von Entwicklern in anspruchsvollen AAA Spielen.

So eine Dual GPU dürfte höchstwahrscheinlich mit 2x 8 GB HBM2 kommen ... bei der Single GPU habe ich zumindest anfangs im Referenzdesign noch Zweifel und wenn doch, dürfte der Aufpreis schon gehörig sein.

Die beschnittene Variante wird sehr wahrscheinlich überhaupt nicht mit 16 GB auf den Markt kommen, davon gehe ich auch aus.

Ich kann Deinen Ansatz zwar verstehen aus Marketingsicht, aber wenn AMD sich einigermaßen clever mit dem HBCC Marketing anstellt (vielleicht gibt es sogar noch eine RX Vega 4 GB HBM2 "Billig"-Variante nur um HBCC direkt vorzuführen?), dann dürften die 8GB HBM2 ja äquivalent zu mindestens vollen 12 GB bei älteren GPU-Architekturen/GDDR5(X) Speicher sein (natürlich davon ausgehend, dass die Technik so funktioniert wie angepriesen) und vermutlich sogar 16GB bei min. fps, auch wenn das momentan nicht bewiesen werden könnte.

HardCore nVidia Fans/Gläubige wird man auch mit 16 GB nicht abrufen können, da kann die GPU noch so toll sein und es ist ja nicht so, dass RX Vega die Titan Xp (wassergekühlt und OC) mit 30% Mehrleistung "begraben" wird, so dass auch die marken-vorurteilsbehafteten Leute darauf anspringen könnten ;).

Ja, wenn die Klein-Vega GPUs auch alle Billig"-HBM2 (geringerer Bandbreite) erhalten sollten und sich wie erwartet die Fertigung bei SK Hynix und Samsung weiter entwickelt, dann dürfte HBM2 im kommenden Jahr im Preis deutlich sinken, zumal Ende 2018 ja schon mit der ersten 7nm Navi-GPU bestückt mit HBM3 für den professionellen Markt zu rechnen ist (zumindest ist die Planung bei AMD/RTG so angedacht).

Gut möglich, dass erste RX Vega Mittelklassekarten auch nur maximal mit 8 GB HBM2 kommen werden, wenn HBCC optimal funktioniert, dürften sogar 4GB HBM2 für die meisten ausreichen zu deutlich niedrigeren Preisen.
 
Zuletzt bearbeitet:
Zurück
Oben