News AMD-GPU: Vega 20 erscheint in 7 nm mit 32 GB HBM2 noch dieses Jahr

"Vega eben eine Allroundkarte ist"
Die Karte mit den ganzen professionellen Features ist die kommende Vega 20.
Vega 10 ist dagegen doch deutlich abgespeckt.

"Und dafür schlägt sie sich ganz gut"
Ich finde dass Vega sich erschütternd schlecht schlägt aus obengenannten gründen.

"Und ja eine Vega Karte die eben jene 54% mehr Hardwareaufwand besitzt kostet 70€ mehr als das Geforce Pendant. Richtig gemein."
Wie schnell sich die Argumentation doch wandelt, von:
'Bei AMD bekomme ich mehr Leistung fürs Geld'
zu:
'Bei AMD bekomme ich mehr Chipfläche'
dolle Sache, man kann sich eben alles schön saufen.

"Das Vega und Geforce zwei völlig andere Aufbauten haben, ignorieren wir ...."
Aus welchem Grund sollte ich das in eine Betrachtung einfließen lassen?

"Und nein auch im Jahr 2018 stellen nur ein sehr kleiner Teil der Leute einen Anspruch auf VR und 4K"
"der großteil der gamer ist noch auf fhd (oder niedrigeren auflösungen!) unterwegs."
Der Großteil der PC-Kunden kauft auch Komplettsysteme.

"Vor allem kann auch eine 1080Ti weder das eine noch das andere ...."
Was habe ich geschrieben? ....keine aktuelle Karte ....

Um eines klarzustellen:
AMD hinkt immer weiter hinterher und dieser Abwärtstrend sollte sich schleunigst umkehren.
Ich hoffe zumindest in diesem Punkt finden wir eine Übereinstimmung,
denn auf eine seitenlange Diskussion darüber,
ob Vega eine mittelschwere oder riesengroße Enttäuschung ist, habe ich keine große Lust.
 
  • Gefällt mir
Reaktionen: Gschwenni
Kommt dann endlich eine RX680 mit Leistung einer GTX 1070 zum Preis von <350€?
(Den Preis darf man ja wohl erwarten, so lange es schon diese Leistung in Form einer 1070 auf dem Markt dann geben wird)
 
RYZ3N schrieb:
Vega 20 (möglicherweise auch für Gamer), 32 GB HBM, Fertigung in 7nm (ganz sicher auch für Gamer), Termine noch in 2018...

So wie’s aussieht läuft es bei AMD auch langsam abseits der CPU-Sparte.

Ist Dir halbwegs bewusst WAS die 32 GB HBM2 allein kosten? Mal ganz abgesehen von der GPU selbst, Interposer und der restlichen Platine.
Nur mit Zahlen vom letzten Jahr (HBM 2 8 GB Stack für $160) wäre man schon bei $640 allein für den Speicher, die restlichen Komponenten + eine gesunde Marge und man kann die Karte konservativ bei um die $1500 ansiedeln... eher mehr.
 
Zock schrieb:
Oh man ich drücke Intel so die Daumen das sie NVidia mal unter Druck setzen können, die 1180 wird so teuer wie sonst noch was werden nur weil kein Konkurrent mehr da ist. Es ist so zum kotzen es wird alles künstlich gebremst und keiner kann NVidia das Wasser reichen. Bin gespannt wie lange es noch dauert bis AMD die GPU Sparte einstampft, ich will ATI zurück !

Man (Du) sollte (solltest) doch in der Lage sein ein solches GPU-Ranking (der Link wurde mehrfach in diesem Thread gepostet) zu lesen (verstehen)!

Selbst dem größten DAU sollte doch auffallen, zwischen RX Vega 64 und 1080, RX Vega 56 und 1070, sowie RX 580 und 1060 liegen nur minimale Abstände. Nur die 1080Ti ist allen anderen Modellen voraus.

#Troll

Liebe Grüße
Sven
 
Rambo5018 schrieb:
Dass es da einen P/L-technisch starken Konkurrenten mit ebenfalls guten Produkten gibt, wissen viele eben nicht.

Ein gebrauchter Rechner schafft in einem Spiel genau 1 FPS, kostet aber genau 0€ => P/L-technisch unschlagbar, aber komplett nutzlos.
Will heißen, man kann die Diskussion auch ins absurde führen.

Das AMD im Mittelfeld mittlerweile mit Polaris gut Fuß fassen konnte ist schön, aber eben nicht mein Zielgebiet... und TeamGreen kommt mir schon aus rein ethischen Gründen nicht mehr ins Gehäuse.
Einige mögen für sich keinen Nutzen darin finden, aber ich will eben Highend und das von TeamRED.
 
RYZ3N schrieb:
Hat mal jemand darüber nachgedacht wie unglaublich bescheuert es ist, sich selber als „Fanboy“ eines Herstellers von Hardware zu titulieren?

Der Trick ist, andere als solche zu titulieren und sich selbst stets absolute Neutralität zu bescheinigen, damit die Unterstellung jeglicher Befangenheit keine Chance hat.
Das ganze am besten in einem "AMD-Sandwich" verpackt.

"Ich finde AMD total dufte aber.... Lobgesang auf NV/Intel.... aber trotzdem wünsche ich AMD alles gute."
Und sollte der Hersteller, den man favorisiert, mal etwas machen was nicht unbedingt toll ist, dann liegt es am Kapitalismus, in dem eh alles erlaubt ist. Denn Firma XY würde dass ja alles genauso machen, wenn die denn nur könnte...

P.S. @RYZ3N
Meine Aussage war mehr allgemein gehalten, falls du dich angesprochen fühltest. Was meinen Glauben betrifft, da halte ich zum fliegenden Spaghettimonster. Der Rest war nur eine Meinung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gschwenni und Hurricane271
Fragger911 schrieb:
Ist Dir halbwegs bewusst WAS die 32 GB HBM2 allein kosten?

Durchaus, weshalb ich mich auch nur auf Vega 20 (möglicherweise auch für Gamer) und den 7nm Fertigungsprozess (sicher auch für Gamer), nicht aber auf die 32 GB HBM.

Abgesehen davon das wir den Sprung von mittelfristig 16 GB GDDR6 und 12/16 GB HBM hinzu 32 GB wohl erst 2020+ sehen werden.

Entschuldige wenn ich mich undeutlich ausgedrückt habe.
 
Ist nur Logisch das Navi um die 200mm² haben wird.
Soll ja skalierbar sein änlich wie Zeppelin.
Da will man max yield und nicht max DIE-Size/Leistung.
So 4x "Polaris" aufn MCM würden ordentlich um sich hauen.

Die größte verasche währe es wenn PS bei Vega20 Treiberseitig für DX11 funktioniert.
Mitm VRAM haben sie ja schon die RX Käufer vorgeführt als 6 Monate Später die FE verscherbelt wurde, ned nochmal. :daumen:
 
Zuletzt bearbeitet von einem Moderator:
E1nweg schrieb:
Der Trick ist, andere als solche zu titulieren und sich selbst stets absolute Neutralität zu bescheinigen, damit die Unterstellung jeglicher Befangenheit keine Chance hat.
Das ganze am besten in einem "AMD-Sandwich" verpackt.

"Ich finde AMD total dufte aber.... Lobgesang auf NV/Intel.... aber trotzdem wünsche ich AMD alles gute."
Und sollte der Hersteller, den man favorisiert, mal etwas machen was nicht unbedingt toll ist, dann liegt es am Kapitalismus, in dem eh alles erlaubt ist. Denn Firma XY würde dass ja alles genauso machen, wenn die denn nur könnte...

Ich weiß nicht welchen Personenkreis du da ansprechen möchtest, aber wenn du tatsächlich an dieses „Fanboy“ Ding glauben solltest - viel Spaß damit. Jedem das seine.

Ich hatte von Intel 486DX, Intel 486DX2, AMD 5x86, Intel Pentium II MMX, P3, AMD Athlon 64 X2, Phenom II 955, i5 4570K bis aktuell zum Ryzen 2700X immer die CPU die mir am besten gefallen und meine Ansprüche erfüllt hat.

Das gleiche gilt für GPUs.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: E1nweg
Mal abwarten eine konkretes Versprechen das Navi20 auch als RX kommt gibt's ja bisher noch nicht.
 
Bin einfach nur enttäuscht wie die GPU Sparte seit Jahren vernachlässigt wird. So gut sie es mit den CPUs machen, so schlecht läufts hier. Egal, der Miningboom hat sie gerettet, AMD wird sich sicher nicht beschweren.

Mehr will ich dazu auch nicht mehr sagen, bis 2019/20 auf eine neue GPU zu "hoffen" hat mir auch den Spaß an Freesync und Co. verdorben, ist ja mittlerweile reines Glaskugellesen was AMD plant. Allein die Spekulation was Navi sein soll (neu, Vega Refresh, Polaris Ersatz...) sagt alles.
 
Es wurde ja auch Infinity Fabric als Interconnect zwischen GPUs genannt, wie soll das funktionieren? Ähnlich wie bei NVIDIA NVLink? Oder ist hier tatsächlich - als äquivalent zu Ryzen - MCM gemeint?
 
@TNM
Mit einem Bruchteil des Budgets kann man eben nicht gegen 2 Schwergewichte im gleichen Maß konkurrieren. Da der geschäftliche Schwerpunkt AMDs bei den CPUs liegt und der GPU Bereich so oder so seit Jahren festgefahren ist ist es nur logisch das sie derzeit den CPU Bereich am meisten voran treiben. Mit den Mehreinnahmen kann man dann auch wieder besser parallel konkurrieren.

Unterm Strich treiben sie meiner Meinug nach das umgekehrte Spielchen wie zur Bulli Zeit. In dem nicht konkurrenzfähigen Bereich werden die Entwicklungsgelder nicht unnötig verbrannt sondern man begnügt sich mit dem Mittelfeld und investiert das Geld da wo man bessere Karten hat.

Würde es nach diversen möchtegern Propheten gehen dann wäre der Laden schon seit Jahren pleite.
 
@Cyberfries
Also wenn Vega10 abgespeckt ist, was ist dann bitte die Grafikkarte der Geforce Serie?
Du findest Vega schlägt sich schlecht, ich finde Vega schlägt sich ganz gut. Wer hat jetzt recht, oder wessen Aussage ist zutreffender?
Ich habe nirgends etwas von Preis Leistung geschrieben. Das warst nur du alleine. Ja die Vega Karten kosten mehr für +/- dieselbe Leistung. Und jetzt?
Und den unterschiedlichen Aufbau sollte man immer in die Betrachtung einfließen lassen. Denn es erklärt eben viele Dinge. Der höhere Stromverbrauch ist eben bei Vega dem Aufbau geschuldet, der eben anders als bei GeForce Modellen mehr Hardware (daher ja auch der größere DIE) verbaut hat. Würde man das rausschneiden (was sicher nicht so einfach ist wie ich es jetzt schreibe), wäre der Stromverbrauch geringter. Möglicherweise sogar geringer als bei den GeForce Modellen. Dieses runterbrechen auf Karte von AMD und Karte von nVidia ist so ermüdend. Dies ist immer noch ein Tech Forum, auch wenn viele das gerne vergessen. Und in einem Tech Forum sollte man in der Lage sein zu differenzieren und auch sich mit den Dingen auseinandersetzen zu denen man etwas schreiben will.
Und nein wir sind uns nicht einig darin, das AMD zurückhängt. Das tun sie nämlich eben nicht. Sieht man ja auch im CPU Bereich. Nur weil AMD anders seine GPU aufgebaut hat als nVidia und auch, Gründe sind bekannt, eben nicht einen reinen Gamingchip für Vega hat, ändert es nichts an der Tatsache, das man mit Vega genauso gut oder schlecht seine Spiele zocken kann wie mit den Geforce Karten im selben Segment.
 
  • Gefällt mir
Reaktionen: Strikerking
@DarkDragN
Ryzen - MCM verwendet Infinity Fabric zur Kommunikation zwischen den einzelnen Die, siehe auch hier:
https://pics.computerbase.de/7/8/7/6/3/18-1080.409008551.png
Um das MCM Konzept bei einer GPU umsetzen zu können müsste das jedoch wesentlich schneller gehen.

@Dark_Knight
"Ich habe nirgends etwas von Preis Leistung geschrieben "
Dark_Knight schrieb:
wenn dieser in der Preis/Leistung nicht vernünftig gegeben ist?

"Würde man das rausschneiden (was sicher nicht so einfach ist wie ich es jetzt schreibe), wäre der Stromverbrauch geringter"
Was soll man denn da rausschneiden?
Welches unnötige Profifeature hat Vega 10 denn?
Welches Profifeature bremst Vega 10 aus?
FP16? Braucht nicht so viel und hat auch einen Spielenutzen.
HBCC? DSBR? Primitive Shader? Hauptsächlich Spielerfeatures.

Klar, kann man die Karte auch für einige Profianwendungen einsetzen.
Und ja da sieht sie besser aus, weil sie besser ausgelastet werden kann.
Aber das macht sie noch nicht zu einer Profikarte.
 
  • Gefällt mir
Reaktionen: Gschwenni
E1nweg schrieb:
P.S. @RYZ3N
Meine Aussage war mehr allgemein gehalten, falls du dich angesprochen fühltest. Was meinen Glauben betrifft, da halte ich zum fliegenden Spaghettimonster. Der Rest war nur eine Meinung.

@E1nweg: Danke für den Nachsatz, habe deine Sicht der Dinge verstanden. Deine Meinung ist auch nicht verkehrt, dennoch habe ich allgemein das Gefühl das man irgendwie immer „Anhänger“, „Gläubiger“ und „Fanboy“ eines Lagers sein muss - was ich absolut nicht verstehe.

P.S.: Das mit dem fliegende „Spaghettimoster“ kam gut. ;)

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: E1nweg
Wenn man Vega 20 mit 8 und 16GB für Gamer bringt wäre es alleine schon von der ca.130mm² kleineren Chipfläche und verbesserten 7nm Fertigung sinnvoll .
 
Wie das MCM Design und deren Funktion aufgebaut ist, weiß man ja leider nicht.
Vielleicht ist der Ansatz auch, ähnlich eines Crossfire Gespanns.
Sie müssten es nur intern Regeln, das die einzelnen Modulen/ Chips, die Aufgaben aufteilt und regelt.
Technisch bestimmt möglich.
 
Wolfgang schrieb:
Auf der Computex gab es zudem eine Live-Demo des Beschleunigers, der Raytracing in Cinema 4D berechnet hat. Eine handfeste Aussage zur Leistungsfähigkeit lässt sich auf dieser Basis aber nicht treffen.
Ein handfeste Aussage kann man bei Produktpräsentationen auf Messen sowieso nie geben. Insofern ist der Satz relativ sinnlos. Die eigentliche Frage ist: Wie waren denn die Werte bei der Demo? Wie stehen diese im Verhältnis zu den bisherigen Vega Pros? Wie stehen diese im Verhältnis zu Tesla-Karten?
Das kann man doch zumindest "nicht handfest" kommentieren und etwas zur Präsentation angeben?
Oder lässt sich daraus überhaupt nichts ableiten?
Oder könnt ihr das lediglich nicht? (nicht falsch verstehen, ich erwarte von CB auch keinen News-Artikel auf Stiller@heise Niveau. ;) Aber zumindest etwas mehr als solche Fischer@heise 0815-Sätze)
Ergänzung ()

Dark-Silent schrieb:
Wenn man Vega 20 mit 8 und 16GB für Gamer bringt wäre es alleine schon von der ca.130mm² kleineren Chipfläche und verbesserten 7nm Fertigung sinnvoll .
Du hast aber keine Ahnung von den aktuellen Yields und Kosten. Nur, weil ein Prozess soweit ist, heißt das nicht, dass nicht ein großer Teil Ausschuss is.
Ich denke diese 7nm-Chips sind jetzt mal der Testballon, weil man im Profi-Segment entsprechende Preise verlangen kann um dieses Frühstadium halbwegs zu finanzieren. Die Chipgröße ist dabei erstmal kein Ansatzpunkt, wenn man diese mit einem alten eingefahrenen Prozess vergleicht.
7nm für den Privatkundenbereich im Segment "bezahlbar" sind sicherlich immer noch 2019 zu erwarten.

Ich warte ja eher noch auf ein spontanes Update der Polaris-Chips auf 12nm. Ist ja kein großer Unterschied im Prozess, aber als Übergangslösung mit etwas besserem Takt und Effizienz sicherlich durchaus angebracht um die 1060 entgültig mal aufs Abstellgleis zu schieben. Ich tippe mal ins Blaue und sag, dass diese bald kommen wird, bevor Mitte 2019 dann ein echter Nachfolger auf Navi-Basis kommt.
Kann natürlich auch sein, dass man sich jetzt nur noch auf die neuen (Next-Gen) Entwicklungen konzentriert. Da ist ja grade ein großes Auf-Links-Krempeln in der Grafiksparte anzunehmen. Gut, dass Koudari weg ist. Der neue Besen war in dem Segment dringend angebracht. Mal schaun, was draus gemacht wird. Unter ihm ist ja nichts wirklich passiert. Die GCN-Architektur wurde vor seiner Zeit entwickelt und eine richtige Richtung hat man unter seiner Führung nicht mehr gesehen.
Ergänzung ()

Sternengucker80 schrieb:
Wie das MCM Design und deren Funktion aufgebaut ist, weiß man ja leider nicht.
Vielleicht ist der Ansatz auch, ähnlich eines Crossfire Gespanns.
Das mit dem Crossfire kannst du ausschließen. Wenns ein MCM wird, dann müssen die schon vor der Bildausgabe wie eine Einheit rechnen. Sonst hat man wieder die selben Probleme. CF und SLI haben sich nicht ohne Grund nicht durchgesetzt.
 
Zuletzt bearbeitet:
rg88
Man darf nicht vergessen, die Karte löst Hawaii ab. Allein deshalb zahlt sich das für AMD schon aus. Navi wird bestimmt kein Double 1 zu 2 Ratio umsetzen können
 
Zurück
Oben