Bericht AMD Radeon: Vega-GPU mit neuen Shadern, höherer IPC und HBM2

@r4yn3
Da gebe ich dir recht, deshalb auch mein Einspruch.

Bei Vega20 ist mir aber noch etwas aufgefallen: 7nm Prozess?
Meines Wissens nach wäre das 2018 noch nicht in der Größenordnung möglich.
Beim Blick in die Glaskugel würde ich erst für Navi 2019 mit 7nm rechnen.
 
ZeT schrieb:
Nein, Nvidia wird von Usern gekauft die jetzt Performance haben wollen und sich nicht mit 20 fps durch nen Shooter zuckeln wollen.

Wenn du mit einer Release-AMD Karte mit 20fps durch einen Shooter zuckelst, wirst du mit einer entsprechenden NV vllt 25fps haben. Im Gegensatz zur NV wird die AMD aber irgendwann in ihrem Lebenszyklus die 30 in diesem Shooter knacken und die Fanboys schauen belustigt rüber zu den anderen, die die nächste Generation kaufen müssen... ;)
 
@Black&White: Asche über mein Haupt.

Aber stimmt schon was digger66a sagt, für DualGPU müssten sich auch die CUs verdoppeln. Für einen Vega10 mit 4 Stacks braucht es aber neuen Interposer. An sich auch den doppelten Memorycontroller, was neuen Chip bedeuten würde. Außer man konnte mit der neuen Speicherhirachie den HBM Speicher problemlos skalieren was Stacks betrifft und man hat die Interconnects für 4 Stacks bereits vorausgeplant.
 
@psYcho-edgE
Mit Absicht falsch verstanden, oder?

@r4yn3
Könnte auch schlicht und einfach missverständlich aufgeführt sein.
Mit 64CU für jede GPU und insgesamt beide GPUs zusammen 4HBM Stapel.
 
Malar schrieb:
Eben doch. Heutzutage bist du an Nvidia gebunden wenn du einen G-Sync Monitor hast oder andersrum an AMD gebunden wenn du Freesync hast.
Hast du Freesync schaust du mit den 3 Jahre alten Karten mal richtig in die Röhre bei höheren Auflösungen. Da bringt auch kein Crossfire 390 mehr was.

Das ist doch etwas stark übertrieben in meinen Augen.
Nur weil jemand einen Free oder Gsync Monitor hat ist er noch lange nicht an den Hersteller einer Grafikkarte gebunden.
Die letzten Jahrzehnte sind die Menschen auch ohne diesen Quatsch ausgekommen.
Ist ja nicht so das man plötzlich nichts mehr spielen könnte nur weil xyz Sync nicht aktiv sind, man kann Dinge auch überbewerten.
Ansonsten ist man halt selber Schuld wenn man sich nur wegen eines optionalen Features durch den Monitorkauf selbst beschränkt.
 
Zuletzt bearbeitet:
hm genau betrachtet könnte das auch der AMD typische Tippfehler sein.
In anderen Tabellen ist von 2x 64CU`s die Rede.
 
Ich nehme an du hast noch nie mit einem G-Sync/Freesync über längere Zeit gespielt?
Klassisches "Was der Bauer nicht kennt, frisst er nicht" wenn jemand A-Sync als "Quatsch" bezeichnet.

Eine 1080 hält keine 100 FPS stable auf 3440x1440 bei z.B. TW3 mit Mods und Custom-Config, und dann fängt es an zäh zu werden. Dann hast du 700€ für eine 1080 ausgegeben und es fühlt sich schlechter an als eine 400€ AMD die noch knapp im Freesync-Range liegen würde.

Ich habe mich nicht selber eingeschränkt, du darfst mir sehr gerne einen weiteren Monitor zeigen mit G-Sync anstelle von Freesync der die Specs erfüllt: QD, UWQHD, 34", 100hz, kein BLB, kein IPS Glow.
Danke.
 
@Cool Master

Tja also Punkt eins Sli gestrichen Punkt zwei Speicher Bandbreite total am Limit.
Dann GPUCPU fast null mehr wert als bei meiner R7 260x sogar etwas weniger Leistung denke ich. Dass nächste es gibt nur 3GB und 6GB total schwachsinnig. Genauso wie bei der GTX1050 nur 2GB gibt wenn man 4GB haben möchte muss man die teuere ti nehmen. Sowas unterstütze ich halt persönlich nicht sorry. Eine Mittelklasse GPU im Jahr 2016/17 sollte mindestens 256Bit und mindestens 4GB haben oder besser 8GB.
 
digger66a schrieb:
hm genau betrachtet könnte das auch der AMD typische Tippfehler sein.
In anderen Tabellen ist von 2x 64CU`s die Rede.
Wenn die Folien tatsächlich von AMD wären, würde da "NCU" und nicht "CU" stehen.
 
Black&White schrieb:
Hier neue Infos

Falls das stimmt, kommt "Big Vega" wohl erst in H2 2017 und "Little Vega" macht den Anfang. Wenn die kleine Vega schon ne GTX 1080 schlägt...ui ui ui Hoffentlich steht das X2 nicht wieder für MGPU - AMD gebt gas !!

Das x2 steht sowas von für eine Dual GPU...

Ich mach Mal die Kristallkugel an:

Vega 11: 48CUs, 4/8GB HBM als RX 490 / RX 580
Vega 10: 64CUs, 8GB HBM als RX Fury / RX 590
Vega 10x2: 2x 64 CUs, 2x8GB HBM als RX Fury Pro Duo / RX 595

Bin sowieso gespannt auf die Namensgebung, ob die Vegas noch zur 490er Serie draufgezählt werden, oder einfach eine umgelabelte Mittelklasse mit Polaris und Vega als Oberklasse als 500er Gen gelabert werden.
 
Es schaut bisher so aus, dass die wirklich als "Vega" bezeichnet werden, eben wie Fury.
 
Jethro schrieb:
Die letzten Jahrzehnte sind die Menschen auch ohne diesen Quatsch ausgekommen.
Ansonsten ist man halt selber Schuld wenn man sich nur wegen eines optionalen Features durch den Monitorkauf selbst beschränkt.

Natürlich, ich gebe extra Geld für etwas aus, wozu sollte ich es dann nutzen wollen?
Die Aussage ist doch wirklich nicht sinnvoll.

Mcr-King schrieb:
Eine Mittelklasse GPU im Jahr 2016/17 sollte mindestens 256Bit und mindestens 4GB haben oder besser 8GB.

Wieso das an der Interface Breite festmachen?
Wichtig ist doch was hinten rauskommt.

@psYcho-edgE
Die Aussage auf die du geantwortest hast, bezog sich darauf,
dass AMD keine Grafikkarten im obersten Leistungsbereich anbietet.
Deine Antwort bezieht sich auf Karten im gleichen Leistungsbereich.
 
Zuletzt bearbeitet:
Cyberfries schrieb:
Natürlich, ich gebe extra Geld für etwas aus, wozu sollte ich es dann nutzen wollen?
Die Aussage ist doch wirklich nicht sinnvoll.

Dann darf sich aber auch keiner beschweren das er nurnoch die Grafikkarten eines Herstellers kaufen kann.
xyz Sync ist sicher toll aber mich damit an einen Hersteller zu binden wärs mir nicht wert.
 
Laut Hardwareluxx lief das auf der CES seitens AMD gezeigte Ryzen/Vega-Demosystem mit einem Ryzen-Prozessor in Revision F3 auf immerhin 3.6/3.9 GHz Takt – und damit schon minimal höher als die von AMD versprochenen 3.5 GHz Basetakt. Dies muß aber gar nicht schon das Ende der Fahnenstange sein, denn laut Canard PC soll der Ryzen-Prozessor in Revision F4 bereits Taktungen von 3.6/4.0 GHz erreichen. Dies würde die Sache dann wirklich hochinteressant machen, denn ausgehend von den bekannten unabhängigen Ryzen-Benchmarks und den dort laufenden Taktraten von 3.15/3.5 GHz könnte man unter 3.6/4.0 GHz ca. 12% Mehrperformance auf jene Werte oben drauf legen – damit würde Ryzen unter diesem Takt nur minimal langsamer als ein Core i7-6900K herauskommen. Die Workstation/Server-Welt wird sicherlich aufhorchen, wenn sich AMD gleich im ersten Versuch mit seiner neuen CPU-Architektur mit Intel-Prozessoren auf der gleichen Anzahl an CPU-Kernen anlegen kann.

Auch die bei bei den unabhängigen Ryzen-Benchmarks seitens Canard PC ziemlich durchschnittlich verlaufenden Gaming-Benchmarks sollten über den höheren Takt dieser neuen Ryzen-Revisionen maßgeblich profitieren – im Gaming-Bereich zählen die gleich acht CPU-Kerne wenig und geht es eher um hohen Takt auf zwei bis vier CPU-Kernen (und natürlich eine hohe IPC, aber das bringt die Zen-Architektur nun ja endlich auch mit sich). Damit droht der Hypetrain natürlich schon wieder aus den Schienen zu fliegen – und als Gegenpol sei erwähnt, das wenn AMD wirklich diese hohen Taktraten und damit diese hohe (prognostizierte) Performance liefern kann, das dann natürlich auch entsprechende Preispunkte im Raum stehen werden. Insbesondere das Ryzen-Spitzenmodell dürfte nicht wirklich günstig ausfallen, wenn man nur wenige Prozentpunkte von der 999-Dollar-CPU Core i7-6900K entfernt herauskommt. Von Intel-Seite her sind schließlich auch keine Preissenkungen (schwerer Gesichtsverlust) zu erwarten – und Intels nächste Enthusiasten-Generation in Form von Kaby-Lake-X samt Skylake-X steht dann auch erst im Herbst an.


Quelle : 3dcenter.org
 
mellon80 schrieb:
Laut Hardwareluxx lief das auf der CES seitens AMD gezeigte Ryzen/Vega-Demosystem mit einem Ryzen-Prozessor in Revision F3 auf immerhin 3.6/3.9 GHz Takt – und damit schon minimal höher als die von AMD versprochenen 3.5 GHz Basetakt.

3,4Ghz+ wurde versprochen ;-)

F4 ist auch schon im Umlauf. Es sieht nach 4Ghz im Turbo aus.
Der OC funktioniert ähnlich wie NVs Boost. Solang die Kühlung reicht geht dat dingen auch gern auf 4,5Ghz all core (F4) - für Lottery Chips ala Broadwell die 4,4Ghz takten zahlt man nen schönen Aufpreis.
 
Zuletzt bearbeitet:
Wie auch immer es kommen mag, und wann auch immer, ich finde die Details spannend und interessant. Ich verstehe dieses dumme gebashe hier auch nicht so richtig, anscheinend hat so mancher ein verletztes Ego, wenn jemand AMD kaufen will. Mir ist es prinzipiell egal, welche Marke auf meiner Hardware steht, ich kaufe das, was meine Anforderungen erfüllt und innerhalb meines Budgets bleibt. Klar gab es auch mal unvernünftige Entscheidungen, die ich einfach haben wollte, aber das hier Leute sogar ne Preview schlecht machen versteh ich nicht so richtig.

Niemand wird gezwungen AMD oder NVIDIA zu kaufen, weder durch AMD noch durch NVIDIA.
 
warum hat die Vega im Demosystem nur 8GB? Hoffe mal das es nicht die schnellste Karte ist die da gezeigt wird.

AMD-VEGA-687F-C1.jpg

http://videocardz.com/64706/amd-vega-doom-4kultra-gaming-performance-demo-possible-specs
 
Zurück
Oben