News 3DMark 11: Potentielle Radeon RX Vega mit 8 GB und 1.630 MHz

Also doch wieder eine Bananen GPU, die beim Kunden reift und mit der Zeit besser wird.
Die erreicht Ihre Leistung, wenn NVidia die neuen GPU's auf dem Markt hat und kann dann evtl. mit der alten Generation gleichziehen.
 
@oldmanhunting:

Was soll das Bashing? Du sagst doch selbst immer, man solle erst mal Tests abwarten... :rolleyes:

oldmanhunting schrieb:
Ich würde jetzt einfach einmal abwarten, was Vega kann und kostet. Wenn die ersten Testberichte da sind, kann man immer noch meckern oder loben. [...]
Finde ich eben auch!
 
stoneeh schrieb:
Und wenn man Glück hat Zen+ auch noch in das gleiche Mainbord passt.
So wie ich es verstanden habe, dürfte sogar Zen 3 noch ins gleiche Mainboard passen, denn wenn AMD im Rythmus bleibt, kommt Zen 3 ca 2019-2020 und AMD bleibt idR länger beim gleichen Sockel als Intel. 3 Jahre sind da schon realistisch.

psYcho-edgE schrieb:
Nur schade dass es an dem Problem nichts ändert. Es interessiert wie gesagt keine Sau, dass die Dinger von AMD sind. Ergo: keine Wirkung auf das Marketing.
Ich denke der Punkt ist eher, dass AMD somit auch ohne Marketing eine wichtige und solide Einnahmequelle hat.

Zu Vega selbst: mit diesem 3dMark Ergebnis sieht es doch gar nicht mehr so schlecht aus, jetzt müsste man nur noch wissen ob Dinge wie TBR immer noch nicht laufen.
Denn mit einen 20% Rückstand zur 1080Ti bräuchte der fertige Treiber nicht die wahnwitzigen 80% +Leistung bringen, die hier manche so sarkastisch erwähnen, 20-30% und dann das ganze für 600€ und die Sache steht.
 
Zuletzt bearbeitet:
Chesterfield schrieb:
was haben die AMD Jünger erwartet? das AMD wie Phönix aus der Asche aufersteht und die 1080ti in grund und boden stampft?? bitte etwas realitätssinn ist gefragt.

Ja wäre eigentlich längst überfällig. Kepler war recht gut, Maxwell war Kepler mit TBR wovon stark profitiert wurde und Pascal war Maxwell mit Takt dank der Fertigung und minimalsten Anpassungen für Async. Also NV reisst sich kein Bein aus bei seinen Weiterentwicklungen.

Eigentlich ist es bei dem Aufwand den AMD betreibt längst überfällig, dass Vega eine GP102 pulverisiert.
 
Ich finds gut.

Wenn alles glatt läuft, kann ich mir im Herbst ein neues System mit CL CPU und Vega zusammenstellen. :)

Für mich brauch's im Moment eh net mehr Leistung als ne 1080 sein.

Hauptsache, ich krieg für nen vernünftigen Preis nen guten Sync-Monitor. G-Sync ist preislich einfach ne Unverschämtheit.
 
Jenergy schrieb:
Was soll das Bashing? Du sagst doch selbst immer, man solle erst mal Tests abwarten... :rolleyes:

Naja, als bekannter Fan der Marktführer kannst Du nicht wirklich mehr von oldmanhunting erwarten, eine neutrale/unvoreingenommene Einstellung zu AMD hätte mich bei ihm schon überrascht und manche können eben nicht aus Ihrer Haut heraus ;).

Ob nVidias Pascal Refresh-/Volta-GPUs wirklich mehr als nur wieder etwas mehr Rohleistung (durch TSMC 12nm Fertigung, leicht schnelleren Speicher/größeres Speicherinterface und höhere Übertaktung ab Werk/weniger OC-Spielraum) ohne nennenswerte technische Neuerungen bringen werden, bezweifle ich sehr stark basierend auf dem aktuellen Stand der Dinge.

Wenn sich die neue GPU-Architektur bei AMD dahingegen richtig entfalten wird können in kommenden Spielen (nicht nur bei Bethesda und Gaming Evolved Titeln sondern hoffentlich auch darüber hinaus) und Jahren, während sich nVidia und Fananhang altbacken mit propriertärem GameWorks und besserer Leistung unter High Level APIs (Open GL und DX11) selber feiern, können die RX Vega GPUs gerne beim Kunden reifen :p.

Zumindest hält dann die Leistung an bei steigenden Anforderungen und sackt nicht so stark wie nach dem Kauf einer nVidia GPU ab, für Käufer die Wert auf Langlebigkeit legen und nicht spätestens alle 2 Jahre neu tief in die Tasche für eine neue GPU greifen wollen, gibt es eigentlich (auch dann wegen des HBCC+HBM2 Meilensteins und anderen vielseitigeren/neueren Architektureigenschaften wie Primitive und Intrinsic Shaders, hardwareseitigem AsyncCompute, FreeSync2-Support, etc.) keine Alternative zu den AMD GPUs.

Die Frage ist auch wie viele Early Adopter/Hobby-Enthusiasten direkt zum Marktstart bei Referenzmodellen zu schlagen werden?

So viele von der "unbedingt nötig" bzw. "Leistung jetzt" Fraktion wird es auch nicht geben und wer clever ist und sich gedulden kann, kauft RX Vega (im Spiele-Bundle) zum Pascal Refresh-/Volta-Marktstart bei absehbarer erster größerer Preissenkung der RX Vega GPUs ;).

Dazu dann noch eine passende Threadripper CPU mit 12+ Kernen oder Frühling 2018 einen Pinnacle Ridge 8-Kerne Prozessor und einige der Enthusiasten hier dürften sich freuen ...
 
Zuletzt bearbeitet:
Alle warten auf Vega und ich warte auf eine GPU die mindestens 80% schneller in WQHD ist als meine GTX1080.^^ Eine 1080 Ti ist im Schnitt knapp über 30% schneller, fehlen noch fast 50%. Wer weiß, vielleicht schafft eine GPU x080(ti) das auf Volta Basis. :)
 
@Chismon: Naja, wenn dann die Scheiße mit dem Mining immer noch so abgeht wie jetzt, wäre es wohl schlauer, gleich bei Marktstart vorzubestellen.^^

Oder sind die Karten nicht geeignet?

Hab leider nicht viel Plan von dem Dreck.
 
MrJules schrieb:
Oder sind die Karten nicht geeignet? Hab leider nicht viel Plan von dem Dreck.

So wie es aussieht sind die Karten nicht dafür geeignet wegen des HBM2 Speichers (der scheinbar ähnlich wie GDDR5X sich nicht so gut für's Krypto-Mining eignen soll, weswegen die GTX 1080 derzeit preislich auch im Vergleich zu den durch Mining ver-/überteuerten GTX 1070 interessant sind).

Zudem dürften die RX Vega im Vergleich zu den Polaris GPUs (für die ja erste Mining Versionen aufgelegt werden, ebenso wie für die GTX 1060) auch noch deutlich teurer (ich rechne mit 449 Euro+ für eine beschnittene/günstigste RX Vega GPU im Referenzdesign, falls die Rohleistung der einer GTX 1080 Stock-OC entsprechen sollte) und daher weniger lohnend sein ;).
 
Find Ich jetzt nicht grad nen Fortschritt wenn man wieder von HBM 2 zur GDDR5 Krücke zurück kehrt und dazu den Speicher halbiert .......
Back too roots ? Ja das ist es aber nicht im Positiven !
 
Zuletzt bearbeitet von einem Moderator:
modena.ch schrieb:
Ja wäre eigentlich längst überfällig. Kepler war recht gut, Maxwell war Kepler mit TBR wovon stark profitiert wurde und Pascal war Maxwell mit Takt dank der Fertigung und minimalsten Anpassungen für Async. Also NV reisst sich kein Bein aus bei seinen Weiterentwicklungen.

Eigentlich ist es bei dem Aufwand den AMD betreibt längst überfällig, dass Vega eine GP102 pulverisiert.

Kann mich noch an die HD3000 bis 5000 Serien erinnern. Ein Knaller nach dem anderen. Mit der 6900er Serie ist es dann abgeflaut, und Nvidia hat begonnen aufzuholen. Bei der Serie hat man die alten, bewährten VLIW5 Shader zugunsten eines VLIW4 Designs abgesetzt, und damit haben die Probleme begonnen. Nur minimal Mehrleistung auf die Rohleistung, und deutlich höherer Stromverbrauch!

Aber der nächste Fail kommt bestimmt - und das war die HD7000er Serie, GCN 1.0. 37% mehr Rohleistung bekam man nur in 33% bessere Spieleperformance umgesetzt, und die Energieeffizienz ist trotz Umstieg von 40 auf 28nm kaum gestiegen.

Mit GCN ging's dann ebenso Schlag auf Schlag. Ein Pfusch nach dem anderen. GPU Iteration um Iteration, jedesmal vielgepriesene Änderungen/Verbesserungen, jedesmal kaum schneller, jedesmal kaum energieeffizienter.
Die Krönung war Fiji, bei der man eine massive Steigerung der Rohleistung von 45% nur in 25% mehr Spieleperformance umsetzen hat können - trotz neuer Architektur, trotz HBM!

Und erinnert uns das nicht an was? Stark gestiegene Rohleistung, die man nicht in Spieleperformance umgesetzt bekommt? Vega, anyone?

Die vom Hype und bunten Marketingausdrücken wie "Next Generation Compute Unit" geblendeten Kiddies verleugnen die Möglichkeit, aber dass Vega, wie schon seine x Vorgänger, wieder ein Reinfaller wird, würde genau ins Bild passen.
 
@stoneeh

aber bitte unterschlage auch nicht die Tiefschläge in der Zeit, die Nvidia unternommen hat, unter anderem mit Gameworks und den Einkaufen bei Spieleschmieden / Puplishern (ein Schelm wer Böses denkt) und mit der PhysX Schande (der Schlem war dann nicht mehr zu bändigen und wurde Realität mit dem Erkennen anderer Grakas im System etc)
 
stoneeh schrieb:
Kann mich noch an die HD3000 bis 5000 Serien erinnern. Ein Knaller nach dem anderen. Mit der 6900er Serie ist es dann abgeflaut, und Nvidia hat begonnen aufzuholen. Bei der Serie hat man die alten, bewährten VLIW5 Shader zugunsten eines VLIW4 Designs abgesetzt, und damit haben die Probleme begonnen. Nur minimal Mehrleistung auf die Rohleistung, und deutlich höherer Stromverbrauch!

Aber der nächste Fail kommt bestimmt - und das war die HD7000er Serie, GCN 1.0. 37% mehr Rohleistung bekam man nur in 33% bessere Spieleperformance umgesetzt, und die Energieeffizienz ist trotz Umstieg von 40 auf 28nm kaum gestiegen.

man musste bei AMD wechseln da VLIW5 auch immer schlechter skalierten - aber wichtiger noch, für Computing weitestgehend ungeeignet waren. Aber auch da gabs Ausnahmen. Mining war zb delux schnell auf den Karten. Aber die Flexibiliät war nicht gegeben, schon gar nicht gegen Nvidias Tesla.

Deswegen gabs und musste GCN her. Die HD7970 hat das noch ganz gut kaschiert, Shrink sei Dank. Gerade auch in Anbetracht der gewaltigen Zunahme an Transistoren kam davon recht wenig als Gaming Leistung an.

Bei Nvidia schaffte es aber auch erst das Tiled Based Rendering (vermutlich) sowie der hohe Takt sich klar vor AMD was Effizienz angeht zu schieben.

Schaut man sich Fiji an sieht man gut, dass bei AMD wieder was passieren musste. Bisher ist mir noch nicht klar wie ein Fiji Shrink, der ~350mm² groß wäre, auf 512 mm² bei Vega aufgeblasen werden kann - bei selber Shader Zahl. Gerade die Rohleistung steigt ja nicht sonderlich (eigentlich nur über Takt) - was ja eigentlich nahe legt, dass AMD diese durch die zusätzlichen Änderungen deutlich besser auf die Straße bringen will.

Das gelinkt aktuell ja 0. Entweder platzt also die Bombe und Vegas Releasetreiber setzt allen ein Staunen ins Gesicht (hope so), oder es wird der GPU Fail des Jahrtausends (was für alle schlecht wäre da Nvidia munter die Marge weiter nach oben treiben würde und fertige GPUs erst später wie nötiger erscheinen könnten).
 
Zuletzt bearbeitet:
Unglaublich wie Recht manche User hatten gewisse andere als pure AMD basher zu bezeichnen :D
Viele Beiträge hin oder her aber würdet ihr keine technischen Ausdrücke nutzen würde man meinen man hört kleinen kindern beim nörgeln zu x)

Ist ja schön und gut das ihr AMDs Stammbaum zu kennen scheint würdet ihr weiter zurück blättern wüsstet ihr das auch AMD /ATi damals was auf'n kasten hatten. Also erstmal abwarten statt hier ein Grab zu Schaufeln

"GPU Fail des Jahrtausend"

Herrlich :D
 
SKu schrieb:
Alle warten auf Vega und ich warte auf eine GPU die mindestens 80% schneller in WQHD ist als meine GTX1080.^^ Eine 1080 Ti ist im Schnitt knapp über 30% schneller, fehlen noch fast 50%. Wer weiß, vielleicht schafft eine GPU x080(ti) das auf Volta Basis. :)

Man sagt der 1080 nach, dass sie 4k grade so schafft bei den meisten titeln, da sollte WQHD doch locker drin sein? Evtl. machst du was falsch?
 
@ Kal9tz

bei Vega is alles drin. Fällt dir noch ne GPU dieses Jahrtausend ein die >12 Monate zu spät für die Konkurrenz kommt, >500mm² die Leistung von 320mm² aufwiegen bei gut >50% mehr Verbrauch beim Einsatz von revolutionärem Speicher der das x fache kostet (+ Fläche und Leistung sparen soll) ? Das ist imho das was Vega aktuell zeigt und wäre in meinen Augen der versiebteste GPU Launch der letzten 17 Jahre. ;)

Das passts mir auch nicht aber das leider bisher der Stand. Dass das vielleicht bzw hoffentlich zum RX Vega Release ganz anders aussieht hab ich ja genauso erwähnt. Es kann in beide Richtungen gehen. Die Rohdaten die Vega veranschlagt sind imho massiv und passen eher auf die GTX 1080 TI oder darüber. Und ich hab noch nicht die Hoffnung aufgegeben dass uns AMD aktuell an der Nase herumführt. Performance >1080 TI ist genau das auf das mein PC wartet und da steck ich AMD dann auch gern 700€ für in Hals. :D

Edit:

Ist der 17.20 eigentlich ein neuer Treiber? Oder ist der seit FE Release unverändert. Mich wundert die Angabe 17.6 für den Treiber und 17.20 bei den Release Notes.

http://support.amd.com/en-us/download/frontier?os=Windows+10+-+64
 
Zuletzt bearbeitet:
@Krautmaster

der bisherige Stand der dinge ist, ein 3D Benchmark mit non Release Treiber :rolleyes: daher genau 0 Aussagekraft was die Karte wirklich kann und natürlich ist auch nicht bekannt welche Ausbaustufe von Vega da getestet wurde. Es sollte hier doch klar sein das man nicht erwarten kann das alle Vega Karten vom kleinsten bis zum Größten eine 1080Ti schnupfen werden ...
Wenn man sich dann manche Kommetare durchliest erwarten da einige kleine Vega um ~ 400€ die mal locker eine Titan oder 1080Ti 30% hintersich lassen .... (es gibt keine eierlegendewollmilchsau ...)

bleibt realistisch und wartet den Release ab!
 
ja klar. Was man aktuell sieht kann ja nur "Mindestmaß" sein. Langsamer wird das Ergebnis nicht ausfallen. Deswegen schrieb ich ja "Stand jetzt" und "alles möglich".

Viele Seiten gehen von 5-15% aus die durch nen RX Vega Treiber drin sind. Ich gehe persönlich eher von mehr aus, weil allein TBR bei Nvidia gut 30-50% gebracht hat bei deutlich besserer Effizienz. Auch wüsste ich nicht für was AMD so viele Transistoren verbraten haben soll ohne Mehrleistung dadurch zu generieren.

Ich denke noch ist nicht aller Tage Abend und ja, warten is das einzige was man kann. Aber ich würde mir wünschen wenn AMD mal (sofern möglich) durchblicken lassen würde was die RX Vega im Stande ist zu leisten, mit passendem Treiber. Das kann doch nicht ernsthaft gewolltes Marketing sein.
 
Jop ich denke auch das da noch was kommt. Naja AMD hatte doch immer etwas mehr "Transistoren" in ihrer GPU als NV ... Bin auch der Meinung das ein optimierter Treiber 30% mehr rausholen kann :) die Frage ist halt noch offen wie das ganze von AMD skaliert wird.
 
"etwas" ja. AMD hatte auch immer mehr Rohleistung bzw weniger wurde davon in Gaming Performance umgesetzt. Bei Vega hätte ich jetzt gedacht dass die Architektur genau das im Fokus hat. Man hat ja nicht Shader gepushed sondern will diese besser auslasten. Die Rohleistung dürfte bei gleichem Takt auch gleich sein zu Fiji.

Theoretisch mit mit Sicherheit sollte also mehr Gaming Leistung bei gleicher Rohleistung das Ziel gewesen sein (mehr IPC). Die Shader / Die ist ja so stark gewachsen dass da doch einiges passiert sein muss- irgendwas was Stand jetzt nicht am Schirm ankommt.

Eine Polaris ist zb auch etwas größer als GP106, 232mm² zu 200 mm², beide quasi gleich schnell mit teils Vorteilen bei AMD. Aber Vega... ? Da sollen 512mm² so schnell sein wie Nvidias 314mm² des GP104??

Das macht einfach irgendwie gar keinen Sinn außer es gibt irgend ein massives Problem das AMD nicht in Griff bekommt, zb das TBR einfach nicht tut.

Sollte AMD jetzt diese 500mm² auch auf die Straße bringen passt das wieder. Geht man vom Polaris <-> GP106 Verhältnis aus müsste dann die 500mm² quasi locker auf GP102 (471mm²) Niveau liegen (selbst ohne Architekturverbesserungen gegenüber Polaris). HBM2 spart ja auch noch Fläche des SI.

Das is die Hoffnung die ich hab. Und dann würde auch das "poor Volta" wieder passen. AMD wirbt auf eigenen Folien mit 2x IPC? Schaut man sich Fiji zu Vega an steht Vega aktuell aber genau bei x1 IPC.

Dass man bei selbem Takt doppelt so schnell wie Fiji ist kann man kaum erwarten, aber wenn man mit Faktor 2 wirbt sollte nicht 1x rauskommen ;)
Kommt aber urplötzlich 1.5x raus dann schlägt Vega schon gut ein.
 
Zuletzt bearbeitet:
Zurück
Oben