Bericht Radeon RX Vega 64 & 56: Details und erste Benchmarks zu den Vega-Grafikkarten

@Blueline56

Naja, dass viel Takt viel bringt wissen wir ja schon. HBM verhält sich nur komplett anders als GDDR5X, deshalb könnte man damit einen "direkten Vergleich" zu Vega ziehen. Wäre interessant zu sehen wie weit NV in der Technik ist.
 
steahouse schrieb:
Und nein, die Karte ist in CoD nicht doppelt so schnell, da wurde die min. FPS verglichen. Mal schön aufs Marketing hereingefallen.

So? Was ist dir lieber: ein Karte, die unangefochten an der Spitze der Tests steht, und in diversen Games hier und da ruckelt, oder eine Karte, die zwar in den gängigen Tests und Listen nicht mit der Konkurrenz mithalten kann, aber in denselben Spielen trotz weniger Frames keine Ruckler aufweist?

Ich verstehe AMDs Marketing. Deswegen finde ich ja Vega so interessant.
 
Raucherdackel! schrieb:
Na, das liest sich hier aber ganz anders...
Die GTX1080 ist aber nicht GP102 sondern GP104.
von GP102 (1080Ti, Titan Xp) ist man weit entfernt, selbst mit dem 21% Vorsprung in BF1 liegt man immernoch 10% hinter GP102.
Bei CoD wurde darauf hingewiesen, dass es ein Problem mit der GTX1080 gegeben haben müsste.

steahouse schrieb:
Und nein, die Karte ist in CoD nicht doppelt so schnell, da wurde die min. FPS verglichen. Mal schön aufs Marketing hereingefallen.

Es wurden auch nicht die min fps sondern die 99th Percentile verglichen, und der Wert ist wesentlich wichtiger als der avg. fps Wert.
Er sagt nämlich in diesem Fall aus, dass Vega in 99% der Zeit über X fps lag, während Pascal währenddessen durchaus öfter auf Wert X-50% gefallen ist. Und dank des 99th Percentile Werts wissen wir auch, dass es sich dabei nicht nur um einen kleinen Ausreißer handelte.



Ich wünsche mir für zukünftige Tests eigentlich ausschließlich einen Percentile Graph, wo man die min fps vom Bereich 1% bis 99% sieht, damit man z.B. auch vergleichen kann, wie schnell denn mind. 50% der frames waren, und nicht nur auf 99 bzw in den jetzigen Graphen auf 95-99% begrenzt ist.

Denn dann kann man wirklich sehen, wie viele Frames denn schlecht waren.
Wenn der schlechteste Wert bei 99% z.B. 57fps für Karte X und 50fps bei Karte Y ist, dann könnte es aber ja sein, dass der schlechteste Wert bei 90% für Karte X 60fps und für Karte Y aber 85fps ist.
Dann wäre für mich Karte Y im Allgemeinen zu bevorzugen, trotz schlechterer 99% Werte.

Ist dann auch alles wunderbar veranschaulicht und einfach zu lesen: Wessen Linie zuerst die andere über-(FPS) bzw. unterschreitet(Frametimes), der ist besser.
 
Zuletzt bearbeitet:
LordLaden schrieb:
Du hast ja Recht, aber dein Beispiel ist halt auch einfach die Kirsche für deine Argumentation. In anderen Spielen sieht das ganz anders aus.
Anhang anzeigen 635453

Deswegen schrieb ich - genau aus dem Grund - extra dazu
In dem folgenden Screenshot sieht's man - und da sind noch einige andere - am deutlichsten, es ist nicht in jedem Fall so, aber man erkennt die Tendenz wenn man sich HIER durch die Ergebnisse klickt


edit@Taxxor und Raucherdackel :daumen:
 
Raucherdackel! schrieb:
So? Was ist dir lieber: ein Karte, die unangefochten an der Spitze der Tests steht, und in diversen Games hier und da ruckelt, oder eine Karte, die zwar in den gängigen Tests und Listen nicht mit der Konkurrenz mithalten kann, aber in denselben Spielen trotz weniger Frames keine Ruckler aufweist?

Ich verstehe AMDs Marketing. Deswegen finde ich ja Vega so interessant.

Wieder einer der auf AMDs min FPS Marketing hereingefallen ist. Die sind bei AMD nicht besser, es wurde nur eben Cherries gepicked.
 
Ein gutes hat aber die Frontier Edition bereits bewirkt, die höchst speziell auf Spiele entwickelte Titan Xp bekommt neue Treiber die für Profi Anwendungen mehr Performance bringen sollen.

Soviel zum Thema Gaming Karte.
 
Klar NV musste reagieren denn Quadros sind viel teurer als ie Titan oder halt die Vega FE.
 
@steahouse: Das hat nichts mit Marketing zu tun, es ist doch schon länger der Fall, dass die Testseiten auf 99th Percentile Tabellen umgestiegen sind, weil das eben aussagekräftiger ist, als eine avg. fps Angabe.

Beispiel:
Karte X hat eine fps Spanne von 60-90 und erreicht zu 99% der Testsequenz ≥65fps.
Karte Y hat eine fps Spanne von 45-110 und erreicht zu 99% der Testsequenz ≥50fps.

Was bringt dir jetzt allein die Angabe, dass Karte X in einem Spiel 75 und Karte Y 85 avg. fps hat?

Karte X ist von den Werten trotzdem besser, obwohl sie in den avg fps 12% schlechter ist.
 
Zuletzt bearbeitet:
Es hat etwas mit Marketing zu tun, wenn AMD sich die Spiele heraussuchen, in denen bei ihnen die Frametimes besser sind. Nimm CoD aus der Liste heraus und die Frametimes sind nicht mehr besser als bei der 1080 oder der 980ti.
Hier wird versucht eine Legende der besseren Frametimes zu stilisieren.
 
Die Spieleauswahl hat natürlich mit Marketing zu tun, aber das wirst du bei Nvidia Präsentationen auch nicht anders erleben. Hier wäre statt CoD eben ein anderes Spiel gelandet wo Vega besonders schlecht abschneidet.
Aber mit der allgemeinen Verwendung von 99th Percentile Angaben anstelle von Durchschnittswerten hat das nichts zu tun.
 
r4yn3 schrieb:
Ein gutes hat aber die Frontier Edition bereits bewirkt, die höchst speziell auf Spiele entwickelte Titan Xp bekommt neue Treiber die für Profi Anwendungen mehr Performance bringen sollen.

Soviel zum Thema Gaming Karte.

Schöne Verarsche wieder mal von Nvidia.
 
steahouse schrieb:
Das streite ich nicht ab, es ändert aber auch nichts an meiner Aussage.

Dann habe ich dich vielleicht falsch verstanden, mir war so, als stellst du generell die Angabe von 99th Percentile Werten anstelle von Durchschnittswerten als reines Marketing ohne Aussagekraft dar, zu lesen hier:
Und nein, die Karte ist in CoD nicht doppelt so schnell, da wurde die min. FPS verglichen. Mal schön aufs Marketing hereingefallen.

Und wenn die 99% min fps doppelt so hoch sind, dann ist das sogar noch besser, als wenn die avg. fps doppelt so hoch sind. Was bringen mir Sprünge von 25-120fps und die damit verbundenen hohen Durchschnittswerte, wenn 55-85 ein flüssigeres Spielgefühl bieten?
 
Zuletzt bearbeitet:
Maine schrieb:
Hätte AMD von Anfang an gesagt "Wir bauen einen GTX 1080/1070-Konkurrenten, die 1080 Ti-Region ist uns egal" und nicht diesen "poor Volta"-Quatsch abgezogen, wären die Erwartungen auch nicht so überhöht gewesen, wie sie es bei einigen offenbar waren.

Ein sehr valider Kritikpunkt :), der "poor volta" Ausschnitt war sehr unglücklich und unnötig gewählt, wurde (sozial-)medial aufgebauscht/gehyped und AMD/RTG hätte sicherlich bekunden/klarstellen können sollen, dass man GPUs im Leistungsbereich der GTX 1080Ti und Titan Xp fortan nicht mehr abdecken will, weil es sich für AMD selbst nicht lohnt (Forschung- und Entwicklungskosten für diese Nische nicht in Relation zu Absatz und Gewinn stehen) und man eben keine Prestigeobjekte à la Titan braucht bzw. sich derzeit noch bereit ist zu leisten.

Das wäre eine ziemlich aufrichtige (natürlich für die Enthusiasten eher enttäuschende) Nachricht gewesen und hätte nicht die total überzogene Erwartungshaltung (auch hier im CB Forum) gefördert. Zudem hätte man damit eine gewisse Unabhängigkeit von den Produkten des Konkurrenten klar gemacht (nicht als Preissenker mehr fungieren zu wollen wie oft in der Vergangenheit) und eben ganz das "eigene Ding" durchziehen zu wollen.

Wie sollte das auch eigentlich ewig weiterhin funktionieren(?), man investiert bei AMD/RTG seit Jahren ein Vermögen in diese Enthusiasten-Nische, aber es zahlt sich nicht aus und fast alle landen bei nVidia und würden (oft kategorisch) AMD/RTG nie in Betracht ziehen auch wenn sie so tun, wollen die Konkurrenzprodukte aber gerne auf dem Markt, damit sie bei Ihrem GPU-Lieblingsentwickler Geld sparen können durch den Preisdruck und beschweren sich über AMD/RTG, wenn es nicht so läuft :rolleyes:.

Pervers ist so etwas, nichts anderes :freak:.

Auch wenn die Produkte bei AMD/RTG 'mal ein Zeit lang überlegen waren und der Marktführer die Titan Serie auspacken musste, so dass sich das Preisgefüge komplett verschoben hat und die Preise fortan immer mehr getrieben wurden durch diese Enthusiasten-Nische, das hat keine Rolle gespielt und AMD/RTG konnte da so gut wie nicht landen außer bei ein paar loyalen Fans vielleicht und welche die sich bei nVidia verbrannt haben und daraus Konsequenzen gezogen haben.

Alleine schon die Tatsache, dass man nur einen Chip hat im Program (Vega10), um gegen 2 Chips (GP104 und GP102) der Konkurrenz anzutreten, sollte jedem klar machen, dass man damit leistungstechnisch keine Wunder erwarten sollte und auch die Alarmglocke läuten wie es um finanziell fairen/ausgewogenen Wettbewerb steht bzw. was sich AMD/RTG überhaupt noch leisten kann/will im Gaming-Bereich (der zunehmend unattraktiver für das Unternehmen wird, wenn alle meinen Ihr Geld zu nVidia tragen zu müssen, denn dadurch verstärkt sich nur der Trend/die Abkehr von AMD).

Die Fiji GPU-Halbgeneration war vielleicht der letzte Ausflug von AMD/RTG in den Enthusiasten-Bereich in naher Zukunft.

Ja, auch wenn die Vega Karten durch das aktuell angekündigte/gezeigte Nano-Modell etwa mehr dem Angebot an Fiji Karten ähneln und ähnlich diversifiziert Modelle herauskommen mit der 56er und den 64ern, luft- und wassergekühlt, sowie der Nano, ist es fraglich, ob noch eine Dual GPU kommen wird wie die Pro Duo, zumal man - wie vorher schon nVidia mit SLI - bei AMD den CrossFire Support jetzt zurückfahren wird und mit der Vega FE wohl den Bereich der Duo Pro abdecken wird.

Insgesamt ersetzen die RX Vega Karten somit nur leistungstechnisch die Oberklasse 390(X)er GPUs, aber mit Sicherheit nicht beides die 390(X)er und Fury/Nano Leistungsklassen mit nur einem Chip, zumal die gemunkelten Vega11( und 12) Chip-Karten die Basis für 600er Mittelklasse-(und Einsteiger-)Karten stellen sollen.

Wenn man sich die Präsentationen und Livestreams von AMD/RTG in diesem Jahr anschaut, welchen Stellenwert hat das Gaming eigentlich noch im Vergleich zu den anderen mit Vega abgedeckten Bereichen?

Basierend auf der Präsentationszeit sicherlich keinen übergeordneten mehr sondern maximal die gleiche Priorität wie der professionelle, A.I. und semi-professionelle Content-Creator Anteil und woran liegt das wohl?

Und wo im Gaming-Bereich macht AMD/RTG noch gut Geld, in der Mittelklasse und vor allem mit den Konsolen-SoCs, mit denen man bisher zum Glück noch (und hoffentlich auch zukünftig) keine Enthusiasten-Rohleistung abdecken muss, auch wenn "die Lederjacke" peinlich quatscht, dass es keine Konsolen mehr braucht, weil (nVidia dort leider kaum einen Fuss in der Tür hat und) die ultrateuren/unnützen Enthusiasten-Gaming-Notebooks auf nVidia GPU Basis Konsolen überflüssig machen sollen, aber es gibt bestimmt einige hörige "nVidia Dronen", die diesen Blödsinn sofort dem Huang abkaufen werden ...verkehrte Welt.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ DarkerThan Black

Es gibt zwar noch die OC-Modelle der GTX1080, aber die verbraucht sicher keine 180 Watt, sondern deutlich mehr! Und G-Sync kostet ein Vermögen. Wer das nicht mitbekommen hat, hat sich nie ernsthaft mit diesem Thema beschäftigt und plappert nur nach.

Custom-Modelle der GTX 1080 ziehen ca. 210 - 230 Watt. Und sind dafür aber nochmals deutlich schneller. Wohingegen Vega nach bisherig bekannten Informationen als Stock-Version bis zu 345 Watt zieht. Da Liegen Welten dazwischen. Leider. Und dein Verweis auf die Custom-Modelle der GTX 1080 ist sowieso Makulatur, denn die Rede ist bisher immer noch von Vega als Stock-Version, auf welche sich die veröffentlichten Werte beziehen. Daher gilt im übrigen als Vergleich die GTX 1080 FE mit 180 Watt Stromverbrauch die in Tests auch gehalten wurden. Das ist auch gut so, denn ich will gar nicht daran Denken, was Custom Modelle von Vega sich an Strom genehmigen werden.

Dein Verweis auf die Kosten für G-Sync sind völlig Obsolet. Damit springst du auf das Marketing von AMD auf und zwar völlig Blindlings. Es ist doch geradezu bezeichnend, daß AMD den geringeren Preis von Freesync-Monitoren bemühen muß, um Vega in angenehmes Licht zu Rücken. Die wenigsten Leute kaufen sich noch einen Freesync Monitor zu der Karte, schon gar nicht als Relativierendes Argument. Das gilt auch für das entsprechende Nvidia Pendant G-Sync.

In meinen Augen stimmt bei Vega die Relation von Performance / Effizienz und Stromverbrauch in keinster Weise. Noch dazu sind das Werte bisher von AMD selbst, die Erfahrung zeigt - ich nenne da nur die RX 480 - daß sich dieses Verhältnis in unabhängigen Tests noch schlechter Gestalten wird.

Das ist jedenfalls meine Befürchtung. In meinen Augen ist es kaum noch verständlich, daß AMD nicht endlich bei den GPU`s auch die Wende schafft, sozusagen Diametral im Einklang mit Ryzen. Wo sie es ja auch Super hinbekommen haben. Jetzt wird Nvidia weiter Schalten und Walten können, wie sie wollen.

Ich habe die ganze Zeit extra noch bis Vega gewartet, mit dem Aufrüsten, ich habe ja noch eine Radeon 5850. Jetzt ist nunmehr sicher, daß es definitiv eine Nvidia GPU nach langer Zeit mal wieder werden wird. Und daran ist niemand mehr Schuld, als AMD selbst.

So long...
 
Zuletzt bearbeitet:
Schöne Verarsche wieder mal von Nvidia.
.....selektive Wahrnehmung?

Da wird über ein halbes Jahr von Wundertreibern von AMD spekuliert, jeder AMD Fanboy ist begeistert und spekuliert auf die ein oder andere Leistungssteigerung durch die professionellen Möglichkeiten die natürlich nur AMD in der Grafikkarte hat und wenn dann nVidia einen Treiber ankündigt / bringt der die Semi-Professionellen Teile der High-End Gamerkarte anhebt, dann ist es eine "Verarsche"......mir fehlen echt die Worte......:freak:

@ Luxmanl525
In meinen Augen ist es kaum noch verständlich, daß AMD nicht endlich bei den GPU`s auch die Wende schafft, sozusagen Diametral im Einklang mit Ryzen.
...da gibt es eine logische Erklärung für die hier im Thread ja auch schon mehrfach genannt wurde.
AMD ist einfach zu spät dran und durch das ewige verschieben war Vega vermutlich auch nur als Wettbewerber zu GP104 gedacht.
100% stimmig ist das aber auch nicht, da Vega ja ein Big-Chip ist und GP104 ja nur die Mittelklasse von nVidia.
Hört sich bitter an, aber vielleicht war die Leistungssteigerung von nVidia mit der letzten Generation Pascal einfach nur zu viel für AMD.
Wie auch immer, nVidia hat jetzt keinen Druck und ich bin gespannt auf die Reaktion.
Ich vermute das man Pascal etwas günstiger macht und einen langen Abverkauf daraus generiert.

Volta kann man auf jeden Fall dann wieder für viel Geld, effizient und längst nicht vom Takt ausgereizt verkaufen.
Leider die schlechteste Lösung für uns Kunden.
 
Zuletzt bearbeitet:
Sorry mich hatte das Marketing mächtig enttäuscht...heute kam meine GTX 1080TI. Bin zu frieden, nichts ruckelt. Fühlt sich auch smooth an (was ja das neue Buzzword ist). Wäre das dämliche Marketing und die Salamitaktik nicht gewesen, hätte ich mich durchgerungen wahrscheinlich Vega zu nehmen und gleich noch den Rechner mit Ryzen auf zu rüsten. Aber so? Ich meine ich habe jetzt deutlich mehr Leistung mit einer GTX 1080TI als mit meinen beiden R9 290X. Was bekommt man den bei AMD? 390X Refresh. Fiji vielleicht 30% schneller wenn es gut kommt. 480 vielleicht ein Tick schneller. 580 ein Refresh vom Sidegrade. Vega 60% schneller. Ich bekomme drei Jahre später und nach 3 Interarionen von GCN kaum Leistungssteigerung. Und da muss mir auch keiner mit NVIDIA ist so teuer kommen. Ich hab für die beiden Hawaiis genauso viel bezahlt wie für die GTX 1080TI. Schenkt euch doch die Mär vom bösen NVIDIA. Nvidia hat wenigstens mit jeder Generation Leistung ordentlich drauf gepackt. AMD will auch nur Geld verdienen und hat hier jetzt ziemlich hart sie Sau durchs Dorf getrieben. Leider so hart, dass ich erstmal Abstand nehmen muss. Bei Polaris konnte man doch auch mit offenen Karten spielen, wieso nicht mit Vega? Schämt sich AMD?
 
Zuletzt bearbeitet:
Zurück
Oben