Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
kuddlmuddl schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!

Oh boy... welch repräsentativer Referenzwert. "Selbst bei"? Der war gut.
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
Er hat zum bestmöglichen Preis den bestmöglichen Antrieb für seinen FreeSync Monitor gekauft. Dagegen kann man nicht viel Einwand haben.
Mit der Bewertung von Vega hat das auch nur sehr wenig zu tun.
 
kuddlmuddl schrieb:
Weitere Fragen/Tests kann ich gern beantworten.

würdest du mal die verschiedenen AA modi durchtesten? bei dirt 3 verliert vega durch MSAA VS CSAA unglaublich viel performance, es liegt die vermutung nahe, dass MSAA vega überhaupt nicht schmeckt. das ist womöglich in anderen spielen in geringerem ausmaß auch der fall. also AA aus vs MSAA 8x - vega könnte hier unverhältnismäßig einbrechen und damit wäre ein teilerklärung für die enormen schwankungen gefunden. viele benchmarken mit MSAA.
 
kuddlmuddl,

jede Grafikarte bleibt unhörbar bei Dota2 und FPS Limit. Vielleicht solltest du etwas testen dass die Karte mehr als 20% belastet ;). Rise of the Tomb Raider und Overwatch mit mehr als Full HD und ohne Framelimit oder 140 FPS Limit.

Edit: sorry Vangart
 
Zuletzt bearbeitet:
Pizza! schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!

Warum adressierst du deinen Kommentar an mich? Bitte nochmal lesen und korrigieren. Danke!
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
Der Verkaufsansturm hat wohl schon ein Ende für über 600€ gehen die wohl nicht mehr so schnell weg.... siehe Shops überall liegt die Karte wie Blei...

Denke es wird schwerer später (wenn es das überhaupt geben wird) eine kleine Vega für 399€ zu ergattern...
 
das weiß niemand - kann man nur abwarten. ggf. ist vega zum 56 release im kurs schon so niedrig, dass die karten unter preis abgegeben werden (müssen) oder die händler akzeptieren das blei in den regalen wie bei der fury. manche händler bestehen nach wie vor auf 650€ für eine fury x und weigern sich die karte zu einem akzeptablen preis abzugeben.
 
duskstalker schrieb:
nur weil die spiele spaß machen und ne große playerbase haben und als open world titel weitaus länger motivieren als bspw. doom, sind sie nicht prädestiniert als benchmark titel.
...
zudem sind beide eher unterirdische cross-plattform ports. gta 5 und fallout 4 wurden bis dato zum erbrechen gebencht ohne große überraschungen (pro nvidia) - die dinger haben in einem gpu test parkour einfach nichts verloren.
...
PUGB als early access ist genau so wenig geeignet wie die beta von quake champions.
...
die technik in doom ist exzellent - so gut, dass sich die 1080 ti in wqhd (ultra) durchgehend den kopf am 200fps framelimit anschlägt. wie sieht das bei metro last light redux aus? da hängt selbst die 1080 ti in wqhd noch n gutes stück unter 100fps bei schlechterer optik.
...
aots hatte als erstes spiel das DX12 featureset mit async compute implementiert - was kann fallout 4 vorweisen? schlechteste engine 2015? lächerlichstes "HD Texture Pack" der pc-geschichte?
Welche Spiele-Benchmarks sind denn für den "Durchschnittsspieler" relevanter? Die von populären Titeln, die tatsächlich noch gespielt werden oder Nischentitel, die kaum einer spielt? Spiele, die eh so gut performen, dass sie auf jeder Einsteigerkarte passables spielen erlauben oder doch eher die Problemfälle, bei denen es kritisch wird?

Was hat der Spieler davon, wenn eine Karte zwar bei technisch sauber programmierten Spielen und bei einigen Nischentiteln mit langen Benchmarkbalken glänzen kann und bei genügsamen Titeln/Einstellungen 250 statt 150 fps erreicht, aber dann trotzdem bei populären "unterirdische cross-plattform ports" einbricht? Das zeigt dann zwar die theoretische Mehrleistung, die aber im Großteil der populären Spiele leider gar nichts bringt.

Ein Benchmark-Parkour mit ausgewählten Vorzeigetiteln so wie du ihn vorschlägst, bei der man sämtliche "schlecht" programmierten Spiele ausgrenzt (egal wie populär), nimmt den Ergebnissen doch jegliche Relevanz.
 
Flowerpower77 schrieb:
Nein. Nicht mal im Mining ist die überragend.
Stimmt doch gar nicht, Vega ist zum Minen top:
Leli196 schrieb:
Die Mining-Leistung der Vega 56 liegt nun bei über 32 MH/s. Je nach Preis bei dem Sie sich einpendelt ist sie damit ebenso interessant für Miner wie eine RX 480/580:

Vega 56 -> 480 € / 32,1 MH/s = 14,95 €/(MH/s)
RX 480/580 -> 380 € / 24,8 MH/s = 15,32 €/(MH/s)
 
RX 480/580 -> 380 € / 24,8 MH/s = 15,32 €/(MH/s)

Die Rechnung geht nicht auf, die 480 580 machen weit mehr mit BIOS mod, dazu kommt der neue Mining Treiber, der denen wieder mehr und auch Langanhaltende Leistung gibt. (ETH)

das sind dann eher 380€/28MHs =13,57€/MHs
und das bei weit weniger Stromverbrauch
 
@neromonicon
Hast du in deiner Rechnung auch den niedrigeren Verbrauch beim youtube Videos schauen berücksichtigt oder den Zero Core Modus? Wenn du schon solche Rechnungen anstellst, solltest du das auch berücksichtigen ;)
 
hroessler schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!

Als gaming Karte würde die Vega nicht so richtig punkten. Aber im Vergleich zur Konkurrenz steht sie beim Mining erstklassig dar. Und genau deswegen werden die Preise in nächster Zeit nicht fallen. Das quatschen über die Leistung ist in dieser Hinsicht hinfällig, oder?

Ich hab mir zwei RX 64 gekauft, die ich im Crossfire laufen lasse. Die 1370€ waren es mir wert.
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
Nein. Wenn ich damit minen würde, wäre das das falsche Forum dafür. Ich habe just for fun gekauft.
 
Cohen schrieb:
Welche Spiele-Benchmarks sind denn für den "Durchschnittsspieler" relevanter?

das ist ein GPU test-benchmark und keine kaufberatung. die spiele leistung der gpu muss neutral bewertet werden und kann nicht (nur) von 3 jahre alten gameworks titeln abhängig gemacht werden. imho müsste unbedingt overwatch mit in die gpu roundups, und dafür fliegt dann gerade so etwas wie anno oder shadow warrior 2 aus dem parkour.


Cohen schrieb:
Was hat der Spieler davon, wenn eine Karte zwar bei technisch sauber programmierten Spielen und bei einigen Nischentiteln mit langen Benchmarkbalken glänzen kann

das ding ist nicht, dass ein spiel gebencht werden soll, dass möglichst lange balken erzeugt, sondern ein spiel, das möglichst effizient läuft. farcry primal ist auch ein verheerender cpu benchmark, weil ein i3 direkt nach einem i7 kommt, weil das ding nur einen thread auslastet (gj @ programmierer, an dieser stelle). würde man so ryzen benchen: 1800x verliert mit 30% rückstand gegen 160€ i3 bei doppeltem stromverbrauch. die schlagzeile ist perfekt, spiegelt aber nicht im ansatz wieder, was der 1800x außerhalb von diesem verunfallten benchmark mit dem i3 macht. man macht auch keine cpu benches im gpu limit.

und so sollte man auch keine gpu benches im "software limit" machen, wenn bspw. durch tessellation künstlich frameraten gedrückt werden, renderpfade angesprochen werden, die auf einem hersteller nicht anständig funktionieren, die engine über 100 fps nicht mehr in echtzeit läuft oder der schlampige dx11 port gerade so für den dx11 scheduler von nvidia reicht und der hw scheduler von amd vollgas im regen steht und gerademal so die halbe gpu genutzt wird.

nvidia steckt natürlich viel mehr geld und manpower in das thema (was amd nur begrenzt kann), die 80% marktanteile von nvidia tun dann ihr übriges, dass spiele nur auf nvidia optimiert werden. amd kann hier nur mit einem treiber ein paar sachen ausbügeln und so viel rohleistung in die karten buttern, wie irgend möglich (was man an vega mal wieder sieht), aber wenn bei der spieleentwicklung amd grafikkarten schon irrelevant sind und nicht beachtet werden, macht amd hinterher mit einem treiber alleine überhauptnichts mehr.

Cohen schrieb:
aber dann trotzdem bei populären "unterirdische cross-plattform ports" einbricht? Das zeigt dann zwar die theoretische Mehrleistung, die aber im Großteil der populären Spiele leider gar nichts bringt.

nvidia spielt hier die eigene marktmacht aus, um bei großen titeln mit "gameworks" oder anderer "unterstützung" an bord zu sein, um über gameworks - vorallem tesselation - techniken zu nutzen, die auf amd karten nur sehr ineffizient laufen, weil die, im gegensatz zu nvidia, nicht extra hardwareseitig dafür vorgesehen sind irrwitzige mengen an überflüssigen polys zu berechnen. gleichzeitig ist gameworks proprietär und kann von amd nicht richtig gegenoptimiert werden. und weil nvidia für dx immer nach hinten optimiert, blockiert nvidia hin und wieder auch mal ganz gerne den einsatz von neuen technologien, die auf amd karten besser laufen.

es gibt haufenweise spiele, die auf amd nicht richtig gut laufen wollen (anno, mirrors edge usw.), und wo nvidia dann als einziger vernünftige fps produziert, umgekehrt sind die sog. "amd benchmark" spiele keine desaster für nvidia, sondern die karten schneiden immernoch erwartungsgemäß ab - bpsw siehe doom. noch nie hat eine amd karte eine nvidia karte in einem "amd benchmark" deklassiert - umgekehrt passiert das aber ständig. unter diesen bedingungen sollen grafikkarten gebencht werden, und von diesen benchmarks hängt dann hinterher der ganze erfolg oder misserfolg der gesamten gpu-generation ab? das öko-system um grafikkarten ist so komplex, dass bei einem gpu benchmark eigentlich zu 50% der software stack dahinter gebencht wird und nicht die eigentliche hardware. wie groß soll hier der einfluss sein?


Cohen schrieb:
Ein Benchmark-Parkour mit ausgewählten Vorzeigetiteln so wie du ihn vorschlägst, bei der man sämtliche "schlecht" programmierten Spiele ausgrenzt (egal wie populär), nimmt den Ergebnissen doch jegliche Relevanz.

und nach der pfeife von nvidia zu benchen nimmt dem benchmark nicht jegliche relevanz? nvidia kann sich nichts besseres vorstellen als >50% gameworkstitel, die mit voller tesselation gebencht werden. zähl mal die titel im CB benchmark, in denen die Fury X in WQHD gegen eine 1060 verliert und dann überlegst du dir mal, ob der parkour in der form wirklich relevant ist. die anderen tester haben ebenso durchwachsene ergebnisse, die aber auch immer wieder auf totalausfälle von nvidia-optimierten spielen zurückzuführen sind.
das ist so, als würde man zum releasezeitpunkt von doom @vulkan das spiel 8x in die gesamtnote einfließen lassen - die gtx 1080 würde gegen die fury x ganzschön alt aussehen. und in dx11 + gameworks ist das für nvidia genau das selbe - das reinste heimspiel.

das wirklich tragische an der geschichte ist, dass die leute auch zu doof sind was anständiges aus den ergebnissen zu machen. hier auf cb hätte man ja die möglichkeit sich die zahlen einzeln anzuschauen und sich eine differenzierte übersicht zu verschaffen, vorallem auch mit den neuen 99th %, das wird aber irgendwie nicht gemacht.
hier werden unter #failvega verbrauchsmessungen vom BF1 benchmark mit den fps von GTA5 gegenübergestellt, was kompletter blödsinn ist.
genau so schauen sich die leute im performance index den längsten AVG balken an, nvidia führt in jeder leistungsklasse (kein wunder bei der masse an gimpworks titeln), hinterher gehts zur preisleistung, die genau auf den selben zahlen basiert, und dann wird erstmal zünftig losgebasht.

vega hat derzeit noch einige schwächen, aber auch einige stärken. aber in der form der präsentation sticht nur heraus, dass vega im durchschnitt (!!) schlecht abschneidet - und dann wird der vega bash auch schon unter den artikel gepostet.
 
Bei AMDs aktuellen Grafikkartenangeboten frage ich mich echt, ob eine Investition in Freesync-Monitore noch sinnvoll ist.
Wollte eigentlich nächsten Monat einen Sync-Monitor samt Grafikkarte kaufen, Vega 56 gefällt mir auch ganz gut, aber wie geht es weiter mit AMDs Grafiksparte? Highend erwarte ich so schnell nicht mehr und Volta hat genug Zeit zum Reifen weil fertig.

Wenn Navi sich wieder so sehr verzögert wie Vega steht man in zwei Jahren da, möchte vielleicht aufrüsten (weil aktuelle Spiele vielleicht etwas mehr Grafikleistung wollen), hat das Geld aber ist dank Freesync an AMD gebunden, die womöglich wieder nichts liefern können oder wieder nicht schneller werden - so wesentlich schneller als Fiji ist Vega ja auch nicht.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben