Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
paccoderpster schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!

Die Latenzen sind insgesammt niedrieger für die erreichbare Bandbreite.
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
Ich habe es zwar schon einmal hier im Thread geschrieben, aber in der Flut der Beiträge ist es wohl untergegangen.

Wie ist eure Einschätzung, ob die RX Vega 56 zum Mining taugt? Die 64 ist eh außen vor...

Mit meinem gefährlichen Halbwissen meine ich aus den Diagrammen zu erkennen, dass die Mining-Performance im Verhältnis zum Stromverbrauch tendenziell besser ist, als bei der RX 580.
Auch wenn sich - zum Glück - die Gerüchte über exorbitante Mhash/s nicht bestätigt haben, so ist das Thema doch nicht vom Tisch (leider), oder?
 
Hoffentlich uninteressant für Mining.
Was ich mir auch gut vorstellen kann eine Custom Vega 56 mit guter Kühlung, niedrigen Temperaturen und leise. Dazu ein wenig mehr Performance. Nur der Preis und Stromverbrauch könnten nicht so toll werden.
 
Cru_N_cher schrieb:
Die Latenzen sind insgesammt niedrieger für die erreichbare Bandbreite.

Ändert trotzdem leider nichts daran, dass selbst eine 1080 besser ist. Selbst wenn sie durch Treiber besser werden, will ich nicht so eine krasse Bananenhardware kaufen. Bei Assassin's Creed Unity wurde über das Bananenhafte gemeckert und bei AMD beruhigen einen (teilweise) die selben Leute, dass ja noch Treiber kommen werden.

Würde gerne zu AMD gehen, damit ich mir keinen G-Sync Monitor kaufen muss, aber so wird das leider nichts.
 
Zuletzt bearbeitet:
In der Karte schlummert noch sehr viel Potential, aber mit den 400W wurde hier der Ersteindruck total versaut. Was hättet ihr denn gesagt wenn die Karte 8% Langsamer, dafür aber über 100W Sparsamer in den Tests gewesen wäre?

Zwischenablage20.jpg
Zwischenablage19.jpg

Und das ist kein Undervolting oder ähnliches, das ist ein Feature, das die Karte bietet.... das einfach nicht getestet wurde, statdessen wurde das PT auf Anschlag gedreht, was maximal einen Sondertest wert gewesen wäre.
 
@whyme:
Naja, der Verbrauch ist trotzdem höher als bei der 1080 und die Leistung niedriger.
Und ich kaufe doch nicht so eine Karte, um sie dann im Energiesparmodus zu betreiben.
Ich kaufe doch auch keinen V8 um den per Zylinderabschaltung als 4-Zylinder fahren zu lassen wenn ich beschleunigen will, nur um weniger Sprit zu verbrauchen.
Genau so würde ich die Karte eher auf Anschlag laufen lassen wenn es notwendig ist, dann zieht die halt ihre 400W...wenn die Karte mehr Power hat als sie braucht (Framelimiter) dann darf sie auch gerne weniger verbrauchen.

Somit hängt der Verbrauch vom Spiel ab, wenn ich maximale Power für akzeptable Framerates brauche dann ist das halt so, dafür habe ich eine 500€ Grafikkarte im Rechner.
 
mit 200 Watt Verbrauch und nochmal 8% langsamer ist sie genauso uninteressant. Der Verbrauch ist dann immer noch höher als der 1080 und dafür ist sie dann merklich langsamer. Das sieht man aus deinen Diagrammen sofort, deine Frage kannst du dir damit nicht selbst beantworten? Oo Soweit ich weiß, wird da auch nur das Powertarget weiter gesenkt. Woha! Welch technische Raffinesse von AMD...

Ebenso das Preisgerede. Die wenigen Vegas für 509€, hat die auch tatsächlich irgendwer bekommen? Preisfehler? Oder Lockangebot? Wieso glauben plötzlich einige, dies sei definitiv der normale Straßenpreis? Die 609 haben weder was mit Mining zu tun noch mit knapper Verfügbarkeit, es ist ziemlich exakt das, was bei rumkommt, wenn die UVP mit 499,- USD angegeben wird. Fürs Mining ist die Vega 64 mit den Mh/s bei dem Verbrauch völlig uninteressant.

@PS: Wieso kommen eigentlich immer noch das Ammenmärchen daher, dass die Ti mehr als 250 Watt verbraucht im Schnitt? Soll mir mal einer erklären wie das ohne OC gehen soll, wo nahezu alle Partnerkarten bei 250 Watt abriegeln. Alles andere geht nur mit manuellem OC.
 
Zuletzt bearbeitet von einem Moderator:
Mal eine Wahnvorstellung von mir: Man schaltet das Nvidia Feature ab, alles fein, sieht man nicht mehr im Spiel. Nun ist wie bei PhysX aber eine Erkennung von GPUs integriert, die dann statt den Feature bei vorhandensein einer anderen GPU als Nvidia irgendwelche Bremsen aktiviert, um die Konkurenz schlechter dastehen zu lassen. Das würde ich Nvidia zutrauen, sowas in Gameworks integriert zu haben.

Nee das halte ich dann schon wieder für etwas sehr übertrieben, das würden Entwickler verdammt schnell merken.

Mich hat GameWorks sehr oft auf die Palme gebracht und das als Nvidia user, weil das Shader tuning meistens einfach in keiner relation zur Karten Performance steht und auch erstmal die Entwickler am suchen sind wo eigentlich die vernünftige balance liegt Volumetric Lighting und Global Illumination sind da bei Nvidia gute stichwörter und wenn das ganze dann noch mit Hairworks kombiniert wird ja da ist es dann auch kein Wunder wenn man plötzlich ne 1080 TI braucht um irgendwo noch ordentliche Performance zu erreichen für vieleicht minimalen visuelen Impact :D

Und ja Nvidia konnte super schnell auf TressFX optimieren AMD wird das aufgrund ihres Tessellation Geometrie nachteils nicht schaffen bei Hairworks aber ist es visuell nötig zumal das ganze ja extreme Psy LOD abhängig ist wo und wie man es einsetzt das ist doch die Frage man sieht die Efffekte meistens in Screenshots aber Temporale Effizienz sehe ich noch relativ wenig, der Performance Verlust ist aber deutlich und zwingt Nvidia user ja quasi zu dem nächsten Hardware Model je mehr es zum einsatz kommt vor allem unkonfigurierbar was allerdings gott sei dank die guten Entwickler mit vielen Optionen versuchen wenigstens kompensierbar zu machen für den Endnutzer auch wenn sie selbst garnicht die Zeit haben um die richtige balance zu finden.

Trotzdem hier wundere ich mich selber was los ist

AMD-Radeon-RX-Vega-64-Autodesk-3ds-Max-2017-AMD-ProRender.png
 
Zuletzt bearbeitet:
whyme schrieb:
Was hättet ihr denn gesagt wenn die Karte 8% Langsamer, dafür aber über 100W Sparsamer in den Tests gewesen wäre?

Naja, ich denke AMD hat sich dieselbe Frage gestellt und entschieden, dass weltweit gesehen, die Leistungsaufnahme weniger Gewicht hat als die reine Spieleleistung.
 
Oh mann, hätte ich mal noch gestern abend bestellt. Jetzt ist die RX Vega 64 black edition noch von 609€ auf 649€ hochgegangen :freak:
 
@Blade, was durchaus verständlich ist, da Deutschland weltweit mit die höchsten Strompreise hat und man zB in FR ein Drittel weniger zahlt & in Holland nur die Hälfdte etc.. Da relativiert sich das mit den Strommehrkosten doch schon deutlich.
 
Edelhamster schrieb:
Oh mann, hätte ich mal noch gestern abend bestellt. Jetzt ist die RX Vega 64 black edition noch von 609€ auf 649€ hochgegangen :freak:

Das habe ich gestern nachmittag schon gesagt .. War bei allen Polaris Karten schon so, am Release Verkaufstag ein einigermaßen Mittelmaß Preis, wobei MF sogar die 64er für 509€ im Sonderangebot hatte, und je nach Absatz Check wird dann in den nächsten Tagen der Preis relativ schnell ansteigen - Angebot und Nachfrage.
 
@Blade0479
Das mag wohl für bestimmte Länder gelten, wo der Strompreis auch keine Rolle spielt, aber gerade hier in Deutschland wo die Stromkosten ja in den letzten Jahren explodiert sind, spielt das schon eine Rolle. Vor allem bei den Leuten/Käufern, die auch selbst für ihren Strompreis aufkommen müssen und nicht in Hotel Mama Leben, wo einen die Stromkosten scheinbar ja auch nicht interessieren.

Und wenn man unsere großen Stromkonzerne so hört, ist davon auszugehen, dass der Strompreis in Zukunft alles andere als sinken wird. Und da die meisten Menschen ja auch mehr als nur einen Computer in Ihrer Wohnung mit Strom versorgen, schaut man auch schon mal, was die Geräte so verbrauchen und ob es da nicht günstigere Alternativen gibt.
 
Kann mir mal bitte irgendjemand erklären, wo genau die Rohleistung auf der Strecke bleibt? Irgendwo muss es doch ein Nadelöhr geben, welches die theoretische Leistung zurückhält? Ich verstehe es nicht.

Was mich angeht, warte ich mal die Tests der Custom-Modelle ab. Wenn überhaupt, wird es die Vega 56, da ich die RX480 gut loswerden kann.
 
MK one schrieb:
mit deinem Horizont scheint s auch nicht zum besten zu stehen wie es scheint , wer unbedingt High end haben will , bezahlt auch High end Preise , so lauten doch auch die Argumente für den Intel Preisaufschlag bei Prozessoren , nicht wahr ?
so lautet vielleicht deine Argumentation da alles über Preis X dich nicht interessiert. Wie teuer High End ist hängt schwer von der Konkurrenz ab. Schau einfach was ein Intel 10 Kern letztes Jahr und nun dieses Jahr gekostet hat.
Die Vega kam verspätet wegen der späten Verfügbarkeit von HBM2 , sonst hätte sie sich mit der 1080 um die Krone gestritten , die 1080 war auch der eigentliche Gegner .
HBM2 mit 4 GB / Stack gibt es seit einem Jahr (P100), genau wie den Tapeout zu Vega. Problem dürfte eher sein dass dieser teuer ist, genau wie ein 512mm² Chip - einen so großen Chip hat es nie in diesem Prozess gegeben. (14 nm GF) Genaugenommen gab es so ein Monster noch nie von GF, nur von TSMC.
Die Vega ist aber schon lange fertig. Klar dreht man noch hier und da an den Taktraten aber man kann davon ausgehen dass man nun min 8 Monate schon intensive Treiberarbeit geleistet hat. Das Teil ist nicht mehr so grün hinter den Ohren wie hier viele meinen. Problem war sicher schlicht dass dass man bei AMD auf Zeit gesetzt hat, jeden Monat Treiber Optimierung + fallende Kosten für HBM und Prozess mitnehmen musste um überhaupt sinnvoll an den Markt gehen zu können.
Wer sich nur ne konkurrenzfähige AMD Karte wünscht damit er sich billiger ne 1080 TI Karte kaufen kann , hat etwas nicht begriffen ...
die wenigsten warten wohl auf die Konkurrenz nur damit die Preise der Lieblingsmarke fallen. Man wartet auf die Konkurrenz ganz generell. Was fehlende Konkurrenz bedeutet sah man ja gut die letzten 6 Jahre bei Intel sowie die letzten zwei bei Nvidia / AMD.

Die Aussicht mit Vega ist schlicht düster. Die Hoffnungen stützen sich mehr auf den Treiber als auf irgend was anderes. Navi 7nm vielleicht, sofern der Prozess zeitnahe steht (was ich bezweifle angesichts der großen Die die nötig wäre) könnte AMD vielleicht über die kleinere Fertigung wieder besser mit spielen, aber auch das wird locker 12-24 Monate dauern. Wichtiger wäre dass AMD die eigene Architektur in den Griff bekommt, ggf über Gewinne aus CPU Verkäufen in der Lage ist wie Nvidia zweigleisig zu fahren. HPC Chip und Gaming Chip.

Fraglich auch ob das neue NCU Design nun endlich die Skalierung wieder verbessert. Man wird sehen wie schnell eine 8k Shader Vega wäre. Da sie aber bei gleichem Takt kaum schneller ist als Fiji, wenn überhaupt, schient auch der Schuss nach hinten los gegangen zu sein :-/

High End GraKa s kümmern mich ehrlich gesagt nen scheiß , ich brauch deren Leistung nicht .
VR wäre der einzige Grund warum ich eventuell ne leistungsfähigere Karte als die 480/580 brauchen könnte , sicherlich wird man Vega da auch noch testen

High End Grakas kümmern dich doch nur nen scheiß weil sie zu teuer sind - und warum sind sie das? Weil AMD nichts entgegen setzten konnte :rolleyes:

Schau einfach mal in Richtung R9 290X und GTX 980, und welche Preise die noch hatten. Wobei selbst da die Nvidia Karte deutlich früher am Markt war. Eigentlich müsste man noch mal ne Generation früher schauen... was kosteten da deine High End Karten? Sicher keinen 700-1200€.


@Cru_N_cher

Joa, irgendwo ist was im argen mit dem Design. Sei es Speicherbandbreite oder was anderes. Das Transistor / Performance Verhältnis is deutlich schlechter geworden als es sein müsste. Vielleicht schafft es AMD mit einem überholten Vega Design die größten Handbremsen zu lösen und hoffentlich dauert das keine 2 Jahre.
 
Zuletzt bearbeitet:
Ok, aus der Vega 56 kann wohl noch etwas werden. Der Preis muss allerdings unterhalb von 400€ liegen.
Bei der Vega 64 hoffe ich, das sie für Mining optimiert ist, und den Gamern erspart bleibt.
Vieleicht kommt ja noch eine Vega 58
Ansonsten muss man eben schauen, ob Treiberseitig noch was zu machen ist.
 
Zuletzt bearbeitet:
Man merkt schlicht das der Großteil des Budgets für Ryzen / Threadripper aufgewendet wurde und der GPU Bereich deutlich weniger Budget/Manpower bekommen hat.

Dazu darf man nicht vergessen das AMD sowohl gegen Intel als auch nvidia gleichzeitig anstinken muss, bei einem Bruchteil des Budgets. Und dafür halten sie noch recht ordentlich mit.

Aber ist es verwunderlich? Ich sage nein, denn der Großteil der (Gamer) Konsumenten kauft weiterhin nvidia GPUs - egal ob AMD eine gleichwertige/sogar bessere GPU am Start hatte. Man muss nur in die Vergangenheit gucken das nvidia trotz schlechterem Produkt gekauft wurde.
Selbst die goldenen Käfige Gameworks, GPU PhysX und G-Sync werden noch bejubelt, Betrugsgeschichten relativiert.

Bei so einer Kundschaft weiß man das diese Kundschaft es eigentlich nicht anders will, also weshalb soviel Geld aufwenden für "undankbare" Kunden, wenn diese die Produkte nicht kaufen, man dafür mit Ryzen aber Geld verdienen kann?

Bzgl der APUs mit Vega Architektur denke ich wird es deutlich besser, weil näher am Sweetpoint. Man sieht ja wie der Verzicht von 8% Performance eine 100W Ersparnis einbringt.
 
Blade0479 schrieb:
Naja, ich denke AMD hat sich dieselbe Frage gestellt und entschieden, dass weltweit gesehen, die Leistungsaufnahme weniger Gewicht hat als die reine Spieleleistung.

Leistung und Stabilität siehe Async Compute.

während Nvidia vieles des Managements auf die CPU drückt kann AMDs Hardware es selbständig managen mit wiederum niedriegeren latenzen das trägt auch zum Stromverbrauch bei in der Gesammtbetrachtung des Systems.
 
Zuletzt bearbeitet:
In Dx12 und Vulkan kann sich Vega definitiv sehen lassen. Bin gespannt, ob sie den Rest noch per Treiber hinkriegen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben