Test Radeon RX Vega 64 Red Devil im Test: PowerColors Kühler bringt Vega zum Schweigen

Die Karte ist was für Bastler... ich muss undervolten, Bios wechseln und und und. Nix mit out of the box. Und dann bekomm ich Leistung auf dem max. Niveau einer 1080 die es seit knapp 2 Jahren gibt. Dafür ist sie aber teurer.

Der große Wurf ist das nicht. Nicht mal ein Anschluss da es kein High End Gegenstück gibt.

Für die Die Hard Fans bestimmt was aber jede Custom1080 ist nicht schlechter aber günstiger.

Und das 4 Monate nach Release erst die Custom kommen zeigt auch das die Boardpartner davon nicht begeistert sind.

Gruß

Holzinternet

Edit:

Sehe das es nur im Silent Mode einen Zero Fan Mode gibt. Ohne Worte... das ist heut bei allen Custom in dem Preissegment standart.
 
Zuletzt bearbeitet:
Mal gucken ob der Preis gehalten werden kann. 559€ sind relativ fair für so eine Karte, auch wenn sie abgrundtief hässlich aussieht.
 
DayMoe schrieb:
Ich würde gerne mal eine Lanze brechen für die Tester (nicht nur CB). Was sollen die denn machen ? Undervolting, PT, Overclocking ? Ja kann man machen als Tester, aber für 20 Karten ? Ich würde behaupten das ist nicht der Fehler der Tester sondern der von AMD/Partnern, und wie geschrieben, ich besitze selbst eine Vega 56 also das ist kein nVidia-Fanboy-Bash.

Wieso setzen die dermaßen hohe Spannung an ? Mein HBM läuft mit 945 MHz bei 800 mV (werksseitig glaube ich waren das 900 mV bei einer Vega 56). Das dies wahrscheinlich nicht für alle Varianten möglich ist, ist klar aber man könnte ja theoretisch werksseitig bei um die 950 mV ansetzen ? Das gleiche gilt bei der Vega 56 für die P-States, P7 läuft werkseitig mit 1200 mv und P6 mit 1150 mV (wenn ich mich richtig erinner) bei mir laufen die mit 1030 und 1080 und das sehr stabil. Werksseitig 1050 und 1100 klingt da meiner Meinung nach vernünftig. Dafür hätten sie werksseitig das Powertarget erhöhen können und oh Wunder .... mehr Leistung bei vermutlich ähnlichem Powerdraw. Die ganze Vega Geschichte verstehe ich einfach nicht. Das sieht fast aus als würde sich AMD selbst sabotieren WOLLEN. Die müssen doch wissen, dass Tests in 99% der Fälle mit Stock-Settings gemacht werden.

Ich verstehe deine Argumente und teile deine Meinung, aber dass du den HBM undervoltet hast, halte ich für ein Gerücht. An den Wert kommst du nämlich nicht ran. Der Wert der da MEM-Voltage heisst, spricht nicht den Speicher an, sondern scheint so etwas wie eine Basis-Spannungslevel zu sein.

Der einzige Grund, den ich mir vorstellen kann, warum die Partner keine UV-Customs hinbekommen, ist der, dass da eventuell eine zu große Serienstreuung besteht als dass sie da den selben Wert für jede Karte vorgeben könnten.
 
Zuletzt bearbeitet:
Moment - die Lüfter bleiben nicht stehen, wenn die Karte im idle ist, aber das OC Bios gewählt?
Mit Verlaub, das ist Bockmist.
 
duskstalker schrieb:
jetzt, da man sich bei vega nicht mehr über lautstärke und stromverbrauch beschweren kann, ist der bios switch dran?
Man kann sich nicht mehr über den Stromverbrauch beschweren? Man KANN es nicht mehr?
Wegen 15 Watt weniger und ein Paar wenigen Prozenten mehr Leistung?
Das sind immer noch 70 Watt mehr als eine Stock 1080Ti und genausoviel wie ein sehr starkes OC-Modell, das nochmal fast 15% Leistung drauf legt.

Man kann sich also vollkommen berechtigt noch mehr als gut über den Stromverbrauch beschweren...
Vega ist immernoch ein Gaming-Flop, nur jetzt halt optional ein Leiserer...
 
duskstalker schrieb:
jetzt, da man sich bei vega nicht mehr über lautstärke und stromverbrauch beschweren kann, ist der bios switch dran?

Eine Lösung ohne das Gehäuse aufzuschrauben wär definitiv besser.

wieso eigentlich destiny 2 und f1 2017 als test titel, in denen vega 64 hinter der 1080 ist (ergo schlechte skalierung auf radeon), und doom und bf1 exklusiv beim stromverbrauch?

Weils um die OC Skalierung geht und kein AMD vs Nvidia.

die 80°C core sind erwiesenermaßen nicht wirklich zuträglich für die HBM2 temperatur - der kann nämlich auch throtteln.

Nö das wär völlig ausreichend, throttelt erst bei etwa 100 Grad.

standard bios mit uv, hbm oc und erhöhtem power limit wird wohl noch immer das mittel der wahl sein.

Kaum i-jemand unvervolted seine Grafik oder x86 Prozessoren, braucht ja nun ja wirklich ned testen.
Insgesamt is des ne schwache Leistung, im Endeffekt nur 4% vor der Referenzkarte, da kommen hoffentlich noch bessere, sonst liegt man gut 10% hinter den 1080 Customs, die ja bis 18% schneller sind als die Stockkarte.

DayMoe schrieb:
Schade eigentlich und das nur weil AMD eine sehr komische Strategie verfolgt. Man könnte die Vegas auch werksseitig schon wesentlich besser einstellen (wie mittlerweile allgemein bekannt, undervolting und PT)

Ne das könnte man ned, da muss du bissl Spielraum haben, sonst kacken da draußen tausende Karten ab unter Last.
UV geht auch bei Nvidia. Läuft nachher mit gleichem PT wesentlich schneller mit so -0,2Volt ohne mehr zu ziehn.
 
Zuletzt bearbeitet:
Für mich ist und bleibt die Vega64 viel zu langsam. Selbst die 1080Ti könnte ruhig nochmals schneller sein. ^^
 
Xeelee schrieb:

WLP ist nicht das Problem. Anscheinend hat der Konstrukteur von PowerColor hier ein Nickerchen gemacht, wenn er die Kühlfläche für den Chip überall auf die selbe Höhe gebracht hat, beim Chipdesign es allerdings Höhenunterschiede zwischen GPU und HBM-Areas gibt - sieht zumindest so hier in dem Video so aus. Das erinnert mich an EVGA mit den Pascal-GPUs zum Start. Die haben auch Toleranzen falsch berechnet oder gar ignoriert (what ever).
 
Gschwenni schrieb:
Weils um die OC Skalierung geht und kein AMD vs Nvidia.

Ja klar und für den Verbrauch nimmt man Doom und Battlefield 1......die auf Vega ziemlich gut im Verhältnis zu den anderen Spielen laufen und stärker auslasten in Folge dessen hat man auch eine höhere Leistung explizit in den Spielen aber auch einen höheren Verbrauch, welcher sich nicht in den anderen Spielen wiederspiegeln kann. Oder meinst du ein Destiny 2 mit DX 11 lastet auch nur annähernd so aus wie die Vulkan API in Doom ???????

( Da kann ich dir schon garantieren ohne es getestet zu haben, dass Destiny 2 auf einer Vega einen geringeren Verbrauch haben muss als mit Doom)


Selbst eine Vega 64 ist in Doom in der Referenz schon min. 10% schneller als eine Custom 1080. Ergo muss ein höherer Verbrauch als in anderen Spielen anliegen, weil die Software die Architektur wesentlich besser auslasten kann.

Also ist das definitiv eine Fragwürdige Entscheidung das in den Verbrauch einfließen zu lassen, Wenn im Gesamtbild die Vega durch die anderen Spiele ein schlechteres Leistungsbild erhält.

Edit: Hier Nochmal die Screens vom Referenz Test der Vega bei Doom Und BF1:

Bei BF1 sind es alleine 20% in der Average und 33% mehr Leistung in der 99% Percentile welche somit an der Leistung einer TI kratzt was die konsistenz der Bildrate betrifft..
Bei Doom sind es zwar nur 10% in der Average aber mit 17% mehr Leistung bei der 99% Percentile.

Das sind die zwei Spiele die am Besten auf Vega laufen, aber auch am stärksten auslasten....




Kaum i-jemand unvervolted seine Grafik oder x86 Prozessoren, braucht ja nun ja wirklich ned testen.
Insgesamt is des ne schwache Leistung, im Endeffekt nur 4% vor der Referenzkarte, da kommen hoffentlich noch bessere, sonst liegt man gut 10% hinter den 1080 Customs, die ja bis 18% schneller sind als die Stockkarte.

Ja dann bin ich ja der "Kaum i-jemand" Schon im UV/OC Vega Thread

Meine CPU läuft übrigens mit nicht mal 0,9 Volt seit Jahren!

Alle meine AMD Karten liefen immer mit Undervolting das sind schon garantiert 20-30% weniger Verbrauch bei gleichzeitig mehr Leistung, wer diesen Fakt bei Vega ignoriert wo alleine durch das Undervolting, Mindestens 20 % weniger Verbrauch bei 20 % mehr Leistung drinnen sind, von dem denke ich dass er Ignorant ist :D


Edit: Schon im UV/OC Vega Thread nachgeschaut wie wenige dort UV betreiben ? Soweit ich mich entsinnen kann, war es soweit JEDER.
 

Anhänge

  • Doom.PNG
    Doom.PNG
    70,5 KB · Aufrufe: 637
  • BF1.PNG
    BF1.PNG
    71 KB · Aufrufe: 609
Zuletzt bearbeitet:
janeeisklar schrieb:
> Leistungsaufnahme der Grafikkarte – Windows-Desktop 3.840 × 2.160, 60 Hz

Bitte mal etwas zeitgemäßer, wer tut sich denn noch 60Hz an.

Diejenigen die z.B. neben dem Gaming Wert auf ein gutes Farbspecktrum legen. In meinem Fall nutze ich ein 21:9 IPS Gerät an einer 1080ti mit 60Hz.

Alles was da bisher am Markt ist ist immer ein Kompromiss. Entweder bei der Wiederholfrequenz, der Auflösung, dem Panel, des Formats, der Ausleuchtung, selbst für richtig dicke Kohle gibt es keinen „perfekten“ Monitor. Wenn überhaupt nur auf dem Papier, dann aber meist mit Problemen bei der Ausleuchtung, der Farben, Kontrast etc.
 
danke für den test.

angesichts der ergebnisse drängt sich mir doch die frage auf welche existenzberechtigung das "standard"- und OC-BIOS haben. entweder deutlich mehr verbrauch oder lärm im idle, unter last deutlich lauter und das bei höchstens messbar mehr power:freak:

@ aivazi:
es soll auch leute geben die einfach ab werk ne gute karte wollen und sich nicht mit UV etc auseinandersetzen wollen. das hat mit "ignoranz" nichts zu tun.
 
@CB
Interessant wäre mal die Temperatur vom Hotspot gewesen. Bitte in Zukunft ein Bildchen mit GPU-Z.
Der Rest konnte bei den Einstellungen ja nicht anders sein als bei der Strixx.

für alle Nichtveganer - schaut mal in den Vegathread was mit UV geht:
https://www.computerbase.de/forum/t...rfahrungsthread.1704140/page-40#post-20565029
>797 mit Wakü ist dann der Hammer (175W+40W bei 1500Mhz)
Wenn man dann im Spiel noch ein fps-limit einzieht ist man <150W+40W.

>927 mit Wakü (343W+40W bei 1700Mhz)
https://www.computerbase.de/forum/t...rfahrungsthread.1704140/page-40#post-20565029
 
Zuletzt bearbeitet:
Deathangel008 schrieb:
@ aivazi:
es soll auch leute geben die einfach ab werk ne gute karte wollen und sich nicht mit UV etc auseinandersetzen wollen. das hat mit "ignoranz" nichts zu tun.

Das Vega ein Reinfall für den normal Konsumenten und ohne Feintuning nicht zu gebrauchen ist, ist mir selber klar, ich würde auch keinem eine Vega in der aktuellen Lage empfehlen, wenn jene Person nicht wirklich lust hat an den Settings zu pfeilen.

Es geht nur darum dass die Rufe nach UV Test in dem Forum immer stärker werden, aber einfach nicht gehört werden.

Ist ja nicht schon länger bekannt, dass die Spannung bei Vega Aufgrund der Fertigung einfach nur gemittelt wird und auf allen Chips einfach dann die Spannung anliegt die der schlechteste Chip auf dem Wafer benötigt ^^

Edit: Also Quasi immer 1100-1150 mV ^^, und da der Vega Thread ziemlich gut beweist, dass wirklich alle Chips mit einer geringeren Spannung stabil laufen können, wäre das mal einen Blick wert.
 
Zuletzt bearbeitet:
SKu schrieb:
WLP ist nicht das Problem. Anscheinend hat der Konstrukteur von PowerColor hier ein Nickerchen gemacht, wenn er die Kühlfläche für den Chip überall auf die selbe Höhe gebracht hat, beim Chipdesign es allerdings Höhenunterschiede zwischen GPU und HBM-Areas gibt - sieht zumindest so hier in dem Video so aus. Das erinnert mich an EVGA mit den Pascal-GPUs zum Start. Die haben auch Toleranzen falsch berechnet oder gar ignoriert (what ever).

Wo habe ich geschrieben, dass die WLP das Problem ist?
Mich würde interessieren ob die Karte von CB auch aus dieser Charge stammt und die HBM keinen Kontakt mit der WLP haben und so fröhlich vor sich hin köcheln.
 
sieht doch so aus -
karte für 459 => gekauft,
karte für 559 => uninteressant.
tja, dann warten wir halt die nächste generation ab, die auch 4k befeuern kann, dann kaufe ich auch für 750 euro :D
 
Ja klar und für den Verbrauch nimmt man Doom und Battlefield 1......die auf Vega ziemlich gut im Verhältnis zu den anderen Spielen laufen und stärker auslasten in Folge dessen hat man auch eine höhere Leistung explizit in den Spielen aber auch einen höheren Verbrauch, welcher sich nicht in den anderen Spielen wiederspiegeln kann. Oder meinst du ein Destiny 2 mit DX 11 lastet auch nur annähernd so aus wie die Vulkan API in Doom ???????

Deswegen nimmt man zum Leistungsvergleich auch den 3D Mark Firestrike Ultra weil der die Karten auch zusätzlich ins TDP Limit pustet. ^^

Da sieht man dann auch welche Karte im worst Case Szenario mehr leistet.
 
Gschwenni schrieb:
Eine Lösung ohne das Gehäuse aufzuschrauben wär definitiv besser.

achja, dann zeig mir doch mal ne nvidia karte, die einen von außen erreichbaren bios switch hat - wenn das jetzt auf einmal ein valider kritikpunkt bei einer amd karte ist, frage ich mich, wieso man bei nvidia karten nichts davon liest - die haben ja teilweise nichtmal n switch - aber da stellt sich dann natürlich auch nicht die bios-switch-ergonomie-frage.

ich kann mich nicht erinnern, dass sich jemals irgendjemand irgendwann überhaupt über einen bios switch beschwert hat. von allem vega-bashing ist wohl der bios switch der schwachsinnigste aufhänger überhaupt. dass dieses gespräch überhaupt geführt werden muss :freak:

Gschwenni schrieb:
Weils um die OC Skalierung geht und kein AMD vs Nvidia.

achso, wäre mir anhand der abwesenheit von nvidia karten garnicht aufgefallen.
aber mal wieder hast du den kern der aussage nicht verstanden. offensichtlich ist der punkt, dass die radeon karten in nvidia spielen schlecht skalieren (weshalb ja die v64 hinter 1080 FE ist - fury, v56 und v64 innnerhalb von 15% abstand kommt schon auch mal vor). daraus ein OC scaling zu machen, ist sehr fragwürdig, weil offensichtlich generell was mit der performance nicht im reinen ist - und anhand dessen soll dann ermittelt werden, wieviel mehrleistung OC bringt? dass die mehrleistung des oc einfach im spiel verpuffen könnte, weil wo ganz anders ein bottleneck ist (treiber, optimierung, tessellation), kommt einem da nicht in den sinn? und genau das deutet sich in destiny 2 und f1 2017 an - denn hier sind die gewinne durch oc am kleinsten, im vergleich zu witcher 3 und wolfenstein.

und jetzt würde ich mal gerne wissen, wieso man hier ausgerechnet die zwei krücken destiny 2 und f1 benchen musste, wenn zum stromverbrauch messen BF1 und doom gelaufen sind?!

abgesehen davon finde ich UHD only schlecht gewählt, weil sich hier die ergebnisse kurioserweise alle zwischen 40-50 fps abspielen - und der schlechteste zum besten wert teilweise nur 2-4 fps sind - messungenauigkeit von 1 fps sind manchmal schon 50% abweichung des ergebnisses. das ist imho irgendwie ungeeignet. WQHD hätte mit höheren fps belastbarere ergebnisse geliefert.

Gschwenni schrieb:
Nö das wär völlig ausreichend, throttelt erst bei etwa 100 Grad.

quelle? buildzoid war sich nämlich ziemlich sicher, dass das package bei 60-70°C bleiben sollte.

Gschwenni schrieb:
Kaum i-jemand unvervolted seine Grafik oder x86 Prozessoren, braucht ja nun ja wirklich ned testen.
Insgesamt is des ne schwache Leistung, im Endeffekt nur 4% vor der Referenzkarte, da kommen hoffentlich noch bessere, sonst liegt man gut 10% hinter den 1080 Customs, die ja bis 18% schneller sind als die Stockkarte.

die widersprüche hier wieder. OC ist ok - UV nicht. aber so funktioniert vega eben nicht. vega schöpft in alltagssituationen mehr takt aus dem undervolt (durch den temperatur und powerlimit headroom) als man mit OC und powerlimit sinnvoll reinbuttern kann. ist nunmal so - ende. da braucht man nicht jedesmal kommen "aber nvidia karten übertakten anders, deshalb ist vega kacke". es gibt nunmal unterschiede zwischen vega und anderen karten, so wie auch ryzen anders ist als intels core architektur.

jeder, der eine vega hat, kann bestätigen, dass UV die besten ergebnisse liefert. also gehört das auch gebencht.
 
steve127 schrieb:
sieht doch so aus -
karte für 459 => gekauft,
karte für 559 => uninteressant.
tja, dann warten wir halt die nächste generation ab, die auch 4k befeuern kann, dann kaufe ich auch für 750 euro :D

Die Custom RX56 passt dann schon für Dich bei 1080p (kannst auch auf 1440p aufrüsten).
Wenn Du UV/OC sollte es auch für 4k reichen.
Da Du eh 750,-€ locker machen willst wäre die RX64LC oder eine Custom RX64LC in der Range.
Da haste dann schon zu Weihnachten das Vergnügen.
Und ganz nebenbei funzt Vega hervorragend mit HDR.

O-Ton Sony: "HDR is bigger then 4k"


Vielleicht solltest Du aber einfach erstmal Deinen Ram aufstocken. Dann kannst Du noch 2 Generationen warten.
 
Zuletzt bearbeitet:
jeder, der eine vega hat, kann bestätigen, dass UV die besten ergebnisse liefert. also gehört das auch gebencht.

UV liefert die einzigen Ergebnisse. Meine Vega 64 LC hat ja nicht mal mit Standard Settings und voll aufgedrehten Power Limit seinen max Takt von 1752 MHZ aufgrund von Powerlimit erreichen können. Man muss das Powerlimit verschieben, einfach Powerlimit hochdrehen bringt aber dabei nichts wenn der GPU Hotspot wie bei mir fast 100 Grad erreicht. :D
 
Gschwenni schrieb:
Kaum i-jemand unvervolted seine Grafik oder x86 Prozessoren, braucht ja nun ja wirklich ned testen.
Insgesamt is des ne schwache Leistung, im Endeffekt nur 4% vor der Referenzkarte, da kommen hoffentlich noch bessere, sonst liegt man gut 10% hinter den 1080 Customs, die ja bis 18% schneller sind als die Stockkarte.

Deine Unwissenheit deckt sich mit deiner grässlichen Schreibe.
 
Zurück
Oben