Test Radeon RX Vega 64 Red Devil im Test: PowerColors Kühler bringt Vega zum Schweigen

Danke für den Test!

Jetzt muss nur noch der Preis halbwegs passen. Dann kann man Vega vlt. mal empfehlen oder selbst in Betracht ziehen als nächste GraKa.
 
Gschwenni schrieb:
Eher gehts um die Customhersteller, die sind ja verantwortlich. Ned AMD oder Nvidia.
Kann mia kaum vorstellen dass die da Vorgaben machen wo der Bios Switch zu sitzn hat.

also gut, dann werde ich mich zukünftig auch bei jedem nvidia release darüber beschweren, dass der bios switch nicht am pcie slotblech sitzt. war wohl einfach nur "zufall", dass man sich bei amd zuerst über die position des bios switches beschwert - und liegt bestimmt nicht am bashing modus, in den so mancher verfällt, der von "AMD" in einer textzeile getriggert wird.

Gschwenni schrieb:
Du findst es also ned praktischer wenn du dein BIOS außen umschalten kannst und willst lieba des Ghäuse aufschraubn?
Als Kunde will man schon solide Lösungen, oder darf ma des ned sagen?

bios switch benutzt man vielleicht 1-2 mal im jahr - wenn hier das gehäuse öffnen zu viel arbeit ist, würde ich mal mein hobby überdenken. der rest kann über die existenz eines bios switches einfach hinwegsehen und so tun als ob er garnicht da wäre. aber ich würde dann doch gerne mal wissen, wie viel praktischer denn ein bios switch am pcie slotblech wäre. stelle mir das kaum besser vor zwischen den monitor kabeln, und wirklich viel sicht auf das slotblech hat man auch nicht. naja, hauptsache beschweren. auf der anderen seite ist das gras immer grüner.

Gschwenni schrieb:
Glaub ich kaum dass OC schlecht skaliert. Schau doch mal die Taktraten an, da geht kaum was nach oben.
Das passt so scho.

der core ist power target limitiert durch eine zu hohe vcore - das kommt vom "nicht undervolten" - das war aber nicht das, von dem ich gesprochen habe.
also nochmal: wieso werden spiele, die auf radeon karten nicht so laufen, wie sie sollten, dafür herangezogen, die OC skalierung zu bewerten? wieso sollen die karten hier mit oc skalieren, wenn die basis-werte schon dafür sprechen, dass da irgendwas nicht stimmt?

der logik nach müsste man hier spiele hernehmen, die auf radeon karten anständig performen, damit man eine höhere chance hat, dass die leistung auch entsprechend (linear) abgerufen wird. ich bin mir bspw relativ sicher, dass doom mehrtakt auch mit mehrleistung belohnt - bei nvidia titeln, in denen die gtx 1060 eine vega 56 überholt, bin ich mir da nicht mehr so sicher.

es gibt bspw. auch cpu anwendungen, die in bestimmten konstellationenen nicht mehr mit coreclock skalieren. und genau die sollte man auch nicht dafür heranziehen, um oc performance zu testen.

kurz: ich habe zweifel daran, dass nvidia titel (+ generell UHD statt WQHD) aus wissenschaftlicher sicht die richtigen test-parameter sind, um ein vega performance delta stock vs oc zu ergründen. kann sein, dass mit doom das selbe rauskommt, aber solange das nicht bewiesen ist, bleibe ich skeptisch. und bei UHD sind die deltas so klein, dass messungenauigkeiten enorm viel einfluss aufs ergebnis haben.


Gschwenni schrieb:

das reicht höchstens für kopfschmerzen - ein keramikkondensator als beleg dafür, dass hbm2 erst bei "etwa 100°C" drosselt? alles klar :rolleyes:


Gschwenni schrieb:
Dann kommt die Frage auf wieso man Nvidiakarten nicht undervoltet ...

oc / uv gehört spätestens seit wattman zum produktumfang von radeon karten. bei nvidia muss das über 3rd party tools gemacht werden. das wäre mein argument, wieso amd ja und nvidia nein. zudem ist doch der allgemeine konsens, dass nvidia out of the box hui, amd pfui.
vega braucht einfach aufmerksamkeit vom user - das hat sich leider nicht den customs nicht geändert - aber die vcore in wattman absenken ist einfacher als ne email schreiben. und die nvidia karte, die dadurch so viel performance dazu bekommt wie vega würde ich gerne mal sehen.

aber bitte nicht wieder nen keramikkondensator verlinken. auch keine drosselspulen oder das datenblatt von einem porsche 911 aus 1987.
 
Zuletzt bearbeitet:
Gibt es für die Vega 64 mittlerweile auch einen Bios Editor bei dem man das TDP Limit anheben kann? Die 400 Watt bekomme ich aktuell ganz gut gekühlt mit Nvidia Referenzkühler, mit Custom Wakü block sollte auch bei der Vega 64 über 400 Watt kühlbar sein wenn die VRMs ausreichend ausgelegt sind.
Da braucht man keinen Editor für. Vrm's kommen noch gut mit.
 
Zuletzt bearbeitet:
Hab mir letztens eine 1080 gekauft und die ist heute angekommen.
Zwecks freesync Monitor überlege ich nun diese wieder ungeöffnet zurück zu schicken um mir die zu RX 64 holen.

Reicht dafür mein Netzteil aus(siehe Signatur)?
 
Taxxor schrieb:
19% mehr Leistung bei 8% mehr Verbrauch finde ich doch ordentlich

Ich nehm an du hast die 56er und nicht die 64er, die Werte sind soweit völlig i.O. und normal, das geht mit so ziemlich jeder NV auch. PT gleich lassn, Spannung runter Takt hoch usw.
Aber Vega 64 soll hier 20% schneller bei 20% weniger Leistungsaufnahme sein und davon is einfach nix zu sehen.
 
Zuletzt bearbeitet:
Ja ich habe die 56er, die 64er hat aber in etwa das gleiche Potenzial, was die absolute Leistung angeht.
Etwas mehr da man den HBM auch gut auf 1100Mhz hauen kann, wobei das mit der 56er und 64er BIOS auch geht.

Der eigentliche eingestellte Takt der 64er liegt gar nicht viel höher, nur der reale Takt ist höher und das auch nur weil das Powerlimit ab Werk höher liegt.
Eine 56 mit erhöhtem Powerlimit und 945Mhz HBM ist dann auch genau so schnell und verbraucht genau so viel wie die 64. Die zusätzlichen Shadereinheiten scheinen noch keine Auswirkungen in Games zu haben.
Somit sind eigentlich bei UV die beiden Karten gleich.


Weniger Leistungsaufnahme wird man aber definitiv nicht hinbekommen, solange man mit dem UV nicht auch gleichzeitig den Takt massiv senkt, also die 1300-1400Mhz und dann auf 950mV stellen.
Und das geht nicht so ohne weiteres, da man ja nur P6 und P7 einstellen kann und wenn die niedriger als P5 liegen, die Karte einfach diesen nimmt.

Aber dann hat man eben auch keine Mehrleistung sondern nur weniger Verbrauch.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Weniger Leistungsaufnahme wird man aber definitiv nicht hinbekommen, solange man mit dem UV nicht auch gleichzeitig den Takt massiv senkt, also die 1300-1400Mhz und dann auf 950mV stellen.

Ja, genauso ist es. Undervolting bringt bei Vega nur mehr Leistung wenn das PT limitiert, wie eben bei Nvidia genauso. Viel Unterschied gibts da einfach ned, deswegen bringt UV ja auch nicht mehr Leistung wenn man VEGA 56 mit ner Wakü fährt zum Bleistift.

duskstalker schrieb:
also gut, dann werde ich mich zukünftig auch bei jedem nvidia release darüber beschweren, dass der bios switch nicht am pcie slotblech sitzt

Ich werd zukünftig einfach ned mehr mit dir diskutieren, weil es mir zu dumm wird, ständig dieses Fanboygekeife und angemache, komm mal wieder down und entspann dich.:rolleyes:

war wohl einfach nur "zufall", dass man sich bei amd zuerst über die position des bios switches beschwert

Ich hatte mich ned bei AMD beschwert?! Sondern einfach gsagt was praktischer ist!

wenn hier das gehäuse öffnen zu viel arbeit ist, würde ich mal mein hobby überdenken.

Viel Arbeit ist es nicht nur praktischer:p.
Du kannst natürle a das Laufwerk ins Gehäuse bauen und die 5 mal im Jahr wo du des brauchst, dann jedes mal das Gehäuse aufmachen.:evillol:

aber ich würde dann doch gerne mal wissen, wie viel praktischer denn ein bios switch am pcie slotblech wäre. stelle mir das kaum besser vor zwischen den monitor kabeln, und wirklich viel sicht auf das slotblech hat man auch nicht. naja, hauptsache beschweren. auf der anderen seite ist das gras immer grüner.

Oder man nennt es einfach konstruktive Kritik im Falle hier gar ned an AMD.

duskstalker schrieb:
also nochmal: wieso werden spiele, die auf radeon karten nicht so laufen, wie sie sollten

Worauf beruht denn die Annahme dass es ned so läuft wies laufn soll? Das ist doch frei erfunden von dir ohne Beleg und grade weil hier kein Vergleich Nvidia gegen AMD gezeigt werden soll ist es zudem auch völlig LATTE.

das reicht höchstens für kopfschmerzen - ein keramikkondensator als beleg dafür, dass hbm2 erst bei "etwa 100°C" drosselt? alles klar

Es war die Rede vom Package, dazu auch die Erklärung als Text, da gehts um multilayer...

oc / uv gehört spätestens seit wattman zum produktumfang von radeon karten. bei nvidia muss das über 3rd party tools gemacht werden. das wäre mein argument, wieso amd ja und nvidia nein.

Also du schiebst feines UV und Ausloten als Muss für AMD Käufer als Argument vor und das soll auch hier in den Test, abers installierem vom Ars**brenner is genug Argument wieso AMD Ja und Nvidia nein, kaykay.
 
Zuletzt bearbeitet:
O-Saft-Killer schrieb:
Ja wobei das natürlich auch vom Glück abhängig ist. ;)
Kann ich unterschreiben komme zwar nicht so tief mit meiner 56er im UV wie bei ihm, bei mir läuft sie auf 1020mV und 1500mHZ ohne Probleme...

Weiss jemand in welcher Treiberversion das OSD aktivierbar ist?
 
Find das Design gelungen und für das gebotene noch aktzeptebler Preis .Der Test ist allerdings noch mit viel Luft nach oben gerade in Bezug auf UV .


janeeisklar schrieb:
> Leistungsaufnahme der Grafikkarte – Windows-Desktop 3.840 × 2.160, 60 Hz

Bitte mal etwas zeitgemäßer, wer tut sich denn noch 60Hz an.

Weil aktuelle UHD Monitore seltenst mehr können oder exorbitant teuer sind .Ausserdem reicht vielen ein 60Hz Moni in verbindung mit Sync Technik .Bei meinen aktuell gespielten Games z.B. Civ ist mir mein 60Hz IPS UHD Freesync LG lieber als mein 120Hz TN ohne Sync Acer ,beide 27" gross .
 
Zuletzt bearbeitet von einem Moderator:
duskstalker schrieb:
der logik nach müsste man hier spiele hernehmen, die auf radeon karten anständig performen, damit man eine höhere chance hat, dass die leistung auch entsprechend (linear) abgerufen wird. ich bin mir bspw relativ sicher, dass doom mehrtakt auch mit mehrleistung belohnt - bei nvidia titeln, in denen die gtx 1060 eine vega 56 überholt, bin ich mir da nicht mehr so sicher.

Computerbase nimmt eh jeweils nen Querschnitt mit ganzen 4 Spielen bei Leistungsaufnahme und Peformance.
Versteh deine Kritik hinten und vorne ned.
In Wolfenstein 2 bringt die Karte 6% mehr und in Destiny 2 auch 6%, oder ist dir Wolfenstein nicht AMD lastig genug?

kurz: ich habe zweifel daran, dass nvidia titel (+ generell UHD statt WQHD) aus wissenschaftlicher sicht die richtigen test-parameter sind, um ein vega performance delta stock vs oc zu ergründen.

Wie zur Hölle soll denn bei den paar Nutschgerl Mehrtakt die bei der Custom gehen auch groß Leistung gepresst werdn? Einfach nicht zu verstehn was du da zusammenschreibst.
In Destiny 2 ist die Leistung bei den Frametimes sogar 8% höher, in Wolfenstein 7%, skaliert Destiny jetzt also besser?:D

Ich denke da hat dir deine Nvidiaantipathie nen Streich gespielt.
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Computerbase nimmt eh jeweils nen Querschnitt mit ganzen 4 Spielen bei Leistungsaufnahme und Peformance.
Versteh deine Kritik hinten und vorne ned, man muss halt scho das DropDown Menü auch auswählen.

Hä, wurden Doom und BF1 inkludiert ? Soweit ich weiß wurden die nur zur Ermittlung des Stromverbrauch verwendet... Hätte man die im Leistungsschnitt mit einfließen lassen, wäre die custom Vega Im Durchschnitt sogar etwas schneller lt. Test , sind ja schließlich die beiden in denen Vega besser performt. In BF one Kommt schon die Stock 64 an die frametimes der Ti Ran..

Edition: hoppala, RotTR und Witcher sind auch in der Leistungsmessung dabei, aber nur die Performance von Witcher fließt ins Leistungsrating ein.
 
Zuletzt bearbeitet:
Begu schrieb:
Bei mir liegts eher daran, dass ich mit einem neuen Monitor liebäugle. Sync wäre schon cool, aber G-Sync ist bei IPS-Panel nicht bezahlbar und ich möchte eigentlich kein TN. Wenn man nun P/L bei 1080+Sync und Vega64+Sync betrachtet, dann verliert die 1080 leider massiv, obwohl es bei GPU-only andersherum ist...G-Sync ist einfach unverschämt.

Preis finde ich für die Custom recht gut, hatte mit deutlich mehr gerechnet.

Man muss bei dem Vergleich aber auch fair sein und darf nur freesync 2 bzw LFC fähige freesync Monitore vergleichen.

Diese 48-75hz Range ist doch auch nur Bauernfängerei.

Ich schieb meinen Monitor Kauf auch vor mir her, will ips am besten 21:9 30-34zoll mit 100hz. Da ist das Angebot einfach noch sehr traurig, auf die 150euro mehr für gsync kommts mir da schon lang nicht mehr an.
 
Gschwenni schrieb:
Ja, genauso ist es. Undervolting bringt bei Vega nur mehr Leistung wenn das PT limitiert, wie eben bei Nvidia genauso. Viel Unterschied gibts da einfach ned, deswegen bringt UV ja auch nicht mehr Leistung wenn man VEGA 56 mit ner Wakü fährt zum Bleistift.

Das PT Limitiert doch trotzdem, auch mit Wakü, die eliminiert nur das Temeraturetarget. UV muss man also dennoch betreiben um den eingestellten Takt zu erreichen.

Mit ner Wakü kann man das PT eben auf+50% stellen(auch mit Referenzkühler ist bei der 56 dadurch schon Spielraum da) und hat mehr Leistung, allerdings ohne UV auch bei exorbitant höherem Verbrauch.
 
Rock Lee schrieb:
Ich hoffe ich nerve nicht damit, aber ich habe nach 8 Seiten noch nicht nachvollziehen können, warum Vega trotz theoretisch passabler Übertaktbarkeit so wenig dabei rum kommt. Irgendwo muss es doch ein Bottleneck geben. Ist es die GCN-Architektur mit lediglich 4 Grafik-Pipelines, die an die CU-Cluster gehen am Ende? Brauch es mehr Pipelines?
Anhang anzeigen 653915

Es könnte ja auch daran liegen das die Primitive Shader noch Inaktiv sind.

Vega kommt darüber hinaus mit einer neuen Geometry Engine daher. Sie verändert die traditionelle Renderpipeline und ersetzt Vertex Shading sowie Primitive/Geometry Shading durch Primitive Shader.
Laut AMD soll die maximale Durchsatzleistung für Geometrie auf Vega durch die „Next-Generation Geometry Engine“ um den Faktor vier höher ausfallen als beim traditionellen Rendern. Die Primitive Shader werden vom Treiber verwaltet und müssen nicht manuell in die Software integriert werden. Entwickler können das aber tun.
10-1080.2504167248.jpg
 
aivazi schrieb:
Hä, wurden Doom und BF1 inkludiert ? Soweit ich weiß wurden die nur zur Ermittlung des Stromverbrauch verwendet... Hätte man die im Leistungsschnitt mit einfließen lassen, wäre die custom Vega Im Durchschnitt sogar etwas schneller lt. Test

Vega kämpft in dem Test nur gegen sich selbst, keine Ahnung wovon du redest und wieso Vega jetzt schneller werden soll und was es bringen soll.
Sogut wie jedes Spiel wird auf der VEGA Red Devil 5 bis 7% in etwa schneller laufen als auf der Referenzkarte.

Toni_himbeere schrieb:
Man muss bei dem Vergleich aber auch fair sein und darf nur freesync 2 bzw LFC fähige freesync Monitore vergleichen.

Nicht zu vergessen is das Monitor-Overclocking bis 200 Hertz oder gar teils mehr, des machts noch ordentlich gschmeidig.;)
 
Zuletzt bearbeitet:
Toni_himbeere schrieb:
Man muss bei dem Vergleich aber auch fair sein und darf nur freesync 2 bzw LFC fähige freesync Monitore vergleichen.

Diese 48-75hz Range ist doch auch nur Bauernfängerei.
Grundsätzlich richtig. Ich spiele mit den Gedanken in Richtung Acer XF270HUA, also 40-144Hz FreeSync für 500€. Bei G-Sync fängt der Spaß bei 750€ an und für mich sind 250€ schon eine Hausnummer, insbesondere da meine persönliche Schmerzgrenze bei 1.000€ für Monitor + GPU liegt. So gesehen würden dann nämlich nur noch 250€ für eine GPU "übrig" bleiben, was einfach sinnlos ist. Da brauch ich keine neue GPU kaufen.
 
Gibt es eigentlich aktuelle Informationen zu den Primitive Shadern von Vega? Ich finde dazu momentan nur Infos von vor mindestens 2 Monaten, in denen es heißt, dass die noch nicht funktionieren, treiberseitig aktiviert werden müssten und dann einen Leistungsgewinn unbekannter Höhe bewirken werden. Ist das noch aktuell?

@O-Saft-Killer: Danke für den Benchmark-Tipp, sollte für meine Zwecke reichen :)
 
Hallo Wolfgang,

danke für den Test :)

Es wäre super, wenn ihr bei den Tests von Custom-Karten immer auch eine leistungstechnisch ähnliche Referenzkarte aus dem "anderen" Lager mit in die Benchmarks mit aufnehmt. Bei der Powercolor Vega 64 hier also eine 1080 (Ti). Das macht einem den Vergleich etwas leichter. Natürlich hat man in etwa im Kopf, wo sich die Karten pi-mal-Schnauze bewegen, wenn man sich etwas damit beschäftigt. Aber wenn man quasi "quer" einfach nur den Artikel für sich liest oder auch nur mal zur Orientierung über die Diagramme fliegt, fehlt mir persönlich die Info schon so ein bißchen.

Muß ja kein neuer Test der anderen Karte sein - ne ganz einfache Referenz zur Orientierung aus einem der vorherigen Tests via Copy&Paste genügt ja :)

Grüße,
branhalor
 
Zurück
Oben