Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

Gleich schnell wie Referenz mit maximierten Powertarget.
Verbraucht dabei aber 90 Watt weniger als die Referenz mit maximierten Powertarget, wobei immer noch 100 Watt mehr als die Custom 1080er Konkurrenz. Immerhin schleicht man sich langsam an deren Leistung ran.

Mir zeigt dieser Test, wie lausig der Referenzkühler ist, die Asus leistet da schon beeindruckendes. Ich verstehe nicht, wieso man nicht von Anfang an die Partner machen lässt. Die Ergebnisse wären insgesamt zwar immer noch enttäuschend gewesen, aber längst nicht so katastrophal wie bei der Referenz-Vega.
 
Zuletzt bearbeitet:
Das schafft zwar auch das Referenzdesign mit maximiertem Power Target, doch wird dafür eine abartig hohe Lautstärke benötigt.
Würde ich anders formulieren. Die Lautstärke wird nicht benötigt, sie wird dabei erzeugt ;)
 
Also bei aller Liebe zu AMD/ATI, gegenüber einem AMD FX8320, ist die Vega richtig daneben gegangen. 100 Watt mehr ist nicht nur teuer, es muss auch diese zusätzliche Wärme abgeführt werden. Ich warte auf jeden Fall auf den Nachfolger und vergnüge mich in der Zwischenzeit mit Team Grün. Die RX580 hab ich grad verkauft, nachdem mir eine MSI GT1060 zugelaufen ist. Ach die läuft erheblich kühler und macht mein System endlich richtig leise. Und etwas schneller ist sie in FHD jedenfalls auch noch.
 
Zuletzt bearbeitet:
Wirklich toll was Asus da schafft. Hofge doch sehr das sie den selben Kühler dann für die Vega 56 nehmen und ich freue mich jetzt schon auf diese Karte!

Also mir persöhnlich würde es jetzt schon wehtun wenn ich mir die Referenzkarte geholt hätte wenn schon die erste gezeigt Costum um so vieles besser ist
 
Hallo zusammen,

ich versteh gar nicht, was ihr alle habt bzgl. der Leistungsaufnahme. Früher brauchte man für eine solche Grafikleistung noch deutlich dickere Netzteile. Außerdem ist "AMD-Hardware" in Summe deutlich günstiger als nVidia-Hardware, wenn man die Mining-Verrücktheit mal außen vor lässt. Z. B. sind Freesync-Monitore im Schnitt deutlich günstiger. Bei echten Top 1440p-Modellen wird der Preisunterschied sehr deutlich: 220 Euro bei folgenden Asus Monitoren: Asus MG279Q Asus PG279Q. Meckern kann man natürlich darüber, dass die Architektur nicht effizienter ist. Jedoch hat nVidia als Quasi-Monopolist in der Zeit als AMD nicht am Markt vertreten war (Übergang ATI-AMD) enorm profitiert und diesen Vorsprung kann AMD mit weniger Entwicklungsbudget (Vermutung) so schnell nicht aufholen.

Wenn ich also bei einer Vega 64, die nicht undervoltet ist, ca. 100W mehr verbrauche, dauert es zieeemlich lange, bis ich die 220 Euro Mehrkosten für die proprietäre G-Sync-Technologie mit einer GTX 1080 wieder reingeholt habe.
Außerdem zieht nVidia Euch das Geld aus der Tasche durch solche proprietären Technologien. Daher sollte man eher nVidia-Aktien kaufen, auch wenn die momentan recht teuer sind, wie ich finde. ;)

Ich für meinen Teil hab den MG279Q und eine MSI RX480, die mir aktuell reicht. Sobald eine vernünftige Partnerkarte der Vega 56 verfügbar ist, hole ich mir diese Karte, undervolte sie und werde wahrscheinlich sehr happy sein - auch weil ich den Underdog unterstütze und somit den Wettbewerb fördere. Für alle die maximale Leistung und 100fps+ brauchen (Nutzen darf bezweifelt werden für den Durchschnittsgamer), bleibt ja immer noch nVidia, wenn die Geldbörse es hergibt.

Grim
 
Zuletzt bearbeitet:
Mmh, also wenn die Karte 240 Watt ziehen darf und ich das PT um 50% erhöhe, müsste sie doch 360 Watt ziehen dürfen. Warum begrenzt sie sich dann trotzdem durchs PT und schafft es nicht die paar mehr MHz zum maximalen Turbo (1670 MHz) stabil zu fahren, wenn alles auf Anschlag steht?
Ist hier vllt. ein sehr aggressives Temp.Target wie bei Pascal, das schon ab 60°C anfängt zu drosseln? Was passiert wenn man gerade bei der Strix mit dem guten Kühler einfach die Lüfter mal test weise auf 100% stellt?
Undervolting fehlt auch noch.

Würde gerne mal das alles in den Tests näher beleuchtet sehen, denn vllt. sind die Dinger einfach nur Bastelbuden und händisch lässt sich noch einiges rausholen. Wäre nicht das erste mal und für mich persönlich auch gar nicht so schlimm.
 
Balikon schrieb:
Gleich schnell wie Referenz mit maximierten Powertarget.
Verbraucht dabei aber immerhin 90 Watt weniger als die Referenz mit maximierten Powertarget, wobei immer noch 100 Watt mehr als die Custom 1080er Konkurrenz. Immerhin schleicht man sich langsam an deren Leistung ran.

Mir zeigt dieser Test, wie lausig der Referenzkühler ist, die Asus leistet da schon beeindruckendes. Ich verstehe nicht, wieso man nicht von Anfang an die Partner machen lässt. Die Ergebnisse wären insgesamt zwar immer noch enttäuschend gewesen, aber längst nicht so katastrophal wie bei der Referenz-Vega.

Angenommen ich kaufe mir die Vega 64 im Referenzdesign und tausche den Kühler gegen eine Wasserkühlung. Dadurch wird die Kühlung besser und Geräusche ausgeschaltet, aber an der Effizienz und Verbrauch ändert das im Gegensatz zur Strix rein gar nichts. Korrekt?
Man soll ja die Referenzkarten für Wasserkühlung kaufen, aber dann hätte ich ja trotzdem eine schlechte Vega :freak:
 
Nicht vergessen sollte man hier, dass Asus den Chip zwar relativ leise kühlt, die vorhandene Abwärme aber natürlich trotzdem da ist. Die Kühlung ist nicht das große Problem von Vega 64 sondern der Chip, der weit überm Sweetspot läuft und bei weiterem OC richtig böse an den Kraftwerken nagt.
 
Teralios schrieb:
Und gerade die Effizienz ist für mich bisher der Gipfel an Unverschämtheit dieser Anti-AMD-Argumentation. Als AMD wirklich effizientere GPUs gefertigt hat war nämlich oft das Argument dann eben das besagte PhysX oder das ja die nVidia-Karten nen paar Prozent schneller sind usw.

Diesmal ist AMD aber nicht mal schneller im Gegensatz zu Nvidia "damals".

Dafür teurer (zumindest momentan mit dem radeon-pack Schmarn) und ineffizienter. Momentan kauft man halt für mehr Geld das schlechtere Produkt (rein auf die FPS bezogen).

Das war sonst nicht so und es gab meist sinnvolle Argumente warum man eben doch das andere Produkt wählt, aber momentan ist der einzige Pluspunkt für Vega Freesync und das auch nur, wenn ein entsprechender Monitor bereits zuhause steht.



Grimreaper666 schrieb:
Früher brauchte man für eine solche Grafikleistung noch deutlich dickere Netzteile. Außerdem ist "AMD-Hardware" in Summe deutlich günstiger als nVidia-Hardware, wenn man die Mining-Verrücktheit mal außen vor lässt. Z. B. sind Freesync-Monitore im Schnitt deutlich günstiger. Bei echten Top 1440p-Modellen wird der Preisunterschied sehr deutlich: 220 Euro bei folgenden Asus Monitoren: Asus MG279Q Asus PG279Q. Meckern kann man natürlich darüber, dass die Architektur nicht effizienter ist. Jedoch hat nVidia als Quasi-Monopolist in der Zeit als AMD nicht am Markt vertreten war (Übergang ATI-AMD) enorm profitiert und diesen Vorsprung kann AMD mit weniger Entwicklungsbudget (Vermutung) so schnell nicht aufholen.

Die Monitore unterscheiden sich aber schon etwas:

Freesync:

35-90Hz

Gsync:
30-165Hz, Slim Bezel, ULMB, Beleuchtung, weniger Gewicht und weniger Verbrauch.

Es ist offensichtlich nicht der selbe Monitor. Vorallem ist das eine ein ROG, welche immer den Marken Aufschlag haben.
 
Zuletzt bearbeitet:
Knapp 80 Grad ist aber auch noch recht viel.. die Lightning läuft meist bei 60 Grad (da geht der Lüfter nicht mal an) wenn es hochkommt sinds mal 65 Grad.
 
@Teralios: Ja da hast du Recht und kann dir nur zustimmen. Die leiden alle ein bissl am Stockholm Syndrom.
Echt sehr anstrengend.
 
Grimreaper666 schrieb:
Hallo zusammen,

ich versteh gar nicht, was ihr alle habt bzgl. der Leistungsaufnahme. Früher brauchte man für eine solche Grafikleistung noch deutlich dickere Netzteile.[...]

Hallo Grimreaper666,

ich verstehe gar nicht, was alle haben bzgl. der Elektroautos. Früher brauchte mein Diesel noch deutlich über 10 Liter und hat dabei sämtliche Abgase ungefiltert rausgeblasen.

Grimreaper666 schrieb:
[...]Außerdem ist "AMD-Hardware" in Summe deutlich günstiger als nVidia-Hardware[...]

In Summe? Was ist mit den Leuten, die weder Free- noch G-Synch benutzen? So wie meine Wenigkeit? Einfach nur ein 1440p Monitor und die Framerate per Rivatuner auf stabile 60fps gekappt. Da ist die "Summe" gleich dem Preis der Grafikkarte.
 
v_ossi schrieb:
.....

Davon abgesehen sind ein 6% höherer Stromverbrauch und gleichzeitig ein Leistungsgewinn von 9% bestimmt Cherrypicking was den verwendeten Chip angeht. Da geht mit Undervolting bestimmt noch was.


Hat doch nix mit "Cherrypicking" zutun sondern ist doch einfach nen natürlicher Vorgang bei Halbleitern.
Um so kühler um so niedriger der Stromverbrauch.
 
Ich finde dieses Partnerdesign erstmal gelungen, denn es ist sowohl GPU, als auch VRM aktiv von einem mächtigen Kühlkörper erfasst. Was mich am Ende trotzdem stört, ist das PowerLimit. Anstatt das vorhandene - ohnehin schon viel zu hohe - Limit noch weiter zu erhöhen, würde mich eine Karte mit einem BIOS interessieren, die eine Begrenzung von sagen wir 180 Watt mit sich bringt. Darunter leidet dann zwar den Takt und wir werden statt 1450Mhz vielleicht nur noch 1350Mhz sehen, aber dafür müsste das Gesamtpaket um ein vielfaches besser sein, die Karte wird viel sparsamer, viel kühler und viel leiser. Man könnte ja zumindest das zweite BIOS damit ausstatten, dann können die Käufer selbst wählen. Hier zwischen 240 und 260 Watt umzuschalten ist doch sinnfrei, da wird es fast keinen Unterschied geben. Besser wäre ein Standard-BIOS mit AMD-Vorgabe 220 Watt, ein HighPower BIOS mit 260 Watt und ein GreenSilent BIOS mit 180 Watt. Dann kann jeder nach seiner Vorliebe wählen. Momentan geht nur "sehr viel" und "extrem viel"...

Diese Kritik zielt im übrigen auch auf die Nvidia ab, meine Gigabyte 1080 Xtreme Gaming hat nur ein sinnfreies PT von 250 Watt, das Design selbst hat aber ein Limit von 230 Watt. Alles einfach ein bisschen sinnfrei, mit Afterburner habe ich jetzt 70% PowerTarget eingestellt (175 Watt) und gemeinsam mit Undervolting 0,95v läuft die Karte jetzt im Sweet Spot zwischen 120 und 175 Watt je nach Auslastung - natürlich bei herausragenden Temperaturen und gleichzeitig geringer Lautstärke.
 
Zuletzt bearbeitet:
@Honecker: Vielleicht liest Du meinen Text sorgfältiger, statt aus ihm Schlüsse zu ziehen, die mein Post garnicht hergibt.
 
v_ossi schrieb:
In Summe? Was ist mit den Leuten, die weder Free- noch G-Synch benutzen? So wie meine Wenigkeit? Einfach nur ein 1440p Monitor und die Framerate per Rivatuner auf stabile 60fps gekappt. Da ist die "Summe" gleich dem Preis der Grafikkarte.

Wenn ich die Preise um den Mining-Wahn bereinige - was man aktuell natürlich nicht tun kann - sind AMD-Karten günstiger. Aber klar, momentan kauft man P/L-mäßig nVidia, auch wegen der Verfügbarkeit und insbesondere, wenn einen die Sync-Technologien nicht interessieren (imho die interessanteste Innovation der letzten Jahre).

Grim
 
Seite 2 > UHD Benchmarks: "Diagramm mit ID „43“ fehlt!"
 
@Teralios

richtig, doch war mir immer der explodierende idleverbrauch mit zwei monitoren ein dorn im auge. das ist erst seit fury geschichte.
würde nach einer langen zeit mit nv gerne mal wieder eine von AMD kaufen. meine letzte war noch eine ATi X850XT.

selbst darüber, dass die vega 300 statt 200 watt braucht, könnte ich hinwegsehen. aber für 650€ aktuell und zwei spiele, die ich nicht haben will? nein, danke.
 
Zuletzt bearbeitet:
Precide schrieb:
Ich denke mal, dass keiner daran gezweifelt hat, dass Asus mit Strix hier eine gute Custom-Lösung abliefern wird

Meine 390X zeigt mir da was anderes.
Über 90°C und laut wie eine Turbine, im Desktop gehen zwar die Lüfter aus, dass macht die extreme Lautstärke unter Last aber auch nicht geiler.
 
Zurück
Oben