Test Radeon RX Vega 56 Nitro+ im Test: Sapphires 1,6-kg-Grafikkarte überzeugt auf ganzer Linie

bitcoin .. etherium .. 40.000.000.000.000W pro Jahr ca. aktuell.

und hier wird wegen 100w für gaming rumgestänkert ...



@uv + chill + optimierungen ist eine vega nicht mehr schlechter als ne nvidia karte.
man muss halt hand anlegen
es ist einfach so dass amd hinterherhinkt beim verbrauch aber die karten sind trotzdem gut, nur der preis nicht.
 
Pisaro schrieb:
Das ist eben NICHT lächerlich. Ein Produkt muss mit der Konkurrenz verglichen werden, und da verliert Vega meistens immer.

https://www.hardwareluxx.de/communi...ga-64-nitro-im-test-1185045.html#post26022430

Übriges sind 100W mehr Verbrauch zu einer 1080Ti von der Zahl her zwar viel im ersten Moment, aber rechnet man sich das mal aus, z. B. 4std am Tag, 7Tage die Woche und das ein Jahr lang, das sind das bei 0,28€die Kw/h überschaubare 41€ im Jahr... Das sollte beim besten Willen kein Argument sein, wenn man etwas will, so m. M.

Also ich finde 41 € im Jahr ja absolut wenig. :evillol:

Sry, aber das alle den Strombverbrauch immer nach hinten packen kann ich nicht nachvollziehen, es ist sehr wohl wichtig was eine Karte verbraucht..... Und 41 € fände ich jetzt ziemlich krass aufs Jahr wenn man bedenkt das man für die Mehrkosten auch noch weniger oder gleichviel Leistung zu einer GTX 1080 bekommt.

Hoffe AMD optimiert seine nächste Generation, will Free Sync.
 
41€ über die Laufzeit von zwo bis drei Jahren sind aber auch (fast) der Aufpreis zur TI. Im Sommer müssen die 100W auch irgendwo hin.

matty2580 schrieb:
Nein, die Anzahl der Entwickler die noch DX 12 unterstützen sinkt weiterhin.
Dagegen wächst aber der Support (unmerklich) weiter bei Vulcan.
Weil OGL halt einfach Scheisse war/ist. Vulcan ist da in jeder Hinsicht die bessere Lösung. DX12 geht derweil mit den MS Exklusivtiteln und der Spyware am besten sterben.
 
Zuletzt bearbeitet:
O-Saft-Killer schrieb:
Also ich finde 41 € im Jahr ja absolut wenig. :evillol:

ja wenn dir der Stromverbrauch wichtig ist, dann betreibe UV......


Alleine, dass dieselbe Leistung bei 100 Watt weniger möglich ist sollte zumindest auch in den aktuellen Tests erwähnt werden, kein Normie holt sich diese verdammte Custom Karte und betreibt sie Stock.... zwar wird beim OC auf die Chipgüte verwiesen, aber ebenso kann man auf UV in Abhängigkeit der Chipgüte verweisen, verstehe nicht, warum das nicht mal gemacht wird ? Um Vega irgendwie noch schlechter darzustellen ?

Als würden sich nicht schon alle über den Verbrauch echauffieren, könnte man auf die Tatsache des Undervoltings endlich mal verweisen ??, weiß doch schon jeder Foren Hamlet, dass Vega nur mit UV taugt vor Allem sau teuere Custom Karten die sich sicher nur Leute kaufen die massig Plan von Hardware haben...

Alleine durch Undervolting gäbe es die 41 € mehr Kosten nicht, außerdem ist das eine Lächerlich niedrige Zahl an der man sich aufziehen kann....

Das würde man auch schaffen, wenn man sich rund 5 Minuten über jeden Tag die Haare mit einem 2000 Watt Föhn trocknet.




Hauptsache das Verbrauchs Gebashe fängt wieder an, dafür kein Verständnis über das UV Potential von Vega haben....
 
Zuletzt bearbeitet:
1,6 kg sind schon herrlich, noch mal 150g mehr als meine Karte, die ich vorsichtshalber abgestützt habe. ;)
Dachte vor ein paar Jahren mal, der Trend zu immer mehr Metall im Kühler würde mit den kleineren Chipstrukturen zurückgehen, aber weit gefehlt...
 
Mich wundert echt wie die Grafikkarte überhaupt den Testparcours überlebt hat. Normalerweise halten die Schrott Karten von Sapphire nicht lange. 50% der Karten von denen werden doch schon defekt ausgeliefert!
 
meine OC Vega hat lt. HWinfo ein durchschnitts verbrauch (GPU Chip) von 208W bei 2 std Black Dessert, wer sagt das die Karte dauerhaft im PT läuft?
das gleiche werde ich mal mit Project Cars 2 machen (da hat die Karte mehr zu tun).

das sind alles theretische berechnungen, mit dem max. verbrauch. (oft mit Benchmarks oder GPU Stress test), aber wie sieht das REAL aus?
oder lässt ihr eure rechner mit Stress Tests / Benchmarks laufen
 
Für mich ist die Vega64 und 56 trotzdem der Preis/Leistungs Sieger weil ich mir gleichzeitig noch einen neuen Monitor kaufen möchte und Freesync da einfach 100-200€ billiger ist als ein Gsync Monitor.

Deshalb warte ich weiter bis es vernünftige Custom Lösungen zu kaufen gibt, wenn diese dann 50€ teurer sind als eine 5 % schnellere 1080 dann ist das halt so.
 
ja wenn dir der Stromverbrauch wichtig ist, dann betreibe UV......


Alleine, dass dieselbe Leistung bei 100 Watt weniger möglich ist sollte zumindest auch in den aktuellen Tests erwähnt werden, kein Normie holt sich diese verdammte Custom Karte und betreibt sie Stock

Jup, das hab ich bei meiner Vega 64 LC auch gemacht. Ob man aber wirklich weit runter kommt ist wieder vom Glück abhängig, die meisten schaffen aber wohl bei p7 1,1 Volt und p8 1,125 Volt. Kostet aber Zeit und Arbeit die man sich machen muss, hat man bei der Nvidia nicht....

Leider ist meine Karte nach 3 Tagen testen verreckt. Das gebenche unter 3D Mark hat die nicht gepackt, der Treiber ist mir immer wieder abgestürzt (Hatte bunten Schnee beim öffnen des Treiberfensters). Außerdem hat sich 3D Mark beim starten von Benchmarks komplett aufgehangen (Alle Auslesetools aus). Hatte die Karte nur undervoltet, aber auch das Powerlimit angehoben, scheinbar war das für meine Karte zuviel was über den Chip ging. Mehr als 300 Watt dauerhaft über die Karte zu jagen kann ich daher eh nicht empfehlen, ka. ob ich einfach Pech hatte aber scheinbar konnte meine Karte nach ein paar Tagen testen keine starken Lastwechsel mehr packen. War die einmal in einem Benchmark auf Last lief die.
 
O-Saft-Killer schrieb:
Leider ist meine Karte nach 3 Tagen testen verreckt. Das gebenche unter 3D Mark hat die nicht gepackt, der Treiber ist mir immer wieder abgestürzt (Hatte bunten Schnee beim öffnen des Treiberfensters). Außerdem hat sich 3D Mark beim starten von Benchmarks komplett aufgehangen (Alle Auslesetools aus). Hatte die Karte nur undervoltet, aber auch das Powerlimit angehoben, scheinbar war das für meine Karte zuviel was über den Chip ging. Mehr als 300 Watt dauerhaft über die Karte zu jagen kann ich daher eh nicht empfehlen, ka. ob ich einfach Pech hatte aber scheinbar konnte meine Karte nach ein paar Tagen testen keine starken Lastwechsel mehr packen. War die einmal in einem Benchmark auf Last lief die.

Klingt wohl eher nach einer defekten Karte unabhängig von der Chipgüte :D

Edit:

Ach das Bissel Undervolting.... die Minute um den Parameter im Wattman zu ändern geht schneller als man bei Nvidia das zusätzliche Thirdparty Tool installiert hat.

Zudem geht es doch nur um die Funktion, UV ist so unkritisch, dass man die Spannung einfach senken kann und man dann einfach seine Spiele verwendet in denen es Stabil laufen soll, das kostet einen theoretisch nicht einmal Zusätzliche Zeit wenn man jeden Tag daddelt ^^
 
Zuletzt bearbeitet:
Irgendwie müssen meine Posts zu gefährlich sein, da sie generell ignoriert werden. Wenn man das ganze versucht (denn wirklich hinkriegen kann man das nur wenn einen die Materie gar nicht interessiert) nüchtern zu betrachten, gibt es ein paar Punkte die die bevorzugten Bash-Argumente abschwächen oder gar ganz aushebeln:

Im Bezug auf die Leistungsaufnahme:

- Eines der besten Argumente für die Vegas ist da wohl Chill. Während eine 1080 TI (bzw jede andere nVidia Karte) in Spielen einfach immer versucht das Maximum an FPS zu generieren (auch in Menüs oder soonstigen Sachen) kann die Vega das durch Chill reduzieren und dadurch die Leistungsaufnahme senken. Ist vermutlich vielen der Basher nichtmal bewusst.

- Wenn man sich hier im Forum mal umschaut wird man merken, dass die Vega sehr gut mit Reglern bearbeitet werden kann. In vielen Fällen führt das dazu, dass die Leistungsaufnahme einer Vega nicht wirklich viel schlechter ist wie die der nVidia Karten

Im Bezug auf die Leistung:

- einige Features der Vega Karten sind von Seiten AMDs noch gar nicht aktiviert worden und können auch jetzt schon etwas Performance bringen, je nach Spiel und Auflösung (z.B. HBCC), da steckt also noch Potential drin und wenn man sich AMDs Treiberpflege ansieht weiß man auch, dass man sich bei denen auch in 3 oder 4 Jahren noch um die Produkte kümmert (siehe Adrenalin in dem immer noch Anpassungen für Radeon 7xxx vorgenommen wurden)

- Wenn man Regler schieben kann, ist eine Vega 56 in der Lage eine 1080 zu schlagen (und das in vielen Bereichen) und eine Vega 64 ab und an in der Lage es mit einer 1080TI aufzunehmen (zugegeben das ist sehr sehr selten der Fall)

Im Bezug auf den Preis:

- Wie ich schon mehrfach schrieb kommt das immer drauf an was man selbst braucht. Hat man einen G-Sync Monitor oder einen FreeSync ? Hat man weder noch ? Plant man sich eines von beiden zuzulegen ? Sollte man neues Sync dazu kaufen ist ne Vega plus FreeSync sogar wenn man die Vega 56 auf Wasser umbaut billiger wie eine 1080 mit G-Sync.

- Wie im Punkt vorher, je nachdem was man braucht und bereit ist dafür zu tun. Eine Wassergekühlte Vega 56 (ideal Preis ist dann ca. 579 €, setzt sich zusammen aus Alphacool AiO und Vega 56 Reference Design) mit einer Custom 1080 verglichen ist praktisch genau die selbe Leistung zu sehr ähnlichem preis nur vermutlich ruhiger und Kühler (Wasserkühlung halt).

Gibt bestimmt noch einige Punkte die man für und auch gegen Vega anführen kann. Letztlich ist es eine Frage dessen was man selbst bevorzugt. EINFACHER sind die nVidia Karten. Erstaunlich finde ich allerdings, dass in einem Forum wie diesem hier alle immer auf das 'Out-of-the-Box' und 'Plug'n'Play' einfacher setzen.
 
@ O-Saft-Killer

das lag nicht an der Karte (oder hast die auf Defekt prüfen lassen)?

das wird an deinem NT gelegen haben, hatte ähnliche probleme (war auch am grübbeln ob die Karte hops gegangen ist beim OC / UV versuch; da ich aber Urlaub hatte, hatte ich Zeit mich mit der Karte zu beschäftigen)
die Vega Karten (was ich so lese, und auch selbst getestet /erlebt habe) brauchen ein gutes NT warum auch immer, weshalb man auch 3x 8Pin verbaut haben wird.

die haben krasse Lastspitzen bei Lastwechsel, das steckt nicht jedes NT weg.
nachdem ich vom RM550x auf das FOCUS PLUS 750W Platinum gewechselt bin, konnte ich das PT von 100% auf 142% setzen und das Stabil.
Mit dem alten NT fiel die Spannung auch mal auf 11,85V was der Vega wohl nicht gefallen hat, mit dem Seasonic ist die spannung stabil auf min. 12V

Ich konnte mit CPU / GPU Stress Test die schutzschaltung des RM550x auslösen bzw. Asus Anti-Surge, reproduzierbar.....
 
Zuletzt bearbeitet:
Kann mir jemand erklären, warum bei meiner Sapphire R9 290 Tri-X 1x8 Pin und 1x6 Pin verbaut ist und bei dieser Grafikkarte (die weniger Strom braucht), sind 3x8 Pin verbaut?
 
Zuletzt bearbeitet:
DayMoe schrieb:
Irgendwie müssen meine Posts zu gefährlich


Gibt bestimmt noch einige Punkte die man für und auch gegen Vega anführen kann. Letztlich ist es eine Frage dessen was man selbst bevorzugt. EINFACHER sind die nVidia Karten. Erstaunlich finde ich allerdings, dass in einem Forum wie diesem hier alle immer auf das 'Out-of-the-Box' und 'Plug'n'Play' einfacher setzen.

Nein, nicht gefährlich, nur eben wenig objektiv, da meist nur der positive Aspekt beleuchtet wird.

Dein Fazit lässt sich leicht erklären. Ja, hier sind Nerds unterwegs, der überwiegende Anteil von Grafikkarten bzw Hardware generell wird aber von DAUs gekauft, für die OC oder UV böhmische Dörfer sind. Zwar hab ich die Tools installiert,, übertakte aber so gut wie nie, höchstens das PL mal auf 117%. Es wäre ein Hobby, viel bei rum kommt nicht.

Einzig mein 8700k ist optimiert auf 4,8Ghz allcore, doch der zweite an meinem Kumpel weiterverkaufte werkelt nur auf Standard Takt (Antwort: du weißt doch ich bin kein Freund von OC). Aja, was will man da noch sagen... :D
 
DayMoe schrieb:
...Wenn man Regler schieben kann, ist eine Vega 56 in der Lage eine 1080 zu schlagen (und das in vielen Bereichen)...

Naja, es gibt auch Regler die für die 1080 geschoben werden können. Eine 1080 @ GPU ~2050 MHz / VRAM ~5500 MHz geht schon ziemlich ab. Vega ist ein fail und nur fur Freesync Display Besitzer interessant, die am Besten noch selber tweaken mit Tools (sprich UV, OC, Lüfterkruve etc).

Zum Glück (für AMD) gibt's Mining...
 
Sasi Black schrieb:
Mit dem alten NT fiel die Spannung auch mal auf 11,85V was der Vega wohl nicht gefallen hat, mit dem Seasonic ist die spannung stabil auf min. 12V
Deshalb auch 3x8pin, da durch den höheren Querschnitt (geringerer Innenwiderstand) der Spannungsfall niedriger ausfällt.
 
combatfun schrieb:
Vega ist ein fail und nur fur Freesync Display Besitzer interessant, die am Besten noch selber tweaken mit Tools (sprich UV, OC, Lüfterkruve etc).

Zum Glück (für AMD) gibt's Mining...

So Pauschal kann man dass nicht schreiben.
Ein Fail ist Vega nicht, AMD hat nur zu früh gelauncht und in guter alter AMD Tradition vieles falsch gemacht. Ich habe die Vega 64 LC seit man sie bestellen kann und bin mit der Karte happy, sie tut das was ich erwarte und die Performance liegt mit viel tweaken auf 1080 TI Niveau, mal mit etwas Abstand, mal nah dran aber von einer max. getakteten 1080 kann sich die Vega 64 absetzen und so viel mehr verbraucht die Karte nicht.

Den schlechten Ruf den die Karte hat, kommt auch teilweise von den Testern selbst die am Anfang nicht verstanden haben wie die Karte funktioniert und die falschen Annahmen im Netz verbreitet haben. Ich liege mit meiner angepassten Vega 64 LC (1700 / 1050 @ 1,09V) so 50 - 70W über meiner angepassten 1080 TI (2GHZ / 6000 @ 0,975V). Das geht meiner Meinung nach voll in Ordnung, Vega hat genau so wie jede andere Hardware ihre stärken und schwächen, AMD versteht selbst immer besser die Karte und die neuen Treiber lasten die Karte immer besser aus.

Klar, der Preis ist teils übertrieben aber das liegt am Markt, nicht an AMD.
 
Zurück
Oben