Test AMD Radeon RX 590 im Test: Das Full-HD-Angebot zum Weihnachtsfest

10% sind nett aber nicht die Welt.
Der einzige Vorteil ist, dass die 1060 geschlagen wird, aber nur knapp.
Preislich attraktiver ist und bleibt im Moment die RX 570/580.

Ich warte immernoch von beiden Lagern auf eine "richtige" 4K-Karte!
Da fehlt aber noch einiges an nackter Rohleistung.
Solange es die nicht gibt, bleib ich bei Full HD.
 
DeadEternity schrieb:
Ich schließe mich an. Der Sprung zu meiner RX470 wäre zwar ok bei der RX590, genau das was ich will, aber wenn ich für 50-70€ mehr eine Vega 56 bekomme, die sogar in etwa den gleichen Vebrauch hat wie eine RX590, dann brauch ich nicht lange überlegen.

Ja genau, bei mir ist es eine 480. Klasse, dass die mit im Test war.
Hoffe auf die Red Dragon Vega 56, bei der ist der Verbrauch noch im Rahmen. Das leichte Performanceplus bei den übertakteten Vega56 lohnt im Vergleich zum Verbrauchsanstieg nicht.
 
  • Gefällt mir
Reaktionen: Transistor 22 und DeadEternity
HornyNinja69 schrieb:
Und dieser 10% AMD Furz reicht hinten und vorne nicht und soll nur wieder einen Grund liefern mehr als 200€ für Unzureichende Performance zu kassieren.

Hast dich eigentlich auch immer so lautstark beschwert, wenn intel uns mit ihren jährlichen Refreshes mit noch niedrigeren Zuchwachsraten beglückt hat? Und das bei noch höheren Preisen...
Aber da waren die Schreihälse die sich jetzt über die RX 590 beschweren lustigerweise ruhig:rolleyes:
 
  • Gefällt mir
Reaktionen: Benji21, Chismon, Wanderer101 und 4 andere
duskstalker schrieb:
was soll der final fantasy benchmark? das ding ist technisch absoluter abfall und taugt bestenfalls als nvidia techdemo.

Nur nutzt das Geunke am Ende des Tages auch leider nichts.
Die Spiele werden eben gezockt und ob das wirklich eine reiner Nvidia Techbench ist, möchte man von einem neutralen Standpunkt aus doch stark bezweifeln.
 
Blade0479 schrieb:
AMD kommt halt wie immer über den Preis, nicht über die Steckdose.
Interessant trotzdem, dass die Vega 56 im Vergleich zur RX590 bei +35% Performance (Full-HD) quasi den gleichen Stromverbrauch hat.

Hat sich also was getan bzgl. Effizienz, auch wenn Sie noch ziemlich weit von nVidia entfernt sind.

Das "Mehr" an Stromverbrauch rechnet sich dann aber durch:
1. Günstigerer FreeSync-Monitor im Vergleich zu G-Sync
2. Weniger Heizkosten :-P
 
Pure Existenz schrieb:
10% sind nett aber nicht die Welt.
Der einzige Vorteil ist, dass die 1060 geschlagen wird, aber nur knapp.

*nur knapp in den spielen, die cb gebencht hat

es gibt auch einige spiele, in denen schon eine rx580 15-20% vor einer 1060 ist.

z.b. das neue BF5, leider hat man sich stattdessen für 1-2 jahre alte gameworks / unreal engine dinger entschieden.


@Schnefferaunzn

FFXV ist eine nvidia techdemo, du kannst das überall nachlesen oder dir selber anschauen.

 
  • Gefällt mir
Reaktionen: Benji21, Otsy, Sun-Berg und 2 andere
Puh der Vergleich zur alten RX 480 sieht ja übel aus:
15-17% Mehrleistung für 29-44%(!) mehr Leistungsaufnahme.
Das Teil säuft so viel wie eine Vega 56 Wahnsinn.

Naja zum Resteverwerten und Nvidia-Trollen (Wir sind 10% schneller ätsch) wirds schon reichen und solange man nur wenig spielt oder den Strom nicht selbst zahlt passt das Paket ja zumindest dank Freesync gegenüber der GTX 1060.
Wer regelmäßig und viel spielt sollte sich das zumindest mal durchrechnen.
 
[x] Fail mit Ansage.

Leistung liegt jetzt da wo die 480 mal erwartet wurde, Verbrauch und Preis sind ein Witz. Nach Jahren immer noch nicht besser als die olle 28nm Genration- Weder in Preis, Leistung noch Verbrauch.
 
So da isse also nun

Schön zu sehen, dass man die Idle und YT Verbräuche noch weiter gesenkt hat, weniger schön, dass AMDs konservatives Coreclocking und die AIBs hier echt nen komisches Produkt released haben.
Ich vermute, es liegt an der Vorgehensweise wie das Boosting bei den Karten läuft, und wird erst mit einem Boosting wie bei Ryzen ein Ende finden.
Für die Leute, die von einer 7870, 7970 o.Ä. kommen, ein großer Sprung, für alle anderen: Naja Meh halt
Ich bin sehr gespannt ob die 150W die Hardeware.info schaffte normal ist, dann könnte nämlich mit etwas CoreUV die Karte schon ganz spannend sein.
OCbarkeit aber grundsätzlich das gleiche wie bei Ryzen2.. Der Prozess ist zwar gut, aber eben nicht wirklich nice..

@alle Nvidia Trolle hier:
KEINE Custom 1060 schafft die Verbräuche der FE also reden wir am Ende eben von 180W (rot) zu 150W (grün) Über die Sinnhaftigkeit der Quervergleiche mit Nvidia brauchen wir nicht mehr zu reden, es wird hier seit nun mehr fast 3 Jahren getan. Zur HD Serie ist die Karte aber ein Fortschritt, auch wenn AMD gerne mal 50-70mv weniger ansetzen kann. Über den Totalausfall von Powercolor oder auch XFX muss man nicht reden. Ich hätte mir gewünscht, man macht die RX580 einfach in 12nm effizienter und hätte den Rest als OC gelassen..Preislich sind die 250€ dennoch fair.
 
Zuletzt bearbeitet: (Danke usb2_2 natürlich Millivolt)
  • Gefällt mir
Reaktionen: TheUngrateful, Gruml, LyGhT und eine weitere Person
TopperHarley87 schrieb:
Komm mal runter... Es erwartet doch auch keiner, dass man mit einer Karte für 200 bis 300€ alles ausnahmnlos auf Ultra zocken kann (bei vielen Titeln geht es sogar). Vergleich doch einfach mal die Preise von 1070 und 480/580/590, das sind einfach komplett andere Zielgruppen.
Ich finde es nur lächerlich das man sich hier mit freude ausnehmen lässt, es war immer so das die 200-300€ Klasse für alles in Full HD in "schön" gelangt hat, mittler weile ist es nicht mehr so, zumindest bei neuen Spielen die auch was neues bringen.
Die RX580/1060 ist heute fast das, was die 1050Ti in 2016 war und der Preis ist dafür einfach zu hoch.
Ja die 1070 ist auch künstlich überteuert weil es entweder günstiger oder für 10€ mehr eine Vega56/1070Ti gibt, die heute in Full HD das sind was die RX580/1060 bei Release waren.

Und wenn du in die Vergangenheit schaust, verstehtst du dann vielleicht, dass wir normalerweise die Performance einer GTX1070 für ~300€ heute haben müssten, stattdessen werden die Leute mit 10% oder viel zu hohen Preisen wie bei der 1070 gemolken
 
  • Gefällt mir
Reaktionen: Stuntmp02
lowkres schrieb:
wieso AMD keine Vega GPU mit 36 CUs rausbringt?
Der HBM-Speicher ist immer noch deutlich teurer, was die gesamte Karte unattraktiv machen würde.
Außerdem konnte man hier mit kleinem Aufwand die Vorteile der 12nm-Fertigung mitnehmen.
 
  • Gefällt mir
Reaktionen: HornyNinja69, LyGhT und usb2_2
@Botcruscher
Vielleicht mal den Unterschied von Generation zu Shrink lernen.
Dann merkst vielleicht auch, warum die Performance entsprechend ist.


HornyNinja69 schrieb:
Ich finde es nur lächerlich das man sich hier mit freude ausnehmen lässt, es war immer so das die 200-300€ Klasse für alles in Full HD in "schön" gelangt hat, mittler weile ist es nicht mehr so, zumindest bei neuen Spielen die auch was neues bringen.

Ausnehmen lassen?
Postest du auch im Apple Thread? :D
Und welche Games sind das jetzt genau, die nicht für FullHD und Ultra reichen!? Du hast mir ja immer noch nicht gesagt wie viele das jetzt sind.
 
  • Gefällt mir
Reaktionen: DeadEternity
Rockstar85 schrieb:
auch wenn AMD gerne mal 0,5 -0,7v weniger ansetzen kann.
Ich glaube nicht.

-150mv schon eher. Die Karte läuft mit 1,2v oder?

Edit: nein sorry, 1,1563v. Das läuft aber aufs gleiche hinaus. Selbst einen R9 Nano kann noch einiges runter und wird dadurch schneller.
 
Schon verrückt. Seit der GTX970 OC tut sich nix mehr im entsprechenden preissegment (+-20%). Moores law ist wirklich tot.

10% hier, 20eur da... komplett egal....

Früher dachte ich immer: Du kannst aufrüsten wenn du +100% für den gleichen Preis kriegst.... haha viel Glück damit jetzt ;)
 
  • Gefällt mir
Reaktionen: fox40phil
Aus meiner Sicht ist die Karte kein großer Hit. Stromverbrauch zu hoch, Leistungszuwachs zu gering insbesondere gemessen am Preisaufschlag. Halt ein weiterer Aufguss eines kalten Kaffees. Ich denke, dass sich die Karten schnell bei ca. 230 Eur einpendeln werden (etwa Preisaufschlag=Leistungsaufschlag). Ansonsten sind aus AMD Sicht die 580 bzw. die vega 56 die interessanteren Optionen.
 
@HornyNinja69
Deine Argumentation basiert auf der Theorie, dass eine GPU mit der Zeit an Leistung verliert. Aber die RX580 hat heute noch dieselbe Leistung wie zu Release. Es lässt sich auch immer noch 1080p@60fps erreichen, in neueren Titel kann man eben nicht mehr alles auf Max/Ultra stellen. Dennoch kann man mit der heute immer noch in FullHD zocken. Du stellst es so dar, als sei das nicht so. Das einzige, was stimmt, ist dass die Spiele höhere Anforderungen an die Hardware stellen, da sich grafikmäßig natürlich was getan hat. Aber selbst, wenn man heute die Regler so stellt, dass man noch 60 fps erreicht, sehen die Spiele nicht pauschal schlechter aus als damals.

Meine erste Karte, mit der ich in FullHD gespielt habe, war übrigens eine Radeon 5850. Zwischen dieser und der Vega hatte ich noch eine GTX 560Ti. Ich verstehe, worauf du hinaus willst! Mit einer 5850 heute noch durchgängig 60 fps bei FullHD erzielen zu wollen, erfordert wahrscheinlich ein Herunterstellen der Settings auf ein nicht mehr wirklich ansehnliches Niveau, wenn überhaupt. Aber die RX580 ist jetzt auch nicht steinalt. Es hat in den letzten Jahren auch nicht die großen Sprünge bei der Grafikleistung gegeben, wie es vielleicht mal war. Dennoch kann man heute noch alle aktuellen Spiele in 1080p wunderbar flüssig zocken, ohne, dass diese schlecht aussehen.

Vor allem zwischen den Presets Hoch und Ultra sind die Unterschiede optisch eher marginal, in der Leistung schlagen sie sich aber schon deutlich nieder. In der Regel sehen Spiele auch auf Mittel noch gut aus.

Bei mancher Argumentation habe ich das Gefühl, manche wollen den PC als Spieleplatform sterben sehen. Deine Behauptung zur 1070 ist ja noch harmlos - da hab ich schon ganz anderes gelesen. Manche haben solche Vorstellungen von Gaminghardware, dass sich interessierte Neulinge in dem Thema abgeschreckt an den nächsten MM/Saturn wenden und eine Konsole kaufen und von dem gesparten Geld noch 'nen neuen TV und 10 Spiele obendrauf, weil sie den Eindruck vermittelt bekommen, man könne, ohne gleich 1.000-2.000 € auszugeben, keinen PC bauen, mit dem man zocken kann. Eine "1070 als Minimum für FullHD" hat da ihren Anteil dran. Kriegt man ja auch 'ne Konsole für, die 4K bringt. :rolleyes:
 
  • Gefällt mir
Reaktionen: Casillas, Gruml, LyGhT und 3 andere
Bärenmarke schrieb:
Wenn man schon selbst Hand anlegt, könntest du die RX 590 auch undervolten, dann hast du mit Sicherheit keinen so hohen Verbrauchsunterschied mehr.

Man kann eine GTX 1060 auch "undervolten", soviel ich weiß sogar besser.
Bärenmarke schrieb:
Und zu den Spielen, dass sie in Gameworks spielen hinter einer 1060 ist, ja da braucht man kein Hellseher sein :rolleyes:

Gameworks? Wo außer in FFVX findet man Gameworks?
Da sollte man mal die Redaktion fragen.
Man sollte Gameworks in jedem Benchmark abschalten.
 
Zuletzt bearbeitet:
estros schrieb:
Das Verhältnis Performance pro Watt ist mittlerweile echt erschreckend. Ewig weiter können sie es nicht über höheren Stromverbrauch ausgleichen. Da muss was passieren. Turing ist satte 100% effizienter.

Echt nur noch armselig was AMD rausbringt.
Kein Wunder das Nvidia diese absurden Preise aufrufen kann.
Seit Jahren völlig ausser Konkurrenz.
 
  • Gefällt mir
Reaktionen: Stuntmp02
JackA$$ schrieb:
Der Preis, die Leistung und der Stromverbrauch sind doch einfach nur noch LÄCHERLICH!
da kommt ne 2,5 Jahre alte GTX 1060 locker mit und verbraucht fast die Hälfte an Strom.


ja wenn man für nvidia cherry pickt.

ich finds brutal, wie sich niemand die einzelergebnisse anschaut.

da sind eklatante unterschiede von -2 bis +25% drin.
 
  • Gefällt mir
Reaktionen: Hembi
Zurück
Oben