Test AMD Radeon RX 580 & 570 im Test: Asus, MSI, PowerColor und Sapphire im Vergleich

Flinxflux schrieb:
OT. Seit NVIDIA den Verbrauch der GTX Serie gegenüber der Radeon gesenkt hat sind wohl alle
NVIDIA Freunde zu Ökofreaks geworden, machen sich einen Kopf über 20 - 30 Watt Mehrverbrauch.
Ich kann mich noch an Zeiten erinnern da war Stromverbrauch im NVIDIA Lager kein Thema :D

bei gleicher leistung 69% mehr verbrauch ist halt schon einiges... oder seh ich das falsch...
 
Die 580/570 können alles wie die 480/470 und noch etwas mehr.
Die 480/470 sind dadurch nicht besser und die 1060 wird auch nicht relevanter, das ist einfach geistiger Dünnschiss.

Lässt man die 580/570 wie die 480/470 laufen, dann verbrauchen die keinen Deut mehr Leistung.
 
Ich frage mich ehrlich: musste die 500-Serie überhaupt sein?

In ~1,5 Monaten kommt doch Vega?
 
@d169
Ja aber Vega stellt die Ober Klasse dar also bis zu High-End.
 
Irgendwas ist in der 1080p Performancerating Tabelle mit der Gigabyte GTX 1070 Gaming und MSI GTX 1080 Gaming (8GB) falsch. Die haben 0%.

Benni16it schrieb:
bei gleicher leistung 69% mehr verbrauch ist halt schon einiges... oder seh ich das falsch...

Ja tust du, es sind nämlich 36%.
Achja, die 33% mehr VRam nicht vergessen. :D
 
Zuletzt bearbeitet:
Vega wird doch eine neue, deutlich bessere Architektur für jedes Segment (zuerst natürlich für die Oberklasse)?
 
Vega wird mit Sicherheit nicht Polaris ersetzen, sondern nur im oberen Bereich ergänzen.
 
550, vorallem 560 und auch sonst überzeugen..

der höhere verbrauch unter last sollte in relation gesehen werden zu der höheren leistung (takt), es wäre gut das nochmal hervorzuheben, anstatt einfach zu sagen, verbraucht mehr als die alte generation!

schade ist, dass der speichertakt nicht standardmäßig auf 4500 erhöht wurde (nichtmal bei OC Karten), laut test war dies bei jeder karte möglich.

Hätte einen leicht niedrigeren Takt unter Last und gleichzeitig bessere Kühlung bei der 500-er Serie gut gefunden.
Leicht schneller, leicht leiser, leicht sparsamer .. aber gut, damit hat man immerhin eine "neue" generation april/mai 2017 zum kaufen ^^ sieht allemal besser aus ;D und hört sich besser an.


Krass fand ich den Unterschied von der AMD 390 .. wobei undervoltet der Unterschied gar nicht mal mehr so hoch ist.
 
d169 schrieb:
Ich frage mich ehrlich: musste die 500-Serie überhaupt sein?

In ~1,5 Monaten kommt doch Vega?

genau deswegen muss sie kommen
um das portfolio nach unten hin abzurunden

warum man nicht die 400er serie lässt, kann ich dir auch nicht sagen
 
Die Energieeffizienz der neuen Grafikkarten fällt niedriger aus als die der alten, die neue Radeon-RX-500-Serie braucht im Verhältnis zur gestiegenen Leistung überproportional mehr Energie

Das ist ja nun Mal wirklich enttäuschend. Ich hätte damit gerechnet, dass bei etwas Mehrleistung wenigstens der Verbrauch gleich bleibt. So liegt man bei der Performance pro Watt ja leider wieder deutlich hinter Pascal.
Wird es bei mir also wieder keine Karte von AMD werden obwohl ich das für den Zweitrechner eigentlich geplant hatte.
Für AMD kann ich da nur hoffen, dass es mit Vega wieder deutlich besser wird!
 
Replay86 schrieb:
Mein Horizont bremst sich selber aus. Da muss Nvidia nichts für tun. ;)
Habe deine Aussage korrigiert.

@borizb
Dass die Preise sich nicht anpassen, liegt daran, dass wir da eben keinen freien Markt haben sondern einer eben mit Marktmacht dominiert.
Dank genug Gehirnwäsche, wird Intel im Retail keine Preise anpassen brauchen (selbst Bau bleibt so weiterhin billiger als komplettPC). OEM kann das mit "Rabatten" schon anders aussehen.
 
Benni16it schrieb:
bei gleicher leistung 69% mehr verbrauch ist halt schon einiges... oder seh ich das falsch...

Die Spiele Benchmarks wurden in 4K gemacht, das wird aber bei den meisten der Käufer dieser Karte nicht der Fall sein.
Für mich ist das eine 1080p Karte. Deine 70 Watt Mehrverbrauch sind also nur unter 4K Umgebung real,
unter 1080p wird die RX580 das nie erreichen denke ich.
Ich habe 2 übertaktete RX 480 im Betrieb, das höchste was mein Stromesser bisher angezeigt hat, waren 214 Watt auf
meinen 1 System und 191 Watt auf meinen 2 System. Beides in Spielen bei 4K bei Medium Einstellungen.
Wenn ich in 1080p spiele, erreiche ich diese Wattzahlen nicht annähernd.
 
Tja, dann schließe ich mich wohl dem allgemeinen Tenor an und sage: Für uns (CB Forum und "Technikfreaks") unnötiger aber aus wirtschaftlicher Sicht nachvollziehbarer Schritt. OEMs freuen sich halt, wenn sie "neu" oder "noch besser" oder sonst irgendwas auf die Verpackungen schreiben können.
Hätte mich zwar gefreut, wenn durch Polaris 20 statt 10 bei der hier gezeigten Leistung die Effizienz gestiegen wäre, aber auch so sind das brauchbare Karten. Würde mich nur freuen, wenn AMD mit Vega -ähnlich wie mit Ryzen- jetzt noch mal ordentlich nachlegen kann. Wenn man noch viel länger wartet, sind auch die treusten Fans ins grüne Lager gewechselt. Hat ja schon fast etwas von dem Esel und der Möhre, was AMD mit Vega veranstaltet.
 
Zuletzt bearbeitet:
Ich finde es amüsant wie einige die abermaligen Refreshes noch schön reden wollen.
Und es ist beachtlich, dass trotz Refresh man nicht an die Partnerkarten der GTX1060 von Nvidia herankommt.

Effizienz hat im Ingenieurswesen schon immer eine Rolle gespielt.
Dass man eh sowieso Unsummen für Hardware ausgibt und daraus folgt, dass einem der Verbrauch/Verschleiss egal sein muss, ist ein Strohmann-Argument.
 
v_ossi schrieb:
Wenn man noch viel länger wartet, sind auch die treusten Fans ins grüne Lager gewechselt. Hat ja schon fast etwas von dem Esel und der Möhre, was AMD mit Vega veranstaltet.

Ich komm wieder, sobald Vega fertig ist und mich überzeugt hat, dass es sich für WQHD lohnt. ;)
 
Das Problem bei Vega ist das es Liefer-Schwierigkeiten gab mit dem HBM2 Speicher.
 
Zurück
Oben