Test AMD Radeon RX 580 & 570 im Test: Asus, MSI, PowerColor und Sapphire im Vergleich

Die Energieeffizienz hat bei Teillast, wie zum Beispiel beim Betrachten eines Videos auf YouTube, massiv zugenommen.

Wurden RX480/470 für diesen Test noch einmal neu vermessen? Evtl. handelt es sich hier um einen Fix im Treiber, von dem dann auch die alten Karten profitieren könnten.
 
Benni16it schrieb:
bei gleicher leistung 69% mehr verbrauch ist halt schon einiges... oder seh ich das falsch...

ICh habe das schon mal erklärt (ich sollte mir mal ne Editor Datei auf den Desktop packen damit),
also, die GTx von Nvidia sind GAMING GPUS. Die sind nur auf Gaming optimiert und Stromsparen.
Amd hat mit GCN eine ALLZWECK Architektur gebaut, da sie nicht das Geld haben einen ähnlichen Schritt wi Nvidia zu gehen. Dadurch versuchen sie mit einer Architektur zwei bereiche abzudeken. Sowohl Gaming als auch Dp und anderes. Dafür braucht man im Chip halt weitere transistoren bzw Bereiche, die bei einer Geforce halt fehlen, weil sie nur aufs Gaming ausgelegt ist.
AMD kann sowas nicht stemmen. DIe versuchen halt das beste aus dem zu machen was sie haben. Darum sind sie gezwungen auch in ihre Gaming grakas solche Einheiten einzubauen.
Und wie ich bereits am Anfang des Jahres gesagt habe, ist es (bzw. war es nach Ryzen) für AMD einfacher an Intel ranzukommen was die Leistung betrifft (Stagnation der Leistung bei Intel, bla,bla). Zu Nvidia werden sie in näherer Zukunft nicht ran kommen auch nicht was die Effizienz angeht. Die haben ein viel größeres Budget und können Zwei auf ihr spezifisches Einsatzgebiet optimierte Architekturen bauen. AMD kann das nicht. GCN soll halt ne ALLZWECK- Waffe sein.
Der einzige Weg AMD wieder zu helfen ist, indem ihr investiert. Aber da ihr oder besser gesagt der Käufer das nicht tut und AMD in der Vergangenheit einige Fehler begangen hat und nen paar mal unfair behandelt wurde (*hust* intel *hust*), haben wir nun den Salat. Natürlich kann man jetzt alle Schuld auf AMD abwälzen, aber das wäre nicht so optimal, an der Situation sind viele, sehr viele verschiedene Faktoren, so wohl wirtschaftlicher, technischer und marketing-technischer Natur Schuld.

So das musste mal gesagt werden (mal wieder).


ICh kopier das Kurz in nen Editor ;D
 
Also wenn man nach den Spielen im Video oben geht sind es zumindest

Civilization VI
Deus Ex: Mankind Divided
Doom(Vulkan)
Hitman
Quantum Break
Sniper Elite 4
The Division
Rise of the Tomb Raider

Die mit einer RX480 in DX12 besser laufen als in DX11
Nicht nur dass, sie laufen sogar besser als die 1060, die dafür in DX11 in allen Spielen besser als die 480 ist.
 
Zuletzt bearbeitet:
weiß nich, hat iwi den Eindruck bei mir hinterlassen da so als AMD Dreingabe mit extra AMD Hitman HP beworben, DX12 Aushängeschild und weil es schon unter DX11 extrem AMD lastig war, sehr untypisch mit Fury X 20% vor GTX 980 TI (in DX11).

Das hat nicht mal die Techdemo Swarm geschafft ;)

@Taxxor

gut ich hab in manchen Titeln der Liste immer die erste DX12 Version getestet und die hat meist gläglich Dank Problemen versagt. Mag sein dass es X Patches später nun deutlich besser rennt.
 
x-polo schrieb:
Also Sapphire hat ne RX 570 8GB in Produktliste hat allerdings bebremsten Speicher.
http://www.sapphiretech.com/productdetial.asp?pid=C7F53444-FFAD-4D85-ACD2-7769F846B2C4&lang=deu

Die ist auch bei Alternate gelistet (siehe mein Post um 18:14 Uhr). Der Sapphire Link bestätigt aber, dass hier wohl kein Fehler von Alternate vorliegt.


Laut PCGH hat AMD bestätigt, dass die Chips nun auch(!) bei Samsung gefertigt werden (so wie man es dort liest aber nicht ausschließlich):
http://www.pcgameshardware.de/Radeo...65939/News/AMD-Polaris-14LPP-Samsung-1225917/

komisch, dass computerbase da von AMD keine Antwort zu bekommen hat.
 
Zuletzt bearbeitet:
leider hat AMD die Hoffnungen der Verbraucher zu hoch angesetzt! ist aber wenn man es genau nimmt ja auch keine Überraschung, weil die Spec´s ja so ungefähr schon bekannt waren.....

und für alle die wahrscheinlich jetzt sagen werden, dann warte ich eben auf VEGA sei gesagt, dass diese als "high end" in den Markt kommen werden und zwar mit HBM2-Speicher.....
Und man weis nur zu Gut was dieser Spaß kosten wird... (siehe NVIDIA P5000!!!)

-> http://www.tomshardware.de/radeon-rx-vega-raven-ridge-apu,news-257939.html
 
Mr.Smith schrieb:
... der höhere verbrauch unter last sollte in relation gesehen werden zu der höheren leistung (takt), es wäre gut das nochmal hervorzuheben, anstatt einfach zu sagen, verbraucht mehr als die alte generation ...
Genau das wurde doch beim Performance pro Watt Vergleich getan. Oder nicht? CB sagt: RX580 schlechter als RX480.

Allerdings kommen andere Webseiten zu etwas anderen Ergebnissen.
www.tomshardware.de/rx580-benchmark-leistungsaufnahme-sapphire-nitro
"Interessant ist aber, dass man beim Gaming-Loop im Boost Mode fast genau auf dem Niveau der Vorgängerin liegt, jedoch deutlich mehr Takt...".
Ja ja, bessere Kühlung senkt auch den Verbrauch...

Auch als Abonnent (wie ich) doch bitte nicht nur CB lesen, um sich eine Meinung zu bilden! Auf anderen Webseiten hat die RX480 die GTX1060 performancetechnisch schon länger eingeholt oder sogar überholt.
 
Wie schafft es CB eigentlich, bei einem GPU Test direkt ganz neu erschienene Spiele mit in die Benchmarks aufzunehmen (Mass Effect Andromeda, For Honor, Ghost Recon z.B.) und auch gleich Messwerte für diverse Karten(27 Stück) parat zu haben, stellt es aber beim CPU Test so dar, als wäre es ein zu großer Aufwand, den Spieleparcours zu verändern, weswegen immer noch der alte als Hauptbench benutzt wird?

Und wenn die Begründung lautet, dass sich ja immer wieder was ändert: Das ist bei GPUs noch viel eher der Fall durch neue Treiber.
 
Zuletzt bearbeitet:
edenjung

Ich würde das nicht so unterstreichen. Wie die NV und AMD Karten performen hängt vom jeweiligen Spiel und Umsetzung der verwendeten API ab. Sobald die AMD Karten gut ausgelastet werden können, sieht man auch, dass die jeweiligen AMD Karten in Relation zu ihren ähnlich teuren NV Karten schneller sind.
Die AMD GPUs machen in Compute Aufgaben deshalb so eine gute Figur, weil die Shader in dem Fall super ausgelastet werden können. Dass die AMD Karten nativ 64bit Operationen können, liegt am Aufbau von GCN. (64 Bit Wavefront und 4 mal 16Bit. Vergleich NV, die 32 Bit breit sind).

Deine Beschreibung würde stimmen, wäre AMD vllt bei GCN 1 & 2 stehen geblieben (GCN 3 & 4 hatten sehr wohl Anpassung Richtung Gaming. letzteres kommt bereits durch Konsolen und deren hardwarenäheren Programmierung schon früher zu tragen). Speziell Vega mit GCN5 ist noch eine große Unbekannte (wie waren das 200+ Änderungen/Optimierungen ?!) und soll quasi der lange erwartete GCN 2.0 (die inoffizielle Nomenklatur der online Medien) sein.

Außerdem weiß keiner wie Tesla aussieht. Der Compute Pascal hat einen ähnlichen Aufbau wie GCN. Wer sagt, dass Tesla und deren Gaming Karten nicht GCN ähneln.
Bezüglich Computing, Asynchrom Compute und sonstige Features, wäre das nicht so abwegig. Pascal ist immerhin zwischengeschoben worden und nichts anderes als ein Kepler 3.0 & 14nm.

Eher würde ich behaupten, die Software kommt auch hier nur langsam nach und NV hat mit den letzten zwei Generationen ihre Hardware eben weiter an aktuellen Standard angepasst und wo es ging, eben die Weiterentwicklung (Software) auch ausgebremst (eigene Software).

Am Ende kann man sagen, dass man einfach nichts weiß und abwarten sollte.
 
Zuletzt bearbeitet:
Die Asus Radeon RX 580 Strix setzt beispielsweise auf denselben 2,5-Slot-Kühler wie wie Asus GeForce GTX 1080 Ti Strix OC-Edition (Test) und damit sowohl auf mehr Heat-Pipes als auch auf größere Radiatoren.
Es freut mich sehr dass Asus endlich nach so vielen Jahren den Kühler überarbeitet hat. Jetzt können sie sich die "Krone" zurück holen ;)
 
Ein äußerst mäßiges Update würde ich sagen. Die paar müden MHz mehr Takt werden durch mehr Verbrauch erkauft, trotz "verbesserter" Fertigung, wobei man hier eigentlich eher von einem Stillstand sprechen kann.

Eins ist klar: AMD braucht bei den GPUs in Sachen Effizienz einen Sprung wie von Bulldozer --> Zen bei der CPUs, um Nvidia wieder ernsthafter angreifen zu können.
 
Würde der Test zur Lautstärke nicht viel mehr Sinn machen, wenn bei allen Karten das Temperaturtarget den gleich eingestellt wäre?
 
Simon schrieb:
Eins ist klar: AMD braucht bei den GPUs in Sachen Effizienz einen Sprung wie von Bulldozer --> Zen bei der CPUs, um Nvidia wieder ernsthafter angreifen zu können.

Einen richtigen Architekturwechsel also, zum Glück ist Vega genau das^^
 
Taxxor schrieb:
Wie schafft es CB eigentlich, bei einem GPU Test direkt ganz neu erschienene Spiele mit in die Benchmarks aufzunehmen (Mass Effect Andromeda, For Honor, Ghost Recon z.B.) und auch gleich Messwerte für diverse Karten(27 Stück) parat zu haben, stellt es aber beim CPU Test so dar, als wäre es ein riesiger Aufwand, den Spieleparcours zu verändern, weswegen immer noch der alte als Hauptbench benutzt wird?
Ich schätze mal, dass sich Grafikkarten an einem System besser austauschen lassen, als mehrfache Mainboard+CPU Kombinationen (parallel) zu betreiben. Kannst ja mal ein Praktikum bei CB machen, wenn Dich das so interessiert ;)
 
pipip schrieb:
edenjung

Ich würde das nicht so unterstreichen. Wie die NV und AMD Karten performan hängt mit dem jeweiligen Spiel und Umsetzung der verwendeten API. Sobald die AMD Karten gut ausgelastet werden können, sieht man auch, dass die jeweiligen AMD Karten in Relation zu ihren ähnlich teuren NV Karten schneller sind.

Deine Beschreibung würde stimmen, wäre AMD vllt bei GCN 1 & 2 stehen geblieben. Speziell Vega mit GCN5 ist noch eine große unbekannte und soll quasi der lange erwartete GCN 2.0 (die inoffizielle Nomenklatur der online Medien) sein.



Am Ende kann man sagen, dass man einfach nichts weiß und abwarten sollte.

Wie ich bereits sagte, hab ich das am Anfang dieses Jahres oder letztes Jahr im Juli geschrieben (kein plan).
Für mich gilt aber erstmal das letztere mit den Gründen, warum AMd nicht das Geld hat an Nvidia ranzukommen. ;D
 
Krautmaster schrieb:
Für AMD würde der Rebrand fast nur Sinn machen wenn sie die bestehenden Chips mit leicht höherer Voltage auf die RX580 packen können.

Wie stehts eigentlich bei den Polaris-Chips um die Voltage, wenn die Karten direkt aus dem Werk kommen? Bei den 290(X)/390(X) waren ja massive Sicherheitsaufschläge mit drin. Ist das auch bei Polaris so?
 
Vielen Dank für den Test. Keine Ahnung ob ich etwas übelesen habe, aber könnt Ihr zu den Spielen noch schreiben ob diese in DX12 oder DX11 gebenchmarkt wurden?
 
Wolfgang schrieb:
Im Detail erreicht AMD mit den neuen Grafikkarten dennoch ein wichtiges Ziel: Der gut sechs Prozent große Sprung in der Leistung von der Radeon RX 480 zur neuen Radeon RX 580 lässt die Serie genau auf dem Level der GeForce GTX 1060 landen – sowohl was das Referenzdesign, als auch was die Partnerkarten betrifft.

Das Fazit lautet in Wirklichkeit wie bisher:
Spielst Du gerne Spiele, die mit Hilfe von Nvidia für deren GPUs optimiert wurden, dann meide AMD-Karten, egal in welcher Klasse.
Spielst Du gerne Spiele, die obiges Programm nicht durchlaufen haben, steht Dir der gesamte GPU-Markt offen und in der Mittelklasse hat dann AMD gerade die Nase vorne.

Ansonsten: Tschüß Polaris 10 und Willkommen Polaris 20, aber hätte es auch gereicht, wenn AMD die GPUs RX 485 und RX 475 genannt hätte...
 
edenjung schrieb:
Der einzige Weg AMD wieder zu helfen ist, indem ihr investiert. Aber da ihr oder besser gesagt der Käufer das nicht tut und AMD in der Vergangenheit einige Fehler begangen hat und nen paar mal unfair behandelt wurde (*hust* intel *hust*), haben wir nun den Salat.

Es war in dem Zusammenhang schon fast traurig, nochmal vor Augen geführt zu bekommen, was da 2007-2009 abgelaufen ist.

AMD hat jedes Jahr eine neue Architektur rausgebracht bzw waren Vorreiter in der Technik, während Nvidia ein Rebrand vom Rebrand gebracht hat.

2007

AMD
HD3800 Series
New Architecture
World's First 55nm
World's first DX 10.1

Nvidia
8800GT
Shrink der 8800GTX von 2006

2008

AMD
HD4800 Series
New Architecture
World's First TeraFLOPs Card
World's First GDDR5

Nvidia
9800GT
Rebrand der 8800GT von 2007

2009

AMD
HD4700 Series
World's First 40nm
3rd Gen DX 10.1
2nd Gen GDDR5

Nvidia
GTX 280/270/260 in 65/55nm, DX10
GTS250 Rebrand der 9800GTX, die wiederum ein Rebrand der 8800GTS OC ist.

Und was haben die Leute in der Zeit gekauft? Nvidia, die somit mit minimalem Aufwand immer weiter Geld scheffeln konnten und AMD alles für Innovation ausgegeben hat und dafür kaum etwas wieder bekommen hat. Irgendwann muss man dann zwangsläufig auch mit Rebrands anfangen, wenn kein Geld mehr da ist.
 
Zuletzt bearbeitet:
Zurück
Oben