Test Radeon RX 480 Red Devil im Test: PowerColors roter Teufel ist zivilisiert und leise

AdmiralPain schrieb:
Das würde ja bedeuteten die FPS hätten einen direkten Einfluss auf die Energieeffizienz. Es ist aber die Auslastung der Grafikkarte welche hier einen Einfluss auf die Energiebilanz hat.

Hättest du nicht wenigstens meinen Beitrag bis zum Ende lesen können bevor du dein Unverständnis zum Besten gibst?

ix.tank schrieb:
Und die vergleichsweise geringe Performance von AMD in dem Spiel erhöht auch die Chance, dass die Karte schlecht ausgelastet wird und damit ehr weniger verbraucht als bei einem Spiel bei dem sie ihre, im Gesamt-Performance-Überblick angegebene, "Relativgeschwindigkeit" zu den Vergleichsmodellen (der 1060 z. Bsp.) erreicht oder gar übertrifft.

Unabhängig davon sind Mittelwerte immer geeigneter für Vergleiche. Du würdest ja auch nicht wollen, dass die Performance nur Anhand von Anno verglichen wird und dann im Fazit steht: "AMD chancenlos gegen NV".
 
Zuletzt bearbeitet:
JoeCool schrieb:
[...]Ich vermute daß AMD den Chip mittelts Takt- und Spannungserhöhung näher an die DX11 Leistung der GTX 1060 bringen wollte. [...]

Zur 1060 konnte man damals nur Vermutung machen. Ich glaube AMD wollte hier die fast 2 Jahre alte 970 schlagen (immerhin die bestverkaufte Karte in der Klasse).
Ich denke auch das es sich hierbei um einen riskanten Zug handelt, aber einer der nötig war. 480 ist die bessere Karte, nur wenn es aus den Benches nicht hervorgeht weil DX12 und Vulkan noch in den Startlöchern sind, bringt es AMD wenig. Hier hat AMD zu allen Mitteln gegriffen um den radikalen Abverkauf der 970 zu bremsen.
 
Zuletzt bearbeitet:
Warum lässt man, während man den Benchmarkparcours absolviert, nicht einfach einen Stromzähler mitlaufen? Dann weiß man: das jeweilige System hat in den x Stunden des Testlaufs soundsoviel Strom verbraucht, selbst wenn Leerlauf vorkommt, ist das doch viel praxisnäher als irgendein Spiel kurz unter Volllast rennen zu lassen.
 
eiscreme schrieb:
Fullquote entfernt

Ähm AC funktioniert parallel ,aber es entsteht dadurch wenn AC nicht verwendet wird, kein Energie Belastungsvorteil gegenüber Nvidia Karten ohne AC, auch wenn man das vermuten könnte.

Warum das so ist?
Normalerweise müssen alle Befehle hintereinander verarbeitet werden, also Shader, dann Belichtung, dann was auch immer danach kommt usw.
AC macht nun folgendes: Wenn z.B in der Shader Berechnung Prozessorleistung in dieser Berechnung nicht genutzt wird, können diese Ressourcen schon für die nächste Berechnung in der Kette benutzt werden, also Polaris kann mit den Ressourcen dann z.B schon mal die Belichtung zum Teil berechnen.

Das hat aber in der Energiebilanz ohne eingeschaltetes AC absolut keinerlei Auswirkungen, weil, ja weil Nvidia und AMD ohne aktiviertes AC exakt die selbe Kette verarbeiten müssen, und exakt die selben Ressourcen in der Berechnungskette brach liegen haben, also existiert bei 100% Gpu Auslastung ohne AC bei beiden exakt der selbe Puffer, also die selbe Ersparnis in der Energiebilanz.


Das bedeutet im Fazit sogar Nvidia ist hier im Vorteil, denn NVidia kann dank fehlendem AC selbst bei maximaler Vollbelastung den Chip nicht so stark auslasten, wie AMD sobald AC eingeschaltet ist. Kein Wunder das die Chips von AMD so schwer zu kühlen sind.

Und Volllast bedeutet nicht das jeder Transistor werkelt, sondern schlicht, dass alle Ressourcen die Ereigniskette nicht schneller berechnen können, als sie es tun.
Es ist also nicht so das AMD hier weniger verbraucht, weil ein Teil des Chips brach liegt wenn AC ausgeschaltet ist, da beide Hersteller die selben Ressourcen ohne AC einsparen, es ist eher so das AMD Karten, sobald AC verwendet wird automatisch mehr verbrauchen als Nvidia Karten welche kein AC können.

Bedeutet das nicht aber auch, dass alle Tests zum Verbrauch mit DX 12 und Vulkan, also alles was AC bei AMD Karten verwendet, die Energiebilanz für AMD unfair ins negative gegenüber Nvidia ziehen, da AMD ja unter DX 12 und Vulkan parallel rechnen muss (somit mehr Verbrauch) , was Nvidia gar nicht erst kann (somit automatisch weniger Verbrauch, da der Puffer der nicht genutzten Ressourcen für Nvidia ja weiterhin ohne AC vorhanden ist. ) )
 
Zuletzt bearbeitet von einem Moderator: (In mehreren Beiträgen nun Dein Fullquote entfernt)
Normalerweise müssen alle Befehle hintereinander verarbeitet werden, also Shader, dann Belichtung, dann was auch immer danach kommt usw.
AC macht nun folgendes: Wenn z.B in der Shader Berechnung Prozessorleistung in dieser Berechnung nicht genutzt wird, können diese Ressourcen schon für die nächste Berechnung in der Kette benutzt werden, also Polaris kann mit den Ressourcen dann z.B schon mal die Belichtung zum Teil berechnen.

Nein, es geht hier nicht um klassische Shader. Es geht um die Aufteilung von Grafikberechnung und reinen Compute-Tasks. Diese können auf NV-Karten unterhalb von Pascal nur bedingt bis gar nicht gemischt parallel laufen. Heißt: Benötigt jeder Frame zum Beispiel vor der Ausgabe einen reinen DirectCompute ö. Ä. Part dann muss dieser warten bis die Grafik-Berechnungen abgeschlossen sind bevor er loslegen kann und umgekehrt dann wieder das gleiche Spiel. Die jeweiligen Aufgabentypen Grafik und Compute können aber parallel laufen. Also auch zum Beispiel Phong-Shading parallel zum Shadow-Map-Weichzeichner oder zu den Spherical Billboards oder was einem halt noch so einfällt.

(Btw.: Beleuchtung ist ein Shader :))
 
Zuletzt bearbeitet:
ix.tank schrieb:
Fullquote entfernt

Wo ist da jetzt der Widerspruch zu meinem Text?

Es bleibt ja immer noch die Tatsache, dass wenn AC nicht verwendet wird, Nvidia und AMD die Befehle auf die gleiche Weise verarbeiten, und sobald AC aktiv wird, AMD Zusatzarbeit hat, die sie ohne AC nicht hätte (wovon sie in der Leistung oder Bildqualität profitieren kann, was jedoch logischerweise den Energieverbrauch erhöht.

Ohne AC = Nvidia und AMD = selber Rechenweg = selbe Ersparnis.
Mit AC = AMD anderer Rechenweg/Parallel = mehr Rechenaufwand unter DX12 und Vulkan, halt unter allem was AC bei AMD nutzt.
Somit muss ja quasi ein DX 11 Titel genutzt werden, um den Verbrauch fair zu beurteilen. Anno? ;)

Und bitte nicht falsch verstehen, ich behaupte nicht das AMD, auch wenn AC nicht verwendet wird auf dem selben Effizienzniveau wie Nvidia liegt.
 
Zuletzt bearbeitet von einem Moderator:
Okay dann noch mal ausführlich:

Normalerweise müssen alle Befehle hintereinander verarbeitet werden, also Shader, dann Belichtung, dann was auch immer danach kommt usw.

Nein müssen sie nicht! Diese Aussage ist schlicht falsch!

AC macht nun folgendes: Wenn z.B in der Shader Berechnung Prozessorleistung in dieser Berechnung nicht genutzt wird, können diese Ressourcen schon für die nächste Berechnung in der Kette benutzt werden

Auch falsch! Bei Shadern gibt es keine Lücken. Sie können pro Warp-Scheduler parallel und gemischt ablaufen! Jeder SMM hat 8 dieser Scheduler bei Maxwell und je nach GPU gibt es dann bis zu 16 SMM. Das beherrschen die GPUs aber eigentlich auch schon seit der 8800GTX. Jeder Warp-Scheduler befeuert dann 32 SIMD Prozessoren daran ändert sich durch AC auch nichts diese Cluster bleiben SIMD. (Das gilt auch für DC, OpenCL oder CUDA Tasks)

AC setzt dort an wo bei NV die Giga-Thread-Engine steht und es geht um das Umschalten zwischen Grafik und Compute.

Grafik und Compute zu serialisieren ist auch nicht übermäßig schwierig und in der Regel auch nicht so granular nötig, dass AC wirklich Bäume ausreißt wenn man die Engine das in Software machen lässt. Man kann also auch so diese Lücken verschwindend klein halten.

Wichtig ist auch, dass man sich klar macht: Prinzipiell lassen sich auch im "Grafik-Modus" extrem viele Algorithmen umsetzen. Für meine Diplomarbeit vor 7 Jahren habe ich auf der GPU Bitonic-Sort oder Ray-Triangle-Intersection für einen Raycaster (siehe Avatar) völlig ohne DirectCompute/OpenCL/CUDA umgesetzt.
 
Du erkennst scheinbar nicht den Kern deiner verlinkten Videos. Sie zeigen beide, dass es genau nur um das Mischen von reinen Grafik und reinen Compute-Tasks geht.

Und nicht wie du behauptest: Generell um Task-Parallelisierung!

Ich habe dir exakt geschrieben, welche deiner Aussagen nicht stimmen. Dir hätte sich also die Möglichkeit geboten auf meine Antwort einzugehen. So wird die Diskussion etwas holprig :).

Ich habe auf dem Gebiet Monate mit einer Diplomarbeit verbracht, die all diese Aspekte beinhaltet. Mir brauchst du nicht wirklich zu erklären was AC an neu ist, bzw. was ohne AC vorher nicht ging. Dort habe ich mit DX 10 und SM 4 einen Raycaster für echten volumetrischen Nebel gebaut und daher also auch ungefähr eine Ahnung was bisher schon parallel ging und was nicht. Ergebnis: youtu.be/JrX-2fIXigg.

Das AMD-Video ist irgendwie auch für Kinder und zeigt einen Scheduler aber leider nicht das was AC ausmacht, dazu hätte es auch im "Ausgang" mehrere Gleise gebraucht. Threads eines Typs (Grafik, Compute) können schon immer (>= 8800GTX) parallel verarbeitet werden. Bei NV wird das globale Scheduling über die ganze GPU von der Giga-Thread-Engine übernommen und das lokale in den SMMs von den Warp-Schedulern und das hat aber auch nichts mit AC zutun. Das geht auch ohne! Zum Beispiel kann ein SMM problemlos Shadow-Maps rendern während zur gleichen Zeit ein anderer Volumennebel berechnet und dritter Normalmapping mit Phongshading durchführt, ganz ohne AC!

Worauf ich hinaus will: Überbewertet mal AC lieber nicht so krass, eine clever gebaute Engine bekommt das ohne signifikante Performanc-Einbußen auch so hin.

BTT: Um wirklich ein Bild davon zu bekommen welcher Hersteller unter DX12 oder Vulkan am Ende die Nase vorn hat, wird es wohl noch ein etwas größeres Spiele-Angebot benötigen. Wer jetzt zukunftssicher kaufen will kann eigentlich nur hoffen auf das richtige Pferd zu setzen. Nächstes Jahr wird das Bild bestimmt klarer. Aktuell würde ich ehr nach meiner Steam-Bibliothek (und Wunschliste) entscheiden, als auf ein mögliches Zukunftsszenario zu tippen.
 
Zuletzt bearbeitet:
ix.tank schrieb:

Doch doch, ich verstehe die Videos schon, und habe sie extra in einer Reihenfolge verlinkt, um dir etwas Schrittweise nahe zu bringen. :)

Da muss man doch beim Anfang anfangen oder? ;)

Das erste Video erklärt auch wie die Shader Units im Polaris im Gegensatz zu Pascal arbeiten, nicht mehr und nicht weniger.
Dazu muss ich sagen, dass du jetzt auch nicht Unrecht hast, dir fehlt möglicherweise nur etwas erweitere Information bezüglich dem Unterschied zwischen Nvidias AC und AMDs AC Arbeitsweise, deine Kenntnisse der Materie mache ich dir deshalb nicht streitig.

Natürlich kann Pascal auch ein minimum AC, wie jede Grafikkarte welche mehr als eine Line gleichzeitig verarbeiten kann.

Aber Pascals AC sieht so aus. Simple unveränderbare Lines welche zwar gleichzeitig parallel verarbeitet werden, aber nicht beeinflusst werden können. Und hier kommt AMD´s AC ins Spiel.

AMD geht einen anderen Weg. Amd kann in die Lines, also in die schon bestehenden Orders eingreifen, und parallel Lücken füllen, wenn auf einer anderen Line gerade etwas nicht unter voller Auslastung ist.
Oder in deiner Sprache, Amd nutzt die Shader, die gerade nicht synchronised mit etwas anderem beschäftigt sind, und bearbeitet mit diesen Shadern in dieser kleinen Zeit noch nicht bearbeitete Bereiche der anderen Lines ab.
Was zu bearbeiten und zu priorisieren ist, und wie es dann in welcher Line eingefügt wird, dieses wird wiederum von Teilen der Async Shader (Video 1) geleistet.
Diese Async Shader machen den Unterschied.

http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading

Ich denke ein wichtiger Satz für dich ist folgender.
Independent Command Streams can be interleaved on the GPU Shader Engines and execute simultaneousley (increases utilization and performance by filling gaps in the pipeline)

Zum letzten Abschnitt, da hast du recht. Man kann sich nicht sicher sein, ob AC zukunftssicher ist.
Da aber die Konsolen, auch die kommenden Modelle wahrscheinlich alle AMD GPU´s verwenden, ist die „AC“ Variante von AMD schon kein ganz unsicheres Pferd, auf das man wetten kann. ;)


Ps : Habe deinen editierten Text übernommen, damit wir nicht durcheinander kommen. ;)
 
Zuletzt bearbeitet von einem Moderator:
Okay ich gebe es auf. Wie kommst du überhaupt auf die Idee mir etwas erklären zu müssen, hast du meine Posts überhaupt gelesen? Evtl. auch mit bekommen, dass ich "etwas" in der Materie stecke? Ich schreibe dir detailliert warum deine Vorstellung von AC falsch ist und du antwortest mit Videos?!

Definitiv letzter Versuch:

Du verwendest den Marketing-Begriff AC einfach falsch, bzw. für Dinge, die schon immer gingen und einfach nichts mit AC zutun haben. Das es etwas mit Queues zutun hat stimmt sogar, aber nicht so einfach und generell wie du glaubst.

Asynchronous Compute besteht aus 2 wichtigen Teilen

Das ist der erste Teil: Ein MIMD-Scheduler der mehrere Command-Queues unterstützt:
Eine GPU hat 2 Scheduler-Typen einmal einen der nach dem MIMD-Prinzip arbeitet und einmal die kleineren auf den SIMD-Prozessoren. Bei AC geht es um den "MIMD-Scheduler". Dort hat man schon immer Command-Queues gehabt. Seit Kepler (GK110/GCN1.0) gibt es nun die Möglichkeit mehr als eine Queue für Compute-Tasks zu nutzen. Das kann Nvidia sogar aktuell mit 32 gegen 8 Queues bei AMD deutlich besser. (siehe Tabelle "GPU Queue Engine Support" deines Links)

Zweiter Teil: Die Fähigkeit Grafik- und Compute-Aufgabe gleichzeitig/gemischt von obigem Scheduler verteilen zu lassen:
In der Tabelle ist das die Spalte "Graphics/Mixed Mode". Hier hat sich eigentlich erst mit GCN 1.1 (290 Series) und Maxwell 2 wirklich etwas getan.
Allerdings deutet aktuell einiges darauf hin, dass Maxwell 2 diesen "Graphics/Mixed Mode" überhaupt nicht in Hardware unterstützt. Deswegen hebt AMD diese Fähigkeit so hervor, denn GCN1.1 kann es definitiv.

Independent Command Streams can be interleaved on the GPU Shader Engines and execute simultaneousley (increases utilization and performance by filling gaps in the pipeline)

Das Bild dazu zeigt unterschiedlich Farben, passend zu den Farben der unterschiedlich Thread-Typen auf der Folie davor. Ich denke dir sollte langsam klar werden was AMD damit sagen will und worauf sie so stolz sind.

Sicher nicht darauf, dass sie verschiedene Grafik-Aufgaben parallel ausführen können, das ging schon lange und das kann NV natürlich auch.
Sicher auch nicht darauf, dass sie verschiedene Compute-Aufgaben parallel ausführen können, das ging schon lange und das kann NV sogar besser.

Sie sind stolz darauf, das sie Grafik- und Compute-Aufgaben aus verschieden Queues durch den Scheduler jagen können (das kann NV aber auch) und vor allem darauf, dass sie dabei die Aufgaben aus den Grafik- und Compute-Queues mischen können (da können sie gegen NV punkten).

Und bitte hör auf zu versuchen mich zu belehren, ich hatte Parallelverarbeitung und Computer-Grafik als meine Spezialstrecken & Vertiefungsrichtungen inkl. Diplomarbeit an der Uni, ein gewisses Verständnis der Dinge bringt das schon mit sich ;)!

@CB
Könntet ihr evtl. mal einen Artikel zum Thema AC veröffentlichen der detailliert erklärt was AC kann und es präzise zu den Fähigkeiten der GPUs ohne AC abgrenzen? Es scheinen hier ja schon ziemlich wilde Theorien durch das Forum zu geistern, ich denke das wäre hilfreich!

@AdmiralPain unter mir:
Und ich bin persönlich nur der Meinung, dass du nicht verstanden hast, was mit AC gemeint ist. Das du nicht einmal fachlich auf meine Beiträge geantwortet hast, bestätigt das auch irgendwie für mich.
 
Zuletzt bearbeitet:
ix.tank schrieb:

Ich bestreite dein Fachwissen in keinster weise, respektiere es sogar, ich bin persönlich nur der Meinung, dass du aufgrund des Fachwissen den Wald vor lauter Bäumen nicht siehst, und darauf wollte ich hinweisen.

Ich wünsche noch ein schönes Wochenende, muss jetzt off. Man liest sich. ;)
 
Zuletzt bearbeitet von einem Moderator:
Welchen Sinn macht es eigentlich, dass OC BIOS zu nehmen? Die 8% mehr Leistung klingen zwar viel aber in den Benchmarks sind das ja im besten Fall mittlere einstellige Fps mehr als zum Silent BIOS und das bei Spielen, die im 90er Fps Bereich liegen.
Und dafür wird knapp 60W mehr verbraten!?
 
Averomoe schrieb:
Noch ein letzter Einwurf von mir in diesem Thread: Man bekommt eine 380X neu für 190,-. Wenn man nun ernsthaft 100 Euro und somit 50% drauflegt, erhält man was für einen Leistungsplus? Eben. Finde, dass die 380X derzeit die attraktivste Karte für 1080p-Gaming ist.

Für mich ist die 380 absolut keine Option.
Wenn man sich sowiso mit nur 4GB vram zufrieden gibt wird wohl die RX 470 nächste Woche preislich ähnlich liegen mit allen Vorteilen wie Features und Effizienz.
 
Das ist doch wirklich leise.
 
Also die RX 480 MSI Gaming X als Top Karte von MSI mit nur 1315 MHZ dürfte wohl auf Lautstärke und Temps optimiert sein.
Aber 330€ dafür und in AUT sogar 352€ ist vielzuviel so gut kann sie nicht sein das sie den Aufpreis zur Devil wert wäre.
Die Asus ist ja genauso überteuert.
Wobei 30€ Aufpreis zur MSI noch ok sind, da man ja auch 1 Jahr mehr Garantie erhält.
Wird man wohl noch 1 Monat warten müssen bis wirklich alle Customs auf dem Markt sind.
 
Zuletzt bearbeitet:
es sieht so aus als hätte Powercolor den goldenen Schnitt gefunden, aber was passiert wenn man bspw. die Sapphire per Wattman auf die gleichen Werte des Quiet-Modus vom Powercolor bringt (beide im Quiet Modus haben immerhin eine Different von 27MHz).

Hoffe im Vergleichstest wird so ein Versuch gestartet.

@Vitec
PCGH zeigt sogar das MSI als einziger den Speicher OCed hat um 50 MHz
 
Zuletzt bearbeitet:
Hat sich jemand von CB mittlerweile gemeldet und erklärt, warum es keine Videos zur Lautstärke mehr gibt?

Die Spieleauswahl ist, wie ich schon mal schrieb, nicht so toll. The Division, Tomb Raider, Doom, Witcher 3 und GTA5 wären auf jeden Fall interessanter.
 
Zurück
Oben