News Radeon RX 480: 18-cm-Platine, 60 °C unter Last, DVI als Option

AMD macht bei der Karte vieles richtig. Sie scheint sehr kosten-effizient gebaut zu sein um auch einen recht niedrigen Verkaufspreis zu realisieren. Das Testmodell stellt man quasi auf den Sweet Spot der Taktraten, find ich gut, hier hat man gelernt. Auch das Kühlsystem mit rückwärtiger Ansaugung wie bei den Fermis kitzelt vielleicht noch das ein oder andere Grad raus.

Man kann so ein sehr rundes Produkt liefern und überlässt die schlechte Effizienz einfach dem manuellen OC und den Custom Modellen, lässt diese höher takten und gibt den OEMs Freiraum. Genauso macht es Nvidia auch denn kaum eine Custom kommt an die Effizienz der Stock Karten.

Bisher spricht vieles dafür dass AMD zwar nicht die schnellste Karte vorstellt, dafür aber ein sehr rundes Produkt das viele mit 2-5 Jahre alten GPU zum Aufrüsten bewegen könnte. Zukunftssicher dank 8GB zu moderatem Preis.
 
Hallo zusammen,

@ Krautmaster

Krautmaster schrieb:
AMD macht bei der Karte vieles richtig. Sie scheint sehr kosten-effizient gebaut zu sein um auch einen recht niedrigen Verkaufspreis zu realisieren. Das Testmodell stellt man quasi auf den Sweet Spot der Taktraten, find ich gut, hier hat man gelernt. Auch das Kühlsystem mit rückwärtiger Ansaugung wie bei den Fermis kitzelt vielleicht noch das ein oder andere Grad raus.

Man kann so ein sehr rundes Produkt liefern und überlässt die schlechte Effizienz einfach dem manuellen OC und den Custom Modellen, lässt diese höher takten und gibt den OEMs Freiraum. Genauso macht es Nvidia auch denn kaum eine Custom kommt an die Effizienz der Stock Karten.

Bisher spricht vieles dafür dass AMD zwar nicht die schnellste Karte vorstellt, dafür aber ein sehr rundes Produkt das viele mit 2-5 Jahre alten GPU zum Aufrüsten bewegen könnte. Zukunftssicher dank 8GB zu moderatem Preis.

Stimme dir in nahezu allem zu. Wenn der Preis und die Leistung auch am Ende stimmt, Respektive einer guten Partnerkarte, werde ich nach 5 Jahren auch meine Radeon 5850 Xtreme endlich mal Ersetzen.

Jetzt hoffe ich nur, daß die ganzen Benches sich am Ende auch in Realer Leistungsfähigkeit zum Ausdruck Bringen.

So long....
 
@ampre
Nicht wirklich...nimm ein Spiel bei dem beide Grafikkarten die CPU ähnlich gut auslasten können und du wirst ohne sonstige Bevorzugungen eine vergleichbare Leistung erhalten.
Wenn das Spiel z.B. nur 3 Kerne vernünftig auslasten kann aber du nutzt z.B. einen 6 oder 8 Kerner dann wirst du von hause aus im CPU limitierten Bereich nie über 50% CPU Last hinaus kommen, es sei denn der Treiber bekommt es irgendwie dennoch gebacken die Last auf mehr Kerne zu verteilen. Schon rennt jene Karte der anderen davon.
 
Und warum ist die Amd Karte dann auch noch beim Übertakten schlecht oder bei mehr Kernen? Das ist kein Cpu Limit. Die Amd Karte bringt unter dx11 einfach nicht mehr durch. Deshalb liefert die Cpu erst mal nichts und dreht im Leerlauf.

Das ist ja das absurde das sich beide Langweilen. Das Nadelöhr ist die APi. Nicht umsonst puschte amd mit Mantle und jetzt mit dx12.
 
Zuletzt bearbeitet:
bazooExcalibur schrieb:
60 °C unter Last und das bei AMD, das ist ne Sensation.

Sarkastoball spielen oder einfach nur ein nVidia-Fanboy?!
Ich tippe auf Letzteres.
BTW
Meine letzten AMD-Karten wurden dank Windforce-Kühlung seitens Gigabyte nie wärmer als 67°C. Dazu noch angenehm leise.
 
Meine 7950 sieht auch keine 70Grad max. 65 auch wenn Tropenwetter in der Bude ist^^.
Im Winter musse sich schon anstrengen überhaupt die 60 zu erreichen.
 
@ampre
Weil mehr Kerne und eine Übertaktung der Grafikkarte vollkommen Latte sind.
Die Übertaktung der Grafikkarte verpufft im CPU Limit und mehr ungenutzte Kerne führen nur dazu das die Gesammtlast der CPU fällt.
Bei einer Übertaktung der CPU dürfte hingegen der Abstand zwischen beiden schrumpfen weil Grafikkarte A weiter aus dem CPU Limit fährt in dem Grafikkarte B so nicht steckt.

Schau dir an der Stelle einfach mal parallel die GPU Auslastung an.
Mich würde es nicht wundern wenn die Radeon bei dem DX11 Szenario die GPU Auslastung deutlich geringer ausfallen würde, was ein recht eindeutiges Zeichen für eine Begrenzung durch die CPU ist.
Eine einfache Rechnung. Eine schlechtere CPU und GPU Auslastung = schlechterer multicore Support = mehr ungenutzte Kerne.
 
Hallo zusammen,

@ Winchester73

Winchester73 schrieb:
Sarkastoball spielen oder einfach nur ein nVidia-Fanboy?!
Ich tippe auf Letzteres.
BTW
Meine letzten AMD-Karten wurden dank Windforce-Kühlung seitens Gigabyte nie wärmer als 67°C. Dazu noch angenehm leise.

Ist aber bei weitem nicht alleine von der Kartenkühlung abhängig. Das Gehäuse, die sonstige Gehäusekühlung, wirkt sich mindestens ebenso stark aus. Wenn die Abwärme nicht vernünftig aus dem Gehäuse befördert wird, nutzt einem eine gute Kartenkühlung nur bedingt etwas.

So long....
 
Wadenbeisser schrieb:
@ampre
Weil mehr Kerne und eine Übertaktung der Grafikkarte vollkommen Latte sind.
Die Übertaktung der Grafikkarte verpufft im CPU Limit und mehr ungenutzte Kerne führen nur dazu das die Gesammtlast der CPU fällt.
Bei einer Übertaktung der CPU dürfte hingegen der Abstand zwischen beiden schrumpfen weil Grafikkarte A weiter aus dem CPU Limit fährt in dem Grafikkarte B so nicht steckt.

Schau dir an der Stelle einfach mal parallel die GPU Auslastung an.
Mich würde es nicht wundern wenn die Radeon bei dem DX11 Szenario die GPU Auslastung deutlich geringer ausfallen würde, was ein recht eindeutiges Zeichen für eine Begrenzung durch die CPU ist.
Eine einfache Rechnung. Eine schlechtere CPU und GPU Auslastung = schlechterer multicore Support = mehr ungenutzte Kerne.

Wie kann etwas im Cpu Limit sein wenn die Cpu nur auf 50% läuft? Und warum investiert Amd Millionen in eine neue Api? Weil sie nichts besseres zu tun haben? Denk mal drüber nach und ich meinte übrigens Cpu Übertakten bringt nichts. Weil sie sich langweilt weil sie nichts an die gpu abgeben kann!

Nochmals du hast ein Nadelöhr das ist die APi. Das ist die Schnittstelle. Rechts davon ist die gpu links davon die Cpu. Wenn nichts durch die Schnittstelle geht Langweilen sich beide Seiten.

Schau dir doch mein Bild an das ist ein ganz anderer Ablauf der beiden APIs
 
Zuletzt bearbeitet:
@ampre
Weil wir nicht mehr über Singlecores reden.
Kann ein Programm nur einen Kern nutzen bekommst du bei einem 4 Kerner nicht mehr als 25% Gesammtauslastung damit hin, bei einem 6 Kerner wären es ca. 16,6%, bei einem 8 Kerner 12,5% und so weiter. SMT Geschichten wie Intels Hyperthreading gehen dabei durch die hinzu gekommenen virtuellen Kerne auch noch zusätzlich in die Rechnung mit ein.

Warum AMD das Geld in eine API investiert hat die zum einen die CPU Last senken und die Lastverteilung auf die Kerne verbessern soll? Ich denke das dürfte angesichts der FX Modelle ziemlich selbsterklärend sein.

Hast du überhaupt mal entsprechende Tests gemacht oder stützt du dich dabei auf Tests von Spielen die die ohnehin für die Geforce optimiert sind und entsprechend besser darauf laufen? Entsprechende Hilfsmitten dürfte Gameworks mitbringen und zur Not ballert man einfach die Tesselation so hoch das die Radeons entsprechend stark einbrechen. Optisch sieht den Unterschied zwar keiner aber man sitzt in den Benchmarks an der Spitze und die unnötig verballerte Rechenleistung macht man mit geringeren Details wett.
 
@ampre
Ach und noch etwas zu deinem Nadelöhr.
Auf der einen Seite ist die Hardware und auf der anderen Seite die Software, es ist die Vermittlungsstelle zwischen diesen beiden Welten.
CPU und GPU liegen auf der gleichen Seite und wollen von der Software genutzt werden.
 
Es stützt sich auf meine Logik plus Aussagen von Amd Entwicklern die schon lange Dx12 gefordert haben! Dx11 ist für eine serielle Renderpipline dx12 für eine parallele Renderpipline ausgelegt. Deshalb schmiert auch Maxwell so in Dx12 ab da Serielle ausgelegt! Und die Renderpipline ist in Hardware gegossen!

Noch mal ein anderer Vergleich. Die Cpu kann wenn gefordert 5 Wassereimer pro Minute liefern. Durch dx11 geht 1 Eimer durch. Bei dx12 gehen gleichzeitig 5 Eimer durch. Amd kann 5 Eimer gleichzeitig pro Minute abnehmen, Nvidia kann nur 1 Eimer aber dafür 5 mal so schnell abnehmen. Jetzt kannst du dir mal ausmalen was passiert!

Amd bekommt bei Dx 11 einen Eimer Pro Minute durch, da Amd zwar viele Eimer abnehmen kann, diese aber nur sehr langsam abnimmt. Da nur 1 Eimer bei Dx11 Durchkommt nimmt die Gpu nur 1 Eimer ab und der Rest steht still.

Nvidia bekommt dafür das Problem bei dx12, das alle Eimer auf einmal kommen und sie erst mal Aufwand betreiben müssen, sie so zu ordnenen das nur 1 Eimer alle 12 Sekunden kommt. Sonst Haut das nicht hin mit dem Abnehmen der Eimer
 
Zuletzt bearbeitet:
Wie viel schneller ist die rx 480 im vergleich zur GTX 960? Also lohnt sich der umstieg?
 
Schau mal was zwischen gtx 960 und einer r9 390x liegt das durfte ein guter Anhaltspunkt sein
 
@ ampre
GPUs sind der Inbegriff einer parallelen Ausführung, das was du meinst ist das Async Compute Feature von DX12 das wie Intels Hyperthreading nur ein Lückenfüller für die Pipeline ist. Das hat mit irgendeiner seriellen oder parallelen Auslegung herzlich wenig zu tuen, der Maxwell kann davon einfach nur nicht profitieren und der große Leistungssprung bei den Radeons ist eher auf die bessere Lastverteilung auf die CPU Kerne zurück zu führen von der die Geforce nicht mehr profitieren kann weil das in vielen Fällen schon der Treiber erledigen kommte.

Deine Eimer Rechnung ist ja ganz doll aber ohne Berücksichtigung des Inhaltes/Volumens und der zu transportierenden Menge einfach nur Quatsch.
 
Hallo zusammen,

@ Fritzibox

Fritzibox schrieb:
Wie viel schneller ist die rx 480 im vergleich zur GTX 960? Also lohnt sich der umstieg?

Grundsätzlich kommt es darauf an, welche Spiele du absolvierst und vor allem, unter welcher Auflösung. Persönlich würde ich bei Full HD jedenfalls nicht von einer GTX 960 auf eine RX 480 Umsteigen. Das ergibt im Großen und Ganzen keinen sonderlichen Sinn.

Aber wie dargelegt, es kommt auch auf die Spiele und die absolvierte Auflösung an.

So long...
 
Nein eben nicht. Sind gpu im Kern parallel. Die Befehle wie sie der Commander Prozessor verarbeitet aber nicht u D da liegt der Unterschied! AMDs Command Prozessor kommt besser mit dx12 klar als mit dx11. Umgedreht gilt das für Pascal und Maxwell.

Schau dir den Drawcall Test an! Maxwell packt es trotzt mehr Takt und mehr Rasterizer nicht mehr Polygonen umzusetzen als Amd? Der Commande Prozessor ist da am Ende. Der wurde auch nicht für Dx12 ausgelegt!

Schau dir das Bild noch mal an. Da geht's nicht um Async Compute sondern um die ganze Pipline und die Pipline ist die Architektur!

http://cdn.arstechnica.net/wp-content/uploads/sites/3/2015/08/anddx12.jpg
 
Zuletzt bearbeitet:
@ ampre
Ich habe bisher keinerlei Belege für deine Aussage oder Widerlegungen meiner Aussage gesehen.
Damit behaupte ich einfach mal das du das 0815 geblubber das ständig wiederholt wurde einfach nur nachplapperst.
Pascal kommt einfach nur besser mit Async Compute klar und das hat recht wenig mit deiner parallel/seriell Theorie zu tuen.
Hättest du verstanden worum es dabei geht dann wüßtest du auch das mit diesem Lückenfüller die Befehle dennoch seriell weiter laufen, nur eben mit weniger Lücken dazwischen und genau deshalb geht auch mehr durch.
 
Zurück
Oben