Test Sapphire RX 480 Nitro+ OC im Test: Schnell und innovativ, aber nicht ohne Schwächen

forumuser05 schrieb:
Wenn man sieht, dass auch die Customs der RX 480 nicht wirklich mehr OC-Spielraum haben und entweder noch lange nicht verfügbar sind oder deutlich über 300€ teuer sind, dann könnte man doch auch eine gleich schnelle Custom R9 390X empfehlen oder?

zB für 317€ eine XFX 390X Double Dissipation ... das dabei auch noch Total War Warhammer dabei ist, kommt ja sogar noch on top ...

Warum nicht gleich eine Fury?

https://geizhals.de/sapphire-radeon-r9-fury-nitro-11247-03-40g-a1373816.html?hloc=at&hloc=de
 
eiscreme schrieb:
Der Verbrauch für Videowiedergabe wundert mich auch. Im 1060 Test verbraucht die 480 Stock einfach mal 35W mehr für FHD Youtube Videos, nicht gut für Leute, die auch Netflix schauen.

Hat der Videodecoder von AMD schon immer mehr verbraucht oder könnte da noch treiberseitige Optimierung kommen oder hat man hier einfach die Hardware Videobeschleunigung vergessen einzuschalten?
Das frage ich mich auch. Meine 7970 hat weder bei Youtube noch bei der Netflix App den Takt erhöht. Beides blieb im niedrigsten State und weder die Temperatur noch der Verbrauch stiegen.
 
Krautmaster schrieb:
Ich war auch mal so frei zu vergleichen. Bei dem oft als "Nvidiabase" genannten CB steht die RX 480 außerordentlich gut da.
Anhang anzeigen 571116

Vermutlich wegen Doom und Hitman ^^

Dafür hast du bei cb wieder ein schlechteres Verhältnis von Fury X und GTX 1080 von 6%.
Von daher denke ich mal ist das ganze sehr Testparcour abhänig, wie viel gesponserte Spiele in dem jeweiligen vorhanden sind. Und dann hast du bei den neuen Karten ja die Problematik, dass nicht jede gleich hochtaktet (im Hinblick auf das Gehäuse bzw. Kühlsystem und die daraus resultierenden Temps).
Früher war das Vergleichen dann doch etwas einfacher :)
 
Bärenmarke schrieb:
Dafür hast du bei cb wieder ein schlechteres Verhältnis von Fury X und GTX 1080 von 6%.

nicht mit der Gaming OC GTX 1080 vergleichen.

Bei CB ist die GTX 1080 38% schneller, bei PCGH 41%. Das ist natürlich auf Unschärfe zurückzuführen, vollkommen normal. Viel eher schon erstaunlich wie gut es matched.

Ich denke plus minus 5% also 10% hin oder her ist absolut erklärbar. Bei CB takten die Nvidias meist durch den geschlossenen Aufbau etwas niedriger.
 
Zuletzt bearbeitet:
forumuser05 schrieb:
Stimmt, auch keine schlechte Lösung, allerdings dann auch wieder um einiges teurer (317€ inkl. Spiel vs. 350€ ohne Spiel) und für 350€ sollte wahrscheinlich in der 2. Jahreshälfte 2016 eine Grafikkarte schon mehr als 4GB Speicher haben, selbst wenn es HBM-Speicher ist...

Evtl für UHD auflösung. für alles darunter reicht durch die super kompression bei AMD der HBM speicher doch easy aus. Sieht man ja in vielen Tests. selbst wenn die 4GB voll belegt sind kommt es zu keinerlei rucklern.
 
Das mit der Gaming hab ich übersehen, ist aber auch leicht unübersichtlich bei dem Ganzen wirrwarr.

Wobei mir bei pcgh aufgefallen ist, dass die R480 im Schnitt nicht mit den 1266 sondern nur mit 11xx taktet. Von daher ist das relativ zu vernachlässigen, wobei ich da wie schon erwähnt eher die gebenchten Spiele betrachten würde. So extreme Ausreiser wie Anno verzerren das Gesamtbild dann doch immer in die eine oder andere Richtung.
 
gunmarine schrieb:
Frage mich gerade wo die Leute sind die bei der 1060 rumgeschrien haben zu teuer, schlechteres P/L. 319€ für die Nitro vs 309-319€ für ne schnellere 1060 oc :D

Alle verschwunden, die ganzen Bescheidwisser :D

Das ist immer dieses Fakt a) gilt als Gegenargument bei Hersteller a).
Bei Hersteller b) ist aber Fakt a) dann meistens egal und fällt unter den Tisch.

Die 480 braucht weniger Strom als vorhergehende Modelle? Toller Vorteil!
So ziemlich jede Nvidia Karte der letzten Jahre braucht weniger Strom als
das jeweilige AMD Gegenmodell? "Wen juckts, lol :D"
Das gleiche mit der Abwärme oder mit der Lautstärke. Bei Nvidia war das
immer egal als Argument, jetzt ist es bei der 480 auf einmal wieder relevant.
Die 480 bei ein paar Benchmarks besser: Klar, muss die bessere Karte sein.
Die 1060 bei ein paar Benchmarks besser:
"Nvidia Abzockerverein, die Karte ist lächerlich, viel zu teuer etc. pp" - o rly?


Man könnte auch wieder hergehn und die Tests von CB kritisieren. Klar kann
man nicht jedes Spiel testen, aber man könnte Mirrors Edge Catalyst nehmen:

gtx-1060-bench-mec-1080.png 1060: Min FPS 56 - 480 Min FPS: 32

oder man könnte Shadow of Mordor nehmen:

gtx-1060-bench-mordor-1080.png 1060: Min FPS 66 - 480 Min FPS: 36

Assassins Creed Syndicate:

gtx-1060-bench-acs.png 1060: Min FPS 54 - 480 Min FPS: 36

Ich will damit nichts unterstellen, aber diese Diskussion hier auf Basis von
ner handvoll Benchmarks ist absolut nichts wert, da diese paar Werte nur
wenig über die Gesamtsituation aussagen. Wenn ich die schnellsten 1060er
und 480er Karten vergleiche, sehe ich eine 1060, die den besseren Mix aus
Performance, Stromverbrauch, Abwärme und Lüfter / Kühlung hat und dafür
kann man oder auch nicht ein bischen mehr Geld ausgeben - wenn man will.

Wen primär die Performance in neueren DX12 Spielen interessiert, für den ist
die 480 sicher die interessantere Karte. Und da habe ich kein Problem mit. :)
Jedem das seine. Es war hier einfach nur ein wenig oberflächlich in letzter Zeit.
 
So gerne ich die AMD RX480 auch besser gesehen hätte, summa summarum hat borizb absolut recht. Lautstärke, Stromverbrauch und Durchschnittliche Leistung bezogen auf den Preis und Verfügbarkeit der Customs sprechen eindeutig für die GTX 1060. Wenn man als Verbraucher Vernunft zeigen will, kann man sich nur dafür entscheiden. Meist aber spielt dann doch das "Herz" eine größere Rolle, als der Verstand. ;)
 
Zuletzt bearbeitet:
borizb schrieb:
Alle verschwunden, die ganzen Bescheidwisser :D
Warum sollen die überhaupt noch weiter in einem RX 480 Thread mit diskutieren, wenn die sich schon für die 1060 entschieden (bestellt) haben.
 
Bärenmarke schrieb:
Das mit der Gaming hab ich übersehen, ist aber auch leicht unübersichtlich bei dem Ganzen wirrwarr.

Wobei mir bei pcgh aufgefallen ist, dass die R480 im Schnitt nicht mit den 1266 sondern nur mit 11xx taktet. Von daher ist das relativ zu vernachlässigen, wobei ich da wie schon erwähnt eher die gebenchten Spiele betrachten würde. So extreme Ausreiser wie Anno verzerren das Gesamtbild dann doch immer in die eine oder andere Richtung.

ja es muss eigentlich schon am Takt liegen weil das PCGH + CB Rating sind mit Ausnahme der RX 480 sehr konsistent.

Die normale Sapphire Nitro scheint okay sein vom Verbrauch, ähnlich der Referenz. Die OC Karte zieht aber wohl massiv mehr für ein paar Mhz. Direkt krass wie man sich da der Custom R9 390 annähert.
 
Zuletzt bearbeitet:
Ratterkiste schrieb:
Bitte was? 1mm dick WLP ist wohl kaum empfehlenswert...

Es gab von ASUS ein Modell der 290X mit ihrem DCU-Kühler. Dessen Kühlleistung konnte man um mehrere Grad verbessern, wenn man zwischen Chip und Pipes eine Kupferplatte packte (mit WLP auf beiden Seiten natürlich...)

Würde man diese besagte Kupferplatte verlöten, dann wäre das ein richtig guter Kühler gewesen.

Ich gehör zu den Besitzern der R9 290-Version mit dem Kühler und kann das bestätigen.

http://www.gamestar.de/hardware/grafikkarten/asus-radeon-r9-290-directcu-ii-oc/test/asus_radeon_r9_290_directcu_ii_oc,806,3054885.html

Die Heatpipes liegen nicht alle auf und die Kühlleistung ist echt schlecht. Klettert auf 94°C und drosselt dann. Ein RAIJINTEK Morpheus hat da Ruhe gebracht.

Ich glaube mich zu erinnern, dass das DCUII-Design von der Geforce 780-Serie stammte. Zumindest der Teil der Heatpipe-Auflagefläche und der Chipform.
 
Zuletzt bearbeitet:
Jepp der Kühler war für die 290 alles andere als optimal. Die RX 480 scheint Asus mit der Kühlkonstruktion aber wesentlich besser im Griff zu haben, allerdings verbrauch die 480 im Vergleich zur 290 deutlich weniger.
 
Belatis schrieb:
Ich glaube mich zu erinnern, dass das DCUII Design von der Geforce 780-Serie stammte. Zumindest der Teil der Heatpipe-Auflagefläche und der Chipform.

Jop. War für die 780 entwickelt und dann einfach auf die 290 geschraubt.

Das Resultat kennen wir ja. Zum Glück gibts die gute Legierung und das tolle "Direct touch" (Sarkasmus darf behalten werden etc)
 
Das hier ist auch interessant:

2016-07-27 11_20_37-Info-Center.png

Doom - Erzwungene Bildsynchronisation bei Nvidia
Nutzer einer Geforce-Grafikkarte haben das bislang kaum dokumentierte Problem eventuell schon an eigenem Leib erfahren. Vielleicht sind Sie auch schon über entsprechende Foren-Einträge gestolpert oder Sie haben die Performance-Analyse von Digital Foundry auf Youtube gesehen. Wechseln Sie mit einer Nvidia-GPU auf die Vulkan-Schnittstelle, wird mit dem aktuellen Treiber Geforce 368.81 WHQL eine Bildsynchronisation aktiv, die stark an jene unter Microsofts Windows Store beziehungsweise der im Borderless Window samt Triple Buffering erinnert. Die Synchronisation lässt sich momentan nicht abschalten und wirkt sich in mehrfacher Hinsicht auf die Performance aus: Durch die Pufferung entsteht eine lästige Eingabeverzögerung, die insbesondere bei einem schnellen Shooter wie Doom außerordentlich unwillkommen ist. Dazu werden zur Wiederholfrequenz unpassende Frames nach der Synchronisation fallengelassen (Framedrops), was sich durch Microruckeln und einigen gröberen Stockern manifestiert. Der dritte Punkt ist die durchschnittliche Leistung, die durch die Bildsynchronisation deutlich geringer ausfällt. Auf der Habenseite entfällt unschönes Tearing.

http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Vulkan-Benchmarks-Frametimes-1202711/

Edit: Frage mich ob CB da im Parcour vllt auch etwas Probleme hat. Kann aber auch sein dass es nur den neusten Nvidia Treiber betrifft.
 
Zuletzt bearbeitet:
DieWahrheit schrieb:
Man muss mal vor Augen halten das Polaris 10 5,7 Mrd Transistoren hat. Der GP106 vom 1060 hat gerade mal 4,4 Mrd. RX480 ist deutlich aufwendiger bei der Produktion, der Chip hat knapp 30% mehr Transistoren mehr als GP106. Das ist sogar mehr als der Unterschied vom P10 zum GP104 mit 1070/1080 die nur ~26% mehr Transistoren haben. Wenn man das Bedenkt und noch die 2GB mehr auf die Platine vorhanden sind könnte man sagen das bei ähnlichem Preis Nvidia sich dumm und dämlich verdient.

Ihre Chips sind bei höherem Takt effizienter. Erlauben daher Chips mit weniger Fläche (günstiger) mit gleicher Geschwindigkeit. Dazu sind es auch Speicherkrüppel. Was die Chips noch kleiner macht. Weil ein sehr großter Teil macht der BUS vom Speicher aus und auch weniger vRam den die Kartenhersteller einkaufen müssen. Das freut die Marge, das ist richtig. Das was AMD abliefert ist wirklich nicht Ideal und erinnert mich etwas an 3dfx, wo sie versucht haben Entwicklungsrückstände mit mgpu Systemen zu kompensieren. Ganz so schlm mag es mit AMD noch nicht sein. Aber es wundert mich dennoch. Sie haben einen niedriger Takt und sind ineffizienter als nVidia. Als genau umgekehrt wie es lange im CPU bereich aussahr. Da war es eher umgekehrt, wo Intel mit niedrigen Taktfrequenzen mehr Leistung/Watt hatte. Sie laufen seit der 5xx/HD6xxx hinter her..... Sie schnören für den Endkunden dafür schöne gesamt packete. Zb das ihre Karten viel VRAM haben. Auch Vsync ist eine tolle sache. Das machen sie aber sicher nicht weil sie so Sozial sind. nVidia wiederum kann es sich erlauben über einen hohen Preis zu verkaufen. Ihen ist klar das für die meisten Kunden nur der Benchmark zählt. Und können daher AMD Chips vorsetzen auf die AMD nur reagieren kann. Nvida dominiert den Markt, ganz klar. Zum Nachteil vom Kunden.

Bärenmarke schrieb:
Nope tut nvidia im Vergleich nicht, da TMSC wesentlich mehr pro Wafer nimmt als GF. Gab es doch letztens erst einen Artikel, dass die Umsätze gestiegen sind da Apple eine hohe Nachfrage hat und die so gut wie jeden Preis bezahlen. Das wirkt sich dann auch auf AMD und nvidia aus, was meinst du wieso AMD GF bevorzugt hat? Weil es günstiger für sie ist.

So schlecht verdienen die bei nVidia auch nicht. Deutlich kleiner Chipfläche, weniger Ram, bei gleicher Leistung und höheren VK.
Das AMD bei GF Fertigt, kann einfach auch nur etwas mit notwendigen Kapazitäten zu tun haben. GF kommt ja ohnehin nicht mit, und Samsung muss nachhelfen, und die verschenken ihre Wafer sicher nicht.


Klar, Smarthphones gehen vor. Wobei man anmerken muss, das man nicht jede Fab für alles her nehmen kann. Ein ARM Prozessor wird ja ganz anders gefertigt, als eine Desktop GPU wo es auf mehr Leistung und nicht so sehr auf Effizienz an kommt. Aber deshalb darf man auch ausgehen, das die Chipffertiger dort Investieren wo das Geld ist, und das neue Fabs und Fertigungstechnologien ihren Fokus auf Mobilitly legen.
 
Zuletzt bearbeitet:
lynx007 schrieb:
[...] Aber es wundert mich dennoch. Sie haben einen niedriger Takt und sind ineffizienter als nVidia. Als genau umgekehrt wie es lange im CPU bereich aussahr. Da war es eher umgekehrt, wo Intel mit niedrigen Taktfrequenzen mehr Leistung/Watt hatte. [..]

IMHO lässt sich der Unterschied im Verbrauch durch die unterschiedliche Mikroarchitekur erklären. Man könnte meinen das CUDA hier effizienter arbeitet als GCN, aber das ist nur die halbe Wahrheit. Die meisten Spiele sind auf die derzeitige CUDA Generation ausgelegt bzw. alles unter DirectX12, wo AMD mit ihrer Rohleistung nicht glänzen kann, aber in Bitcoin Mining hat AMD die Nase vorn. Das liegt daran, dass CUDA besser in Videorendering arbeitet während GCN besser in Berechnungen ist. Alle anderen Berechnungen die benötigt werden wird bei Nvidia von der CPU übernommen, welche es meistens Effizient macht.

Damit Entwickler und Käufer sich nicht mehr ärgern (oder Gefahr auf CPU Bottleneck besteht) wird mit die nächsten Generation, Nvidias Architektur sich der GCN Architektur von AMD nähern. Aber ich denke Nvidia hat sich inzwischen gut Geldpolster angelegt um auch eine effiziente GCN ähnliche Architektur zu schaffen.
 
Zurück
Oben