Test Sapphire RX 480 Nitro+ OC im Test: Schnell und innovativ, aber nicht ohne Schwächen

Der Verbrauch für Videowiedergabe wundert mich auch. Im 1060 Test verbraucht die 480 Stock einfach mal 35W mehr für FHD Youtube Videos, nicht gut für Leute, die auch Netflix schauen.

Hat der Videodecoder von AMD schon immer mehr verbraucht oder könnte da noch treiberseitige Optimierung kommen oder hat man hier einfach die Hardware Videobeschleunigung vergessen einzuschalten?
 
Zuletzt bearbeitet:
VitaBinG schrieb:
Ich habe eine GTX 760 OC von MSI und die ist bei Vollast unhörbar.

Lautstärke MSI GTX 760 OC : Idle 31 dBA / Last 38 dBA

Bitte mal mit den anderen Karten vergleichen, dann meckern.
("Asus RX 480 Strix": Idle 28 dBA / Last 32,5 dBA)/("Sapphire
RX480 Nitro+ OC Silent": Idle 28 dBA / Last 39,5 dBA)

Dann sollten die auch für dich unhörbar sein.
 
JoeCool schrieb:
Hallo Leute,

boah, ey, wat habt ihr denn für Systeme? Mein PC

war auf meinen verlinkten Test und dessen Testsystem bezogen welches mit einer GTX 1060 etwa 73W idle braucht. Die Nitro OC zieht da einfach mal >300W Last.
 
Krautmaster schrieb:
naja es stimmt schon etwas, schau mal hier:

https://www.computerbase.de/2016-07...leistungsaufnahme-des-gesamtsystems-anno-2205

schon die Refernezkarte braucht bei ANNO etwa gleich viel wie die Partnerkarten der GTX 1060, in anderen Spielen aber teils >50W mehr.

Anhang anzeigen 571118Anhang anzeigen 571119

und in Summe über 4 Spiele sind es >30W die sich die Ref. RX 480 mehr braucht, das untypische Anno schon eingerechnet. Also ganz unbegründet ist das nicht.

In Anno braucht die Sapphire RX 480 hier im Test schon 35W mehr als die Referenzkarte, wohlgemerkt im Quiet Bios. Da werden das in den anderen Games sicher noch paar W mehr sein.

Würde mich nicht wundern wenn so ne Custom RX 480 mit OC schnell das doppelte einer GTX 1060 Custom zieht, je nach Titel.

Edit:

http://www.eteknix.com/sapphire-nitro-rx-480-oc-8gb-graphics-card-review/11/

Anhang anzeigen 571121

Geht man von ~65W Idle Verbrauch des Systems aus ohne GPU sind es etwa ein Delta von 135W bei der Custom GTX 1060 und 237W bei der RX 480 Custom. Klein kleiner Unterschied sondern mal eben 100W.

Eine Tendenz ist in der Tat erkennbar. Ich weiss noch dass jmd von PCGH mal meinte sie nehmen Anno weil es das Worst Case Szenario für Grafikkarten ist, aber vielleicht war das letzte Anno gemeint.

Am besten sollte man wohl nur die Spiele für der Leistungsaufnahme nehmen die auf Nvidia und AMD normal performen. The Division, Witcher 3 und GTAV zB.

Was den Rest deines Beitrags angeht: ja ne sagen wir mal das dreifache einer 1060, wenn wir schon beim absurden Übertreiben sind :freak:

Der Eteknix Test ist an vielen Stellen nicht so wunderbar glaubwürdig. Die 480 Nitro soll also mehr als die Nano, 185W, verbrauchen? Nicht mal 30W weniger als eine 390 Nitro? Die über 250W aus dem Netzteil zieht? Ja klar glaube ich sofort.
Eine 480 @1266MHz braucht durchschnittlich ca. 160W und kann dabei ordentlich undervoltet werden. Dass die Leistungsaufnahme bei nicht einmal 100 MHz OC auf über 200W steigt, ist unrealistisch.

@ sacgbö super Kommentar :daumen:
 
Zuletzt bearbeitet:
Hallo zeedy,

Eine 480 @1266MHz braucht durchschnittlich ca. 160W und kann dabei ordentlich undervoltet werden.

kannst du dazu genauere Angaben machen? Ich hatte in dem Thread angefragt

https://www.computerbase.de/forum/threads/rx-480-untervolten.1603109/

aber leider hat dort niemand geantworet der selbst schon versucht hat eine RX 480 zu untervolten.
Für mich macht es irgendwie keinen Sinn daß NVidia bei 16nm Fertigung und 1800 Mhz
mit etwas weniger Spannung auskommt als AMD bei 14nm Fertigung und 1300 Mhz.

Hallo eiscreme,

Hat der Videodecoder von AMD schon immer mehr verbraucht ...

ja leider, das wird seit Jahren in Tests bemängelt aber bis jetzt von AMD nicht abgestellt.

... oder könnte da noch treiberseitige Optimierung kommen ...

das kann ich dir leider nicht beantworten.
Ich meine da könnte AMD treiberseitig etwas dran ändern, denn es ist nicht notwendig
daß die GPU und der Speicher für BlueRay und Youtube Videos derart hochtakten.

... oder hat man hier einfach die Hardware Videobeschleunigung vergessen einzuschalten?

Bei einem Test könnte das schon passieren, aber bei allen Tests wohl eher nicht.

Gruß, JoeCool
 
Zuletzt bearbeitet:
@zeedy scheint nur so unrealistisch ist es aber nicht da der Zusammenhang zwischen Takt, Spannung und Verbrauch nicht proportional ist. Da steckt mindestens ein Quadrat drinnen, wenn nicht sogar eine höhere Ordnung. Wenn AMD nun bereits ab Werk an die Grenze getaktet hat, dann kannst du dir ja vorstellen wie es für die Partner oben an der Parabel aussieht.

@JoeCool im RX 480 Test wurde undervoltet https://www.computerbase.de/2016-06/radeon-rx-480-test/12/, ich glaub hardwareluxx hat sogar in einigen P-States mehr rausholen können
 
Zuletzt bearbeitet:
Dafür hat AMD auf ca 230mm Chips 2304 Shader und Nvidia auf 200mm Chips 1280 Shader.
AMD setzt auf Packdichte (anscheinend besser für LL-APis und Nvidia setzt auf Takt (wohl besser in dx11).
 
Zum undervolten, hatte hier schon ein englischen Test verlinkt, dort hat man die letzten 2 States auf 1050 mV festgelegt. Die Taktrate lag danach immer bei 1266 mHz und je nach Spiel lag der Verbrauch 10-30 Watt niedrieger.
Andere Werte wurden dort aber nicht angepasst.

9t3ndo schrieb:
Scheint wohl auch einfach ein Arctic Accelero Mono Plus zu reichen.

Edit:
Hab mal einen halbwegs ausführlichen Test zum Undervolten gefunden:
http://www.legitreviews.com/amd-radeon-rx-480-undervolting-performance_183699
10-30 Watt sinds weniger pro Spiel.
 
Zuletzt bearbeitet:
@JoelCool man sieht ja im CB Test, dass für 1266 MHz deutlich weniger Spannung notwendig ist. Der TSMC Prozess scheint darüber hinaus besser zu sein. Guck dir zum Beispiel die Idle Spannung bei Polaris und Pascal an.
Ergänzung ()

eiscreme schrieb:
@zeedy scheint nur so unrealistisch ist es aber nicht da der Zusammenhang zwischen Takt, Spannung und Verbrauch nicht proportional ist. Da steckt mindestens ein Quadrat drinnen, wenn nicht sogar eine höhere Ordnung. Wenn AMD nun bereits ab Werk an die Grenze getaktet hat, dann kannst du dir ja vorstellen wie es für die Partner oben an der Parabel aussieht.

Raff von PCGH meinte doch in seinem "RX 480 mit Nachrüstkühler" Video, dass die Karte übertaktet (1350 MHz also sogar mehr als die Sapphire, auch der Speicher wurde übertaktet) bis zu 180W benötigt. Laut Eteknix soll sich die der PC mit der 480 Nitro aber über 30W mehr als die Nano gönnen..also etwa 215W für die Nitro :lol:
Kaum vorstellbar.
 
zeedy schrieb:
Eine Tendenz ist in der Tat erkennbar. Ich weiss noch dass jmd von PCGH mal meinte sie nehmen Anno weil es das Worst Case Szenario für Grafikkarten ist, aber vielleicht war das letzte Anno gemeint.

ja das letzte Anno war wie Furmark :D
 
Sinthuria schrieb:
Die Sapphire ist mit Sicherheit nicht das, was sich die meisten von der Karte versprochen haben. Ich frage mich allerdings warum, sich die Karte im Vergleich zur Asus noch schlechter übertakten lässt. Das Kühlsystem macht nach meiner Meinung überhaupt keine gute Figur. Wenn MSI den gleichen Kühler wie bei der GTX 1060 verwenden sollte, dürfte dies wohl dann die interessantere Karte sein.

Hängt auch vom Preis ab, bisher nur ein Angebot für 349€ :mad:
 
Im PCGH Artikel wird geschrieben "Leistungsaufnahmebereich zwischen 180 und 190 Watt", gar nicht mal so fern von den 200 Watt. Die Nitro+ ohne OC verbraucht auch 10 Watt mehr als das Referenzdesign unter anderem wegen Doppellüfter.

Beim Test von eteknix sollte man beachten, dass der Wert auf das Gesamtsystem bezogen ist und die CPU, Lüfter und Co hier auch aufdrehen. Also sind die 200W nicht unbedingt auf die Grafikkarte alleine zurückzuführen.
 
sacgbö schrieb:
Dafür hat AMD auf ca 230mm Chips 2304 Shader und Nvidia auf 200mm Chips 1280 Shader.
AMD setzt auf Packdichte (anscheinend besser für LL-APis und Nvidia setzt auf Takt (wohl besser in dx11).

Man muss mal vor Augen halten das Polaris 10 5,7 Mrd Transistoren hat. Der GP106 vom 1060 hat gerade mal 4,4 Mrd. RX480 ist deutlich aufwendiger bei der Produktion, der Chip hat knapp 30% mehr Transistoren mehr als GP106. Das ist sogar mehr als der Unterschied vom P10 zum GP104 mit 1070/1080 die nur ~26% mehr Transistoren haben. Wenn man das Bedenkt und noch die 2GB mehr auf die Platine vorhanden sind könnte man sagen das bei ähnlichem Preis Nvidia sich dumm und dämlich verdient.
 
Hallo eiscreme,

vielen Dank für den Link. Oh weh, was bin ich manchmal blind :cool_alt:

9t3ndo, auch dir vielen Dank für die Links.

Den Arctic Accelero Mono test kannte ich schon.
Wenn AMD die Referenz RX 480 mit einem 8-pin Stecker ausgerüstet hätte
würde ich mir eine Referenzkarte kaufen
und da einen guten Nachrüstkühler drauf setzen.

Gruß, JoeCool
 
Zuletzt bearbeitet:
Wenn man sieht, dass auch die Customs der RX 480 nicht wirklich mehr OC-Spielraum haben und entweder noch lange nicht verfügbar sind oder deutlich über 300€ teuer sind, dann könnte man doch auch eine gleich schnelle Custom R9 390X empfehlen oder?

zB für 317€ eine XFX 390X Double Dissipation ... das dabei auch noch Total War Warhammer dabei ist, kommt ja sogar noch on top ...

Zumal die Custom RX 480 ja auch nicht schneller als eine Custom R9 390X ist, der Preis mehr oder weniger identisch ist (+ Gratisspiel bei der R9 390X), der Verbrauch mit den Custom Modellen nun auch nicht mehr so essentiell niedriger liegt und vor allem bisher keine Variante wirklich LEISE ist. Mehr als "nicht so laut" gibts noch nicht wirklich, schade eigentlich ...

Wenn die es einfach mal hingekriegt hätten, eine Custom zu basteln, die 5% oberhalb der Referenzleistung, dazu wirklich leise und halbwegs kühl ist und maximal 299€ kostet (magische Grenze für viele), dann hätte es sicher wieder mehr Interessenten gegeben.
Aber ganze 50€ über dem Referenzdesign mit einem OC, das auch nicht wirklich mehr als das Referenzdesign bietet und das ganze auch nicht mal leise ... warum sollte man sie sich kaufen?
Vielleicht machts ja die Powercolor besser, obwohl die Sapphire schon als ultimative Custom-Variante angepriesen wurde ... mal schauen, aber vielversprechend sind die Custom-Ergebnisse bisher nicht ... trotz niedrigerer TDP kriegen sie die Karte nicht leise oder schaffen mal problemlos über 1400MHz mit OC ... nein, nicht nur die 4GB Variante ;)
 
eiscreme schrieb:
oder hat man hier einfach die Hardware Videobeschleunigung vergessen einzuschalten?
Es hängt vom Videomaterial ab, aber ich mag wetten, dass GPU-beschleunigte FullHD-Videowiedergabe - egal mit welchem Codec - auf typischen Gaming-Rechnern ineffizienter ist als reines CPU-Decoding. Das ist auf meiner Desktop-Kiste so, das ist in gewisser Weise auch auf meinem Notebook so, und das dürfte auch auf modernerer Hardware so sein - deswegen weiß ich gar nicht, warum sich da alle so drüber aufregen.

FullHD-Zeugs schafft jede popelige Notebook-CPU problemlos im Stromsparmodus, dafür eine dedizierte GPU anzuwerfen, ist leistungsmäßig völlig unnötig - spannend wird das ganze
- bei APUs (natürlich inklusive Intel), wo das ganze dann schon eher einen Effizienzvorteil haben kann. Aber auch da hängt es vom Material ab, mein AMD-Notebook hält länger, wenn ich für ≤720p die Hardware-Decodierung nicht verwende und stattdessen die CPU mit niedrigstem Takt laufen lasse.
- bei 4k-Material mit entsprechend hohen Bitraten, insbesondere mit HEVC oder VP9. HEVC mit 4k/60 FPS dürfte auch moderne Desktop-CPUs noch vor Probleme stellen, da kann man die Leistung dann plötzlich brauchen.
 
forumuser05 schrieb:
[....] dann könnte man doch auch eine gleich schnelle Custom R9 390X empfehlen oder?
Generell würde ich nie alte Hardware empfehlen außer es handelt sich um ein rebrandt oder wurde nur umgelabelt. Die R9 390X ist noch GCN 2.0 während wir mit Polaris jetzt bei 4.0 sind. 3.0 waren 380X, Nano und Fury.

Mit der neuen 480 gibt es auch noch eine höhere Version in HDMI und DP. Zur Architektur wurde hier kurz angeschnitten https://www.computerbase.de/2016-06/radeon-rx-480-test/13/

@VikingGe interessant müsste ich mal selbst nachmessen. Habe mal schnell gegooglet die Videodecoder haben alle ihre eigenen Namen :D PureVideo HD (Nivida), Intel Quick Sync Video (Intel), Unified Video Decoder (AMD). Mit Polaris kann AMD H.265 Hardware dekodieren, also muss da etwas sein. Mit Pascal ist Nvidia in der achten Generation PureVideo HD, während AMD die seit GCN 1.2 noch die sechste Generation (aktuellste) UVD nutzt. Ah mit der Video Coding Engine von AMD lässt sich im Hybrid Mode die 3D Engine benutzen für den großteil der Berechnungen, da geht bestimmt noch was treibermässig hier können die Entwickler wie Linux und Microsoft selbst Hand anlegen. Im Zusammenhang mit der neuen GCN und der vllt der noch nicht vorhandenen Softwareoptimierung könnte das eine Erklärung sein für die schlechtere Videoperformance.
 
Zuletzt bearbeitet:
Xes schrieb:
Nicht die AMD-Karte braucht weniger sondern das gesamte Testsystem:
Folgendes ist der Fall: Im getesteten Anno erreicht die AMD-Karte deutlich weniger FPS, als die GTX 1060. Dadurch sinkt dementsprechend auch die CPU-Last im AMD-System deutlich. CB misst aber nur die Gesamtleistungsaufnahme des Testsystems.

Dementsprechend sieht es durch den Anno-Test so aus, als würde die RX 480 nur 5W mehr benötigen. Das ist allerdings in den meisten anderen Spielen, in denen die RX 480 nahezu gleichauf mit der GTX 1060 zieht nicht mehr der Fall, da dort auch die CPU-Last wieder ausgeglichen ist.
Die paar Watt die eine CPU mehr abrufen muss fallen kaum ins Gewicht. Man könnte ebenso argumentieren, das der höhere CPU Overhead bei Amd trotz niedrigerer Fps die CPU stärker belastet. Ergo. So Pauschale Aussagen nicht nicht haltbar
 
DieWahrheit schrieb:
Man muss mal vor Augen halten das Polaris 10 5,7 Mrd Transistoren hat. Der GP106 vom 1060 hat gerade mal 4,4 Mrd. RX480 ist deutlich aufwendiger bei der Produktion, der Chip hat knapp 30% mehr Transistoren mehr als GP106. Das ist sogar mehr als der Unterschied vom P10 zum GP104 mit 1070/1080 die nur ~26% mehr Transistoren haben. Wenn man das Bedenkt und noch die 2GB mehr auf die Platine vorhanden sind könnte man sagen das bei ähnlichem Preis Nvidia sich dumm und dämlich verdient.

Nope tut nvidia im Vergleich nicht, da TMSC wesentlich mehr pro Wafer nimmt als GF. Gab es doch letztens erst einen Artikel, dass die Umsätze gestiegen sind da Apple eine hohe Nachfrage hat und die so gut wie jeden Preis bezahlen. Das wirkt sich dann auch auf AMD und nvidia aus, was meinst du wieso AMD GF bevorzugt hat? Weil es günstiger für sie ist.
 
Zurück
Oben