Test AMD Radeon RX 480 im Test: Schnell und effizient mit 8 GByte für 260 Euro

Nein über DP oder HDMI wird nichts höher da kein RAMDAC benötigt wird. Wie der Name schon sagt ist ein RAMDAC einfach nur ein Random Access Memory Digital/Analog Converter. HDMI oder DP sind aber Digital ergo muss da nichts umgewandelt werden.

Das der eigentliche RAM Takt hoch geht ist einfach nur ein Fehler im Treiber. Müsste er nicht aber er meint da würde nun eine super Last kommen und taktet deswegen hoch. Wie neueinsteiger84 schon schrieb ist das hochtakten nicht nötig.
 
Joar ändert tortzdem nichts an meiner Aussage ;)
 
Ich habe zwar keine Ahnung von RAMDAC usw. Aber ist das Fazit etwa wie folgt:

Entscheidend ist die höhere Auflösung, also wenn die Monitorauflösung UHD ist, wird alles wie UHD behandelt, egal in welcher Auflösung das Video ist.
Wenn das Video in UHD abgespielt wird, ist es egal ob man einen FHD oder UHD Monitor hat.

Wenn dem so ist, verzerrt dies in diesem Punkt etwas die Aussage des Tests. Wenn man den Test nur schnell anschaut und dann hinterlässt es den Eindruck, dass die AMD Karten generell bei YT Videos viel mehr verbrauchen.
Also natürlich sind 30W mehr der RX-480 gegenüber der GTX 1070 bei YT nicht wirklich die Welt (selbst 3 Stunden YT machen dann 3h*365*30W/1000*0.25c/kWh = 8€/Jahr. Die Berechnung mache ich nur, weil viele darauf immer herumhacken), aber bei der R9-390 sind es Laut Test 100W mehr als bei der GTX 1070. Da kann man halt als Leser sehr schnell den falschen Eindruck von der R9-390 bekommen. Denn möglicherweise ist der Verbrauch bei einem FHD Monitor + FHD Video eben nicht so hoch.
 
@neueinsteiger84

Computerbase und andere Seiten können halt nicht alles testen. Ich sehe alle Tests bzw. Reviews immer als worst case bzw. eine grobe Richtlinie. Am ende kann man nur sein Computer selber testen um zu sehen was er wirklich saugt.
 
@ Cool Master: Das ist klar, dass man nicht alles testen kann. Man kann auch nicht jedes Spiel mit jeder beliebigen Einstellung testen, sondern gibt ja auch nur eine (möglichst große) Auswahl an Spielen im Test an.

Nur ist mir bei den Leistungsaufnahmen halt aufgefallen, dass es mit meinen Werten (wie gesagt nur eine R9-270) nicht passt. Daher wäre es doch schön, wenn CB eine Anmerkung macht, dass es vielleicht einfach am UHD Monitor liegt und nicht am FHD YT Video an sich.

Denn bei den anderen Verbrauchsangaben steht ja auch recht klar "Multi-Monitor: 2 Monitore; 3 Monitore" und "2560x1440 144Hz". Dann kann sich jeder Nutzer überlegen, ob die Verbrauchsunterschiede für ihn relevant sind, beispielsweise weil er 3 Monitore nutzt oder nicht.

Hingegen kann jemand der viele YT Videos in FHD auf einem FHD Monitor schaut, vom scheinbar hohen Verbrauch der R9-390 angeschreckt werden, obwohl diese möglicherweise gar nicht richtig sind. Man kann also unter Umständen die falschen Schlüsse ziehen.
 
neueinsteiger84 schrieb:
Also natürlich sind 30W mehr der RX-480 gegenüber der GTX 1070 bei YT nicht wirklich die Welt (selbst 3 Stunden YT machen dann 3h*365*30W/1000*0.25c/kWh = 8€/Jahr. Die Berechnung mache ich nur, weil viele darauf immer herumhacken), aber bei der R9-390 sind es Laut Test 100W mehr als bei der GTX 1070. Da kann man halt als Leser sehr schnell den falschen Eindruck von der R9-390 bekommen. Denn möglicherweise ist der Verbrauch bei einem FHD Monitor + FHD Video eben nicht so hoch.
Ob jetzt 30W oder 100W und 5€/Jahr oder 15€/Jahr. Da man keinen Mehrwert dafür bekommt, ist das Geld aus dem Fenster geschmissen und somit gegen meine Natur.
Mein Zweitrechner, wo entweder eine 480 oder 1060 rein kommt ist von Anfang an auf sparsam gebaut worden und da mache ich bei der GPU keine Ausnahme.
 
@ oldmanhunting:
Ja natürlich ist es immer besser, dass der Verbrauch geringer ist. Wenn du aber ökonomisch argumentierst (aus dem Fenster geschmissenes Geld), dann muss man ja auch die Anschaffungskosten berücksichtigen (und wenn man es noch genauer machen will, Abzinsung und so).

Aber um dann zu Wissen, welche GPU dann für den eigenen Einsatz die geeignetste ist, dann sollte man auch richtige Daten als Grundlage haben. Denn nur dann kann man auch die richtigen Schlüsse ziehen.

Darauf wollte ich einfach nur hinaus.
 
Zweitrechner = Reserve Zocker Rechner und hauptsächlich Internet Rechner. Nachdem mein Hauptrechner letzte Woche einen Hardware defekt hatte, der mich richtig ins schwitzen gebracht hat, brauche ich so etwas als backup.
Ach ja, klar könnte ich aufhören zu zocken und mich in die Kneipe setzen aber die Frage ist dann, was ist teurer und was macht mir mehr Spaß.

Zu dem Thema RX 480 oder GTX 1060, warte ich die Tesberichte der Custom Karten ab und entscheide dann. 30 W hin oder her oder ein paar frames mehr oder weniger sind jetzt nicht das K.o. kriterium für mich. Die neue GPU muß leise sein und bei Multi Monitor und Videos sparsam sein. Wenn dann der Preis auch noch stimmt, dann wird gekauft.
 
Kann man den Stockkühler dann noch mit annehmbaren Umdrehungen laufen lassen?
 
kann ich mir gut vorstellen. aber wissen tue ich es nicht
 
Wird es wohl nicht geben, denk ich mal
 
Wäre doch naheliegend, da AMD selbst doch damit Werbung getrieben hat, dass man mit zwei RX 480 mehr Leistung für weniger Geld als bei einer GTX 1080 bekommt.
 
Wozu soll es den Test den geben? Die 480 ist ne kleine Karte, Da ist crossfire einfach sinnlos. Und guck im Netz, es gibt andere die es getestet haben
 
Eben genau deswegen hat die 1060 auch kein SLI. Wenn man mehr Performance haben will soll man sich eine 1070 oder 1080 kaufen.
 
Warum immer diese absoluten Aussagen? Klar kann ein CF mit zwei 480ern Sinn machen, wenn man nämlich nicht auf einmal so viel Geld ausgeben möchte oder kann, um eine 1080 zu kaufen. Dann kauft man sich heute eine 480 und in einem Jahr eine zweite. Oder wenn man sich eine 480 gekauft hat und in ein-zwei Jahren reicht die Leistung nicht mehr, kann es Sinn machen, eine zweite Karte dazuzustecken, nämlich dann, wenn man Spiele spielt, die CF gut unterstützen oder sich das mit DX12 und mgpu gut entwickelt hat.

Die 1060 hat kein SLI, weil Nvidia sich nicht die 1070 und 1080 kannibalisieren wollte.
 
Zurück
Oben