Test AMD Radeon RX 480 im Test: Schnell und effizient mit 8 GByte für 260 Euro

Aus meiner Sicht stimmt das P/L-Verhältnis nur bei den 4GB Karten und die Karte wurde noch nicht mal getestet, aber kaufen kann man die Karte trotzdem ? 8GB Customs werden bestimmt um die 300€ kosten und für das Geld wird sich die Karte nicht gut verkaufen. Es ist ein sehr schmaler Grat zwischen Top&Flop in der Mittelklasse. Ich wünsche AMD alles gute, aber wenn Ich mir die Kommentare hier anschaue .... und hinter der 4 GB Version steht noch ein großes ?
 
FAKK schrieb:

Ob die CPU limitiert, musst du selber herausfinden. Laufen wird es schon. Ist alles nur eine Frage der Grafikeinstellungen.
 
Wenn es tatsälich ein Normalzustand wäre, wäre das keine "Scheiße" sondern durchaus relevant und Kaufentscheident. Aber danke für die Info. Das hört sich schonmal gut an.

Milchwagen schrieb:
Und jetzt Ruhe mit dem Mist und PCIE. Wäre es bei HWLuxx oder CB zur überlast gekommen hätte das MB abgeschaltet. Anscheinend ein fehlerhaftes Sample oder fehlerhafte Messungen. Selbst bei der FE der 1070 hat TH über der Norm gemessen!!

Wie so eine scheiße hier wieder aufgebauscht wird. Da platzt einem die Hutschnur!
 
@über mir

Da es aber keiner ist aber hier als Normal dargestellt wird ist es "scheiße". Besonders kümmert sich AMD wenigstens drum und ist dort transparent und streitet nicht einfach alles ab.


Man sieht ja bei Mindfactory was verkauft wird(wenn es stimmt). Ich sehe es bei mir im system. Die karte verkauft sich wie verrückt. Wenn die Partnerkarten 300€ kosten dafür aber 20% schneller sind passt es ja.
 
Ist eig. jemand aufgefallen, das die jetzigen Bilder der ASUS Rog und der Sapphire Nitro alle ein DVI-Anschluss haben?
Das wurde ja bei vielen bemängelt.
 
Zuletzt bearbeitet:
naja, mag alles sein, aber ich halte es trotzdem für einen Fail seitens AMD eine Grafikkarte die logischerweise Serienstreuung hat, an einer Spezifikationengrenze zu designen da jeder fähige Ingenieur normalerweise Sichheitsreserven einplanen sollte. Grenzen sind ja bekanntlich dazu da sie einzuhalten. Wer sagt mir das da nicht eine selektierte Karte getestet wurde, beim "unabhängigen" Test? Beschissen wird ja mittlerweile genug. Stichwort Autoindustrie! Hier reden wir darüber das man evlt. sein Mainbord riskiert mit Basiseinstellungen. Die Wahrscheinlichkeit dazu ist irrelevant!

Ich denke das gibt einfach negative Presse und viele potentielle Käufer die das Risiko schlicht nicht eingehen werden. Wenn jenen dann die GPU gefällt, werden sie dann wohl auf Partnerkarten warten. Rein aus Marketing Sicht, ist da so jedenfalls alles andere als gut...
 
die Karte hat den Externen Test bestanden, also sollte es wohl auch hinkommen...
...jeder VW hat auch die externen Abgastests bestanden, also sollte es wohl auch hinkommen......wait.....

Genau wie beim NT Skandal zeigt es nur wieder, dass die Tests für den Popo sind und das freie, unabhängige Tests dringend notwendig sind!

Gerade hier bei dieser Grafikkarte für die untere Mittelklasse kann es leicht zu Problemen kommen, denn hier werden auch Boards eingesetzt, die nicht Top-Boards sind sonder eher kleine, günstige mit sparsamer Ausstattung und auch sparsamer Energieversorgung!
Mit anderen Worten, gerade bei kleinen, günstigen Karten müssen die Spezifikationen noch genauer eingehalten werden - mag den Fanboys nicht gefallen, ist aber so!
 
Greffetikill schrieb:
Ist eig. jemand aufgefallen, das die jetzigen Bilder der ASUS Rog und der Sapphire Nitro alle ein DVI-Anschluss haben?Das wurde ja bei vielen bemängelt.

War auch von Anfang an klar. AMD hat das Fehlen eines DVI-Anschlusses damit begründet, dass das nicht ins Kühlkonzept gepasst hat. Man wollte keinen weiteren Slot verwenden und hat ja so einen "tollen" Fönkühler der die Luft nach hinten rausblasen soll. Bei Custommodellen die auf einem anderen Kühlkonzept basieren gibt es dieses Problem gar nicht.
 
Wird keinen großen Einfluss haben genau wie die 3,5GB geschichte mit der GTX970.

Außerdem sind alle Karten an der Spezifikationsgrenze siehe Pascal. Beide bei TH über der Spezifikation.

AUßerdem schaltet das Mainboard eh ab wenn es wirklich passiert.
 
GinoBambino schrieb:
@Computerbase: Könntet ihr im PL-Diagramm auch noch die GTX 1070 aufnehmen? Mich interessiert, wie die RX 480 im Vergleich zur GTX 1070 aussieht.

Ich finde auch beim nächsten Celeron Test sollte man definitiv auch den 1500€ 10 Kerner mit rein nehmen ;)

Bißchen Überspitzt, aber das Diagramm ging doch nur bis 400€, oder(grad keine Lust nach zu gucken)

Ansonsten guckst du wieviel % schneller sie ist und wieviel % sie teurer ist. Ich glaube aber, das hält sich ungefähr die Waage? Nur ne Vermutung.
 
notgnimneR schrieb:
ps: die 490 mit gddr5x kommt dann an die 1070 und die neue fury mit hbm2 ist auf 1080ti leistung, bei 200€ weniger am preis ;)
Oh da wagt sich noch jemand an die Kristallkugel :DAber deine Leistungsvorhersage ist zu optimistisch, rücken wir das mal in vernünftige Dimensionen.

Das mit der 490 in Verbindung mit dem X Speicher könnte fast klappen, wobei ich die eher zwischen den übertakteten 980 und den OC-980ti Karten einordne.

Aber das die nächste Fury auf der Ebene der 1080ti liegen wird? NOPE. Die wird aber in einigen Spielen an der 1080 kratzen und natürlich preislich besser da stehen.

Erwarten wir nicht zuviel, dann können wir auch nicht enttäuscht werden. Und das ist jetzt die perfekte Überleitung...

-------BTT------

...denn die neue Radeon ist der optimierte Schritt, den AMD schon lange gebraucht hat. Da ja klar war, das die Leistung einer einzelnen 480 nicht der Brüller wird, wurde eigentlich auch keiner so wirklich enttäuscht denke ich.

Was ich aber nicht verstehe, warum entfernt AMD den dedizierten TruAudio Chip? Das müßte doch besser sein, falls ein Spiel -im besten Fall- alle Recheneinheiten voll auslastet oder? Wenn die Audioberechnung nen fixen Mindestanteil an der Rechenleistung hat, würde somit ja die restliche verfügbare für die Graik dann geschmälert...?

Und ich bin immernoch kein Freund von dieser neumodischen Speicherkompression. Früher wars für AMD auch nie das Problem, im Fall des Falles mit 384-512bit bei GDDR5 zu arbeiten... Spiele werden immer anspruchsvoller, längst nicht jedes Spiel ist turbo-toptimiert -aber neiiin die Anbindung des Speichers schrumpft fast flächendeckend zurück auf 256bit. Ich finde, das man das auch anders lösen kann.
 
"Robert Hallock, Leiter des Technical Marketing bei AMD ergänzt: ..."

AMD scheint ja an dem PCIe Problem zu arbeiten.

Besser als solch eine Nachricht über Twitter: "Nothing's wrong. The RX 480 is as intended which is to say it's amazing." :D


P.S. Nicht bös gemeint :)
 
@Gelbsucht

das Speicherinterface schrupft weil ein großes SI mehr kostet und auch wesentlich mehr Strom verbrät
 
Also alle Kommentare kann ich hier im chaosthread nicht lesen. 80% geht es um die 970und die ähnliche leistung und die entäuschung das die 480 nicht mehr power hat.

Das liegt wohl einmal wie schon gesagt wirde an den fake leaks und daran das man auch von amd eine top high end karte einfach erwartet hat.

Die erwartungen waren also unglaublich hoch und kaum zu tragen. Finde der Preis ist gut meine 970 hat fast 400 gekostet und hat nur 3,5 gb speicher was mir allerdings auch genügt.

Das ding ist nur nvidia kann fröhlich auf ihren Preisen sitzen bleiben bei der 1070 und 1080. Nur die 160 wird etwas günstiger...rechne aber niemals mit einem preis von einer 480.
Also bleibt die Konkurrenz aus, das ist das Problem.

Bin nvidia kunde aber die Preise waren und sind nicht ok. Hoffe mal das Amd nicht gleich aufgibt und noch mit high end karten kommt.
 
Gelbsucht schrieb:
Was ich aber nicht verstehe, warum entfernt AMD den dedizierten TruAudio Chip? Das müßte doch besser sein, falls ein Spiel -im besten Fall- alle Recheneinheiten voll auslastet oder?
Das wird doch ziemlich genau im Artikel erklärt. Der Entwickler kann bestimmen wieviele CUs er für TruAudio Next reserviert usw und die Audioeinheit ist damit wesentlich flexibler. Steht alles auf Seite 3
 
Milchwagen schrieb:
Und jetzt Ruhe mit dem Mist und PCIE. Wäre es bei HWLuxx oder CB zur überlast gekommen hätte das MB abgeschaltet.
Ähhm... Vgl nVidia 970 VRAM. Und dass mehrere Seiten (inklusive CB in einem Statement (*edit: auf einer der Vorseiten wars, ich muss nochmal suchen, finde es gerade nicht, Thread zu lange :D )) darauf hinweisen, spricht nicht für Einzelfälle. Sowieso ist der Ton mal nicht angebracht.
Zudem weiß keiner von uns, wie viel Mehrverbrauch aus dem PCIe die jeweiligen Test-MBs tolerieren, vor sie abschalten, noch wie gut funktionierend die eventuellen Überlastmechanismen sind.
Ich würde dir uneingeschränkt zustimmen, wenn du gesagt hättest, man müsse vor dem "aufbauschen" detailliertere Tests abwarten. Aber deine Aussage dazu ist auch (und das nicht nur geringfügig) voreingenommen.
 
Zuletzt bearbeitet:
Milchwagen schrieb:
Selbst pcgh hat mit einem accellero mono ordentlich an der Taktschraube drehen können. Also ein 6pin reicht da schon aus. Auf die PCIE Geschichte möchte ich nicht noch 4 mal hinweisen. Nur so viel. Das Problem tritt nur unter unsinniger Last (Furmark) auf.

Es ist ja leider noch nicht bekannt was niedrigere Temps in Sachen Stromverbrauch,Takt bewirken aber ich gehe schon von großen Vorteilen aus.

wem 6pin nicht reichen muss dann wohl auf einen anderen Partner setzen.

Hier kannst du mit noch soviel Logik argumentieren die Tatsache dass die meisten Leute keinerlei Verständnis von Physik haben ist eigentlich tragisch :D

Vorallem sollte jeder OC-Noob wissen, dass bei niedrigeren Temperaturen die Leckströme abnehmen und dadurch die Effizienz steigt, bzw. je kälter ein Chip ist desto niedriger geringer kann die Spannung sein welche am Chip anliegt im Vergleich zur Referenz Spannung und Kühlung bei 85°C kann bei einem ~20°C kälterer Chip der mit einem >Custom Kühler einhergeht wahre Wunder bewirken, vor Allem bei AMD steigt die Effizienz bei niedrigeren Temperaturen extrem an weil alleine die Minimierung der Leckströme einen Verbrauchsvorteil bei AMD bewirkt. Senkt man Dazu noch die Spannung steigt die Effizienz höher.

Abgesehen Davon betreibt AMD seine Chips immer bei Extremwerten.

Am besten ist das Beispiel für Undervolting bei ANNO im CB Test:

Die RX480 verbraucht im Standard 209 Watt bei 82°C
Die RX480 Max verbraucht 266 Watt bei 84°C

senkt man die Spannung in der Max Ausführung um 0,075 Volt von 1,15V auf 1,075V

Sinkt der Verbrauch der RX480 Max auf 233Watt bei 80°C

Also der Chip wird nicht nur Kühler durch das senken der Spannung, er verbraucht sogar weniger.

Und wird sogar leicht effizienter als die GTX 980 :p

Betrachtet man nochmal die gesenkten Spannungswerte im Ref. Design ohne maximiertes Powertarget:

Die RX480 verbraucht im Standard 209 Watt bei 82°C
Die RX480 red. Spann, verbraucht 208 Watt bei 84 °C


Bei ersterem rennt die Karte wahrscheinlich ins Power Target bei niedrigen Taktraten.
Bei letzterem, rennt die Karte wahrscheinlich ebenfalls in Power Target hat aber höhere Taktraten, weshalb eine höhere Temperatur erreicht wird, aber durch das UV ist der Verbrauch der letzteren auch geringer als bei der Referenz Spannung.

Also man bemerkt, dass sich geringe Temperaturen und Spannung extrem positiv auf die Effizienz auswirken, läuft bisher jede Karte ins Temperatur oder Powerlimit vor Alem Aufgrund der 6 Pin Variante.

Somit könnten Custom Modelle schon sehr schnell werden im Vergleich zur Referenz, Vor Allem wenn Asus schon karten mit 1,4 GHz Takt ankündigt :D

Abgesehen davon, die Leute die Auf dem Verbrauch des PCI-E Slots rumreitet wegen OC,
Wer mit dem Refernzdesign OC betreiben würde dem ist eh nicht zu helfen oder er ist Nvidia angehaucht ^^

Anständige Custom Modelle dürften ohne Probleme auf Fury X Niveau kommen, welche Leistungstechnisch etwa 20% über der RX480 Referenz liegt. welche wohlgemerkt 10% unter der 980Ti liegt ^^
 
Zuletzt bearbeitet: (Typos und zuviele "Alsos")
Zurück
Oben