Bericht AMD Radeon RX 480: Crimson 16.7.2 legt bei der Leistung deutlich zu

MoD85 schrieb:
Für ein sehr kleines Gehäuse ist die 480er leider zu hungrig...

Das stimmt!
Besonders wenn man sie mit den Paradekarten für kleine Gehäuse wie der Nano oder der 970 Mini vergleicht!

Oh. :rolleyes:
 
Man darf ja auch nicht vergessen, das die Treiber der 970/980 extrem optimiert sind. Da braucht AMD auch noch etwas Zeit.
 
Schnixus schrieb:
AMD Polaris: Wird bei GlobalFoundries produziert, GloFo hat allerdings noch wenig Erfahrungen in diesem Chipsegment, haben sie bisher nur kleinere SoC's gefertigt, somit ist die Effizienz nicht in der Art gegeben, wie sie sein könnte...

nVidia Pascal: Wird bei TSMC gefertigt, diese haben schon langjährige Erfahrung mir "komplexeren" Chips. AMD wird VEGA deshalb auch wieder bei TSMC fertigen lassen...

wieso hat man Polaris 10 dann nicht gleich bei TSMC fertigen lassen? Hätte ja praktisch nur Vorteile und die Karte wäre jetzt nicht so extrem stark durch Ihre TDP limitiert..?
 
Unnu schrieb:
Wieso? Hast Du dem Kollegen nicht gesagt, dass es für die paar Kröten halt Monitormäßig nur Dreck gibt?
Ich finde es immer wieder erstaunlich, wie wenig Geld die Leutz für die wichtigste Schnittstelle ausgeben. Und noch viel amüsanter, wenn sie sich danach auch noch beschweren, dass es nix taugt.
Ja, haargenau so ein Typ ist er.
Müssen immer die billigsten Teile sein, aber dann beschweren wenn es laut oder schlecht oder beides auf einmal ist. ;-)
Für 30€ mehr hätte ich die Grafikkarte ins WaKü-System (auch der letzte Rotz) mit einbinden können, aber das wollte er auch nicht und hat jetzt eine Karte mit 1600rpm im Idle. :-)

Hunky schrieb:
Man darf ja auch nicht vergessen, das die Treiber der 970/980 extrem optimiert sind. Da braucht AMD auch noch etwas Zeit.
Wie nennt man Produkte die beim Kunden reifen noch gleich?
Ach ja, Bananenware...
Aber bei AMD ist das plötzlich in Ordnung, was???
Gab es denn jemals eine nVidia-Karte die zwei Wochen nach dem Start so einen Boost bekommen hat?
 
Zuletzt bearbeitet:
MoD85 schrieb:
Niemanden interessiert der Stromverbrauch in direkter Form, wie du schon sagst, die Energiekosten sind zu vernachlässigen...

aber setz dich doch mal ein paar Stunden täglich auf eine 40-60W mehr verbrauchende Glühbirne...

Für ein sehr kleines Gehäuse ist die 480er leider zu hungrig...

Bei mir läuft sogar eine GTX 1080 @OC in einem kleinem Gehäuse. Die ist noch wesentlich hungriger. Da wird die 480 mit den knapp über 150W sehr gut machbar sein.
 
xxxx schrieb:
Nicht schlecht ich bin mal auf Tests der Partnerkarten gespannt weil da soll der Grundtakt einiges höher sein. Vielleicht verbaut ein Hersteller sogar DDR5x das wäre interessant was dann raus kommt weil der RX480 ja ein Bandbreitenproblem zu haben scheint wie die Übertaktungsergebnisse von CB zeigen.

Das Bandbreitenproblem in diversen Titeln wird bestimmt noch per Treiber Update gefixt. Da bin ich mir sicher...
 
Eigentlich kann es ja für den 6-Pin PCIe Stromstecker kein Problem sein auch 125W zu liefern, sofern er mit 3 x 12V Leitungen und 3x Masse belegt ist, wenn der PIV CPU 12V-Stecker mit 4 Kontakten (2x 12V, 2x Masse) für 95W freigegeben ist.

Aber wie macht das AMD eigentlich, den PCIe-Slot zu entlasten, und dafür mehr Strom vom PCIe 6-Pin Stromstecker zu beziehen? Kann der GPU-Spannungswandler seine Eingänge denn per Treibersoftware einfach umschalten? Dachte eigentlich, solche Lowlevel-Konfiguration wäre nur mit einer anderen Firmware für VRM, bzw. Grafikkarten-BIOS möglich.
 
TheUnfaked schrieb:
Ob nun über den PCI-E-Slot oder den 6-Pin-Anschluss die Mehrlast getragen wird, so oder so bewegt sich die Grafikkarte außerhalb der üblichen Spezifikationen. Natürlich muss man hierbei davon ausgehen, dass AMD dies bewusst in Kauf genommen hat, damit eben erst diese Werte erzielt werden können. Immerhin sehen wir auch sehr deutlich, dass die Leistung im Kompatibilitätsmodus merklich geringer ist.

Hast du Ahnung? - Anscheinend nicht - sonst wüsstest du dass, das mehr ausm 6Pin Anschluss keinen Elektriker ins Schwitzen bringt... Der 6er ist offiziell auf Wert x freigegeben. Er kann aber ohne Probleme (und das sagen alle die Ahnung haben) X+N liefern. Und dein Netzteil juckt es auch nicht. Ergo alles in Butter und im Kombatibilitäts-Modus bringt die Karte die Leistung die Sie laut Reviews bringen muss.
 
schidddy schrieb:
wieso hat man Polaris 10 dann nicht gleich bei TSMC fertigen lassen? Hätte ja praktisch nur Vorteile und die Karte wäre jetzt nicht so extrem stark durch Ihre TDP limitiert..?
Das hätte sicherlich einen Haufen Vorteile gehabt. Das 16nm TSMC energiesparender ist als 14nm GloFo, musste auch Apple mit dem A9 schon feststellen. Die hatten nur Glück, das ein Smartphone nur sekundenbruchteile auf MaxPower läuft.

Aber es hätte vermutlich einen signifikanten Nachteil gegeben: Preis.

TSMC verdient an einer GeForce-Grafikkarte wesentlich mehr, als jeder andere in der Kette (inkl. NVidia!). Die nehmen für ihren gut funktionierenden Prozess HORRENDE Preise (seit über 10 Jahren, haben die eine Marge von >30% Gewinn, NACH STEUERN!).

Und man hätte natürlich mit Apple und NVidia um die knappen 16nm Wafer streiten müssen. TSMC vergibt die nämlich nicht nach Reihenfolge, sondern nach Höchstgebot. Da hatte NVidia schon siene Probleme mit, als Apple 1,5 Jahre quasi die komplette Produktion alleine aufgekauft hat.

Ich denke daher, das AMD einfach auf eine billigeren Anbieter umgestiegen ist.
 
Blade0479 schrieb:
~65-74°C ... Dachwohnung bei 27-30°C Raumtemperatur.
Der Chip wird trotzdem heiß, auch mit dem Mono Plus, natürlich immer noch kein Vergleich zu den über 80Grad vom Radi...
Danke für die Info. Ich wußte, dass ich das schon irgendwo gesehen, aber nur überflogen habe.
Vielleicht hilft Dir das weiter: http://www.pcgameshardware.de/AMD-R...ls/Overclocking-Undervolting-Wattman-1200042/
Wahrscheinlich kennst das schon, aber good luck! ;)

Unnu schrieb:
Wieso? Hast Du dem Kollegen nicht gesagt, dass es für die paar Kröten halt Monitormäßig nur Dreck gibt?
Ich finde es immer wieder erstaunlich, wie wenig Geld die Leutz für die wichtigste Schnittstelle ausgeben. Und noch viel amüsanter, wenn sie sich danach auch noch beschweren, dass es nix taugt.

Oft ist man erst hinter her schlauer. Aber wer billig kauft, kauft nicht selten zweimal.
Bin seitdem ich mir die Zeit nehme, Test`s zu studieren und gut zu vergleichen, nicht mehr enttäuscht worden.
Zeit ist Geld :D
 
Zuletzt bearbeitet:
Also ich habe ihm genau gesagt, wortwörtlich "du bekommst wahrscheinlich einen schlechteren Monitor als deinen jetzigen (Dell U2415)" und die Karte ist "zumindest durchschnittlich laut", hilft alles nix wenn der Kunde es so will. :-)
 
schidddy schrieb:
wieso hat man Polaris 10 dann nicht gleich bei TSMC fertigen lassen? Hätte ja praktisch nur Vorteile und die Karte wäre jetzt nicht so extrem stark durch Ihre TDP limitiert..?

Das liegt unter anderem auch daran, dass AMD vertraglich die Abnahme von XX Wafern bei Glofo hat und wenn sie diese nicht abnehmen, müssen sie Strafzahlungen leisten (welche nicht gering sind).
Da sie diese Stückzahlen aktuell mit den CPUs nicht ganz schaffen, lassen sie dort jetzt auch die GPUs fertigen :)
Und ob der Prozess soviel schlechter ist, würde ich nicht zwingend behaupten. Da AMD und Nvidia ja auch zwei unterschiedliche Ansätze verfolgen. AMD versucht eine möglichst hohe Packdichte zu erzielen und Nvidia geht über einen hohen Takt bei weniger Cores.
Von daher denke ich mal sollten die Unterschiede nicht signifikant sein, so dass es sich für AMD lohnen würde die Strafzahlung in Kauf zu nehmen.
Bei den High END GPUs, wo die Marge eh viel höher ist und es auch um das Image geht, sieht das dann schon wieder anderst aus und von daher ist es gut möglich, dass die Karten dann eher bei TMSC gefertigt werden. Wobei man hier ja auch nicht weiß wie sich der Prozess entwickelt :)

mfg
Bärenmarke
 
Nacho_Man schrieb:
bekommst wahrscheinlich einen schlechteren Monitor als deinen jetzigen (Dell U2415)"

Wahrscheinlich! Definitiv! Oh mein Gott, nie wieder was anderes als IPS & Co., da können die TNs von mir aus 500 Hz haben, wie kann man denn so bescheuert sein?
 
Morrich schrieb:
Geht es nur mir so, oder passt die Überschrift nicht wirklich zu den Testergebnissen?

Da steht "legt in der Leistung DEUTLICH zu". In FullHD ist der Leistungsgewinn aber nur magere 3%. In WQHD immerhin 6%.
Aber das macht am Ende den Braten nicht wirklich fett.

Ein DEUTLICHER Leistungsgewinn wären mMn 10% und mehr.

Es ist deutlich mehr als dass es im Rahmen einer Messungenauigkeit wäre. Gerade Spiele wie GTA V, wo sie auf das Niveau einer stock-980 kommt (und selbst ja genauso "stock" ist), profitieren deutlich. Klar, doppelte framerates sind es nicht. Aber in der Größenordnung in denen innerhalb eines GPU-Tests gewertet wird, ist es deutlich.

Und das für zwei Wochen Arbeit am Treiber ist sehr respektabel. Der letzte nVidia-Treiber der mir mehr Leistung und nicht nur mehr bugs gebracht hat, liegt anderthalb Jahre zurück.
 
Morrich schrieb:
Wie bitte? Eine höhere Kartenklasse, die im Schnitt gerade mal 10% mehr Leistung bietet, wäre ja der absolute Witz.

Du willst unbedingt recht behalten? ;) +10% via Treiber doch maximal bei CF Profilen & Co. Eine Überarbeitung eines Chips könnte 10% bringen. Für einen Treiber sind 3-6% Mehrleistung durchaus als "deutlich" zu beziffern! Wenn man das über die letzten Jahre mit anderen "Treiberupdates" vergleicht, ragt es heraus. So einfach ist das.
 
Es ist für AMD nicht nur vermutlich schwierig diesen Brot- und Butterchip bei TSMC fertig zu lassen wegen knapper Waffer, höheren Preisen und der imemsen Auflage, es gibt zusätzlich auch noch Verträge mit GloFo wie viele Chips AMD pro Jahr abnehmen MUSS, sonst müssen sie Strafe zahlen -- es wäre also gleich doppelt teuer geworden die Chips für die RX470/RX480 bei TSMC fertigen zu lassen..

Edit: Bärenmarke war viel schneller, super Kommentar! Freut mich mal was sachbezogenes hier zu lesen 👍
 
GHad schrieb:
auf 30-40 W Unterschied so viel Wert legen muss.

Sarkasmus on:
Eigentlich lächerlich; 30-40 Watt.!!, drehe ich halt am Sch...haus das Licht ab, 60 Watt gespart.....
Sarkasmus off:

Früher war es uns doch auch egal wie viel Strom so ein Teil verbrannt hat, sehe es schon kommen das sich die Leute wegen 1 Watt die Köpfe einschlagen werden....
 
Nacho_Man schrieb:
Wobei ich deinen FreeSyncer bei nem' Kollegen verbaut habe (@R9 285), der beschwert sich bei CS:GO über ständiges Flackern und Bildfehler, ohne FreeSync kein Problem. Eigentlich der letzte Dreck, aber für 140€ sagt man ja nix. ;-)

Kann ein Probleme der Firmware ein. Hatte ich auch. Einfach eingeschickt und eine neue Firmware drauf bekommen. Jetzt läuft's.

Hätte ich mir nicht vor 6 Monaten die R9 380 Nitro gekauft, hätte ich jetzt bei der AMD zugeschlagen.
Du muss ich auf Vega warten, dann kommt Zen direkt mit rein. ;)
 
Zurück
Oben