Test AMD Radeon R9 285 im Test

Daedal schrieb:
Eine HD 5750 war Midrange Gamer bei erscheinen.

Genau das, 2011 oder 2010 kam die als Midrangekarte aufm Markt.
285 entspricht der genau.
5770 wäre somit die 285x.
Deswegen hoffe icj auf die 285X
 
Ich glaube die 285 wird noch durch verbesserte Treiber 10-15% Leistung gewinnen. Wenn die Karte auf den Preis der aktuellen 280 rutscht wär das doch ein gutes Upgrade.
 
Richtig :)
 
@romeon: Die 5750 wurde in #321 bereits als Beispiel genannt.Ich hab kurz vorher erwähnt das ich mit einer 4670 unterwegs bin (und ich behaupte mal ganz frech - und mit Blick auf die Statistik bei Steam das ebenfalls schon erwähnt wurde - ich bin nicht alleine in dieser Leistungsklasse).
 
Das einzige Problem ist das die Karte zu spät kommt die hat gegenüber der 280 schon Vorteile geringeren Verbrauch bei Tesselation deutliche mehr Leistung und das aktuelle Feature Set .
Die werden die Karte bestimmt nicht voll ausreizen weil die in ähnlicher Form bei der R9 3xx Reihe wieder kommen wird und alle die schwächere Karten haben als eine 280 werden sich entweder die 285 (oder höher) kaufen oder warten bis zur nächsten Generation . Und gerade die itx Variante ist für mich persönlich sehr interessant muss ich sagen davon sollten mal generell mehr kommen da steckt mit Sicherheit Potenzial hinter.
 
Der Verbrauch jedes Chips liegt in erster Linie an der Spannung (bzw. dem dadurch entstehenden Leck- und Schaltstrom).
 
Was ich damit sagen wollte. Da es kein Referenzdesign gibt hat man keinen Richtwert bei Tonga. Einige Karten wie die XFX verbrauchen wesentlich mehr, da dies mehr Spannung haben. Man kann bei Tonga eigentlich nur einen Verbrauch von-bis angeben.
 
Mmmmh das ist eigentlich sogar bei allen Karten so. Je nach ASIC-Qualität und voreingestellter Spannung seitens der Board-Partner schwankt der Verbrauch auch bei anderen GPUs von Karte zu Karte. Das was man in den Tests sieht sind immer nur Stichproben. Damit kann man dann auch schon mal die Abweichungen zwischen zB einem Computerbase-Test und einem Test auf HardwareLuxx oder TomsHardware erklären. Einzig die TDP ist für alle Karten des selben Modells gleich, beschreibt dafür aber auch nur für was das Kühlsystem ausgelegt sein muss.

Ich hab zB eine Karte mit GK110 die bis 1.187 V geht und eine zweite Karte (selber Hersteller, selber Typ, zum selben Zeitpunkt gekauft) die bis 1.200 V geht. Wie sich das auf den Verbrauch auswirkt kannst dir wahrscheinlich denken ;)
 
Wenn AMD schlau ist, kommen sie schleunigst mit ner 285X, 295 und 295X... Nvidia hat seine 980 schon in den Startlöchern.
Dann könnte man die R9 295X Tonga/wasauchimmer im Gegensatz zur 290X mit Hawaii halbwegs anständig mit Luft kühlen, und man könnte sie glatt mal kaufen... Mit 20nm wirds ja dank TSMC nix mehr dieses Jahr, weil ja die gesamte Produktion für die blöden Smartphones und Tablets draufgeht. :mad:
 
Zuletzt bearbeitet:
Ich les immer wieder 20nm. Was wurde aus dem Gerücht das beide Hersteller die 20nm überspringen? Galt das nur für CPU?
 
Sofern die Gerüchte stimmen, würden Nvidia und AMD bei ihrer GPU Sparte 20nm überspringen. D.h. 28nm bleibt solange die Grundlage, bis 2015 oder 2016 der (über-)nächste Prozess gut genug funktioniert.
 
Die Ankündigung, 20nm zu überspringen und direkt auf den 16nm Techknoten zu wechseln, ist etwas vollmundig und soll wohl nur darüber hinweg trösten, dass es mangels Produktionskapazitäten seitens TSMC derzeit keine 20nm Chips gibt. Denn sobald 16nm verfügbar ist, werden die erst einmal auch nur für Smartphones und Tablets produzieren. Offenbar sind GraKas nicht wichtig genug, um Priorität zu haben.
 
johnniedelta schrieb:
Die Ankündigung, 20nm zu überspringen und direkt auf den 16nm Techknoten zu wechseln, ist etwas vollmundig und soll wohl nur darüber hinweg trösten, dass es mangels Produktionskapazitäten seitens TSMC derzeit keine 20nm Chips gibt.

Und wie kommst Du auf das schmale Brett dass das daran liegt?

Denn sobald 16nm verfügbar ist, werden die erst einmal auch nur für Smartphones und Tablets produzieren.

Diese Produktgruppe ist extrem preissensitiv und neigt dazu, erstmal zu warten bis die neuen Prozesse eingefahren sind. GPUs waren dagegen traditionell vorne weg wenn es darum ging neue Nodes zu nutzen, warum sollte das nun anders sein?

Offenbar sind GraKas nicht wichtig genug, um Priorität zu haben.

Worin offenbart sich Dir diese Erkenntnis?
 
Kenneth Coldy schrieb:
Und wie kommst Du auf das schmale Brett dass das daran liegt?
Na weil ich nicht son vollkommener Durchblicker wie du bin, ist doch klar...

Diese Erkenntnis, die im übrigen nur meine persönliche These ist, und KEINE Erkenntnis, beruht darauf, dass mit Smartphones und Tablets garantiert mehr Umsatz gefahren wird, als mit GraKas. Guck mal auf die Strasse: JEDER hat ein Smartphone. Aber nicht jeder kauft Grafikkarten, der Markt ist einfach kleiner. Es verwundert da nicht, das TSMC zuerst an den liefert, der mehr abnimmt.
Zumal sie Lieferverträge haben werden, die sie nicht einfach ignorieren können.
Ferner hatten AMD und Nvidia ja offiziell vor, noch dieses Jahr Karten in der neuen Fertigungsgrösse auf den Markt zu bringen. Dass das im grossen Stil nichts wird, ist ja mittlerweile klar. AMD hat als Grund dafür TSMC genannt. Das mag ein vorgeschobener Grund für das Ausbleiben von 20nm-Karten sein, klingt aber plausibel. Und dass TSMC dann später die 16nm-Produktion anders verplant, erscheint mir einfach unwahrscheinlich.
Man muss aber auch nicht immer alles im Internet in irgendwelchen tollen Quellen lesen.
Man KANN auch mal 1 und 1 zusammenzählen und selber denken. So komme ich mitunter zu meinen "Erkenntnissen".

Ich bin natürlich nicht son super-Insider wie du. Also klär mich mal auf und heile mich von meiner Dummheit: warum gibts dieses Jahr keine 20nm-Karten?
 
johnniedelta schrieb:
Na weil ich nicht son vollkommener Durchblicker wie du bin, ist doch klar...

Diese Erkenntnis, die im übrigen nur meine persönliche These ist, und KEINE Erkenntnis, beruht darauf, dass mit Smartphones und Tablets garantiert mehr Umsatz gefahren wird, als mit GraKas. Guck mal auf die Strasse: JEDER hat ein Smartphone. Aber nicht jeder kauft Grafikkarten, der Markt ist einfach kleiner. Es verwundert da nicht, das TSMC zuerst an den liefert, der mehr abnimmt.

[...]

Ich bin natürlich nicht son super-Insider wie du. Also klär mich mal auf und heile mich von meiner Dummheit: warum gibts dieses Jahr keine 20nm-Karten?
Du unterliegst einem Rechenfehler was TSMC mehr Umsatz beschert.
  • TSMC verdient pro Wafer der raus geht. Wie viele Smartphone Chips passen da drauf und wie viele Highend GPUs passen auf den selben Wafer. Die Stückzahlen der Chips sind für TSMC unerheblich.
  • Zudem unterliegst du dem Irrglauben, dass mehr Stückzahlen gleichbedeutend sind mit mehr verdienst und lässt dabei die Gewinnspanne ausser acht. Um 1 Mio. € zu verdienen nach Steuer, wie viele Smartphone Chips müssen an den Endkunden verkauft werden und wie viele R9 290X ?
Da du diese Punkte außer acht lässt ist deine These fehlerhaft

20nm GPUs gibt es dieses Jahr nicht, weil der Produktionsprozess noch nicht reif genug ist um die erwünschte Gewinnmarge bei GPUs zu erwirtschaften - es kommen zu wenig Chips/Wafer aus der Produktion für diese großen Chis. Dieses Problem haben kleine Chips viel früher überwunden und Apple hat sich frühzeitig dafür entschieden auch mit diesen pro Stück Preisen auf den Markt zu gehen - bei deren Gewinnmargen ein cleverer Zug um als Technologieführer zu gelten bei temporär weniger Gewinn. Damit zwingen sie auch die anderen vor dem Optimalen Zeitpunkt mit weniger Marge nach zu ziehen. Clever deshalb, weil die anderen schon mit deutlich weniger Gewinn operieren als Apple. Das zwingt die Mitbewerber entweder zu höheren Preise bei Release oder später raus zu kommen. Es wird sicherlich etwas dazwischen werden bei heutigen Releasezyklen, nimmt aber den Preisdruck von Apples Produkten, was wiederum langfristig zu mehr Gewinn mit dieser Produktgruppe führen kann, wenn alles wie geplant läuft mit der Entwicklung des Fertigungsprozesses.
 
Deine Argumentation in Ehren, aber bei GraKa-Preisen von 700€ z. B. für die neue 980er sollten attraktive Margen auch für TSMC als Zulieferer und AMD/Nvidia drin sein, oder? Das Absatz nicht Gewinn ist, ist schon klar. Aber AMD/Nvidia haben noch nicht einmal einen 20nm-Pipecleaner, also z.B. ne R9 285 in 20nm, gelauncht, um den Prozess zu testen. Mir drückt sich daher der Verdacht auf, dass nicht nur Geld ein limitierender Faktor ist, sondern derzeit bezüglich der Effektivität von Grafikkarten das Ende der Fahnenstange in Sicht ist. Möglicherweise liegt´s ja auch an den API´s.
Aber die Antwort, warum ich die 16nm-Ankündigung für vollmundig halte, gibst du im Grunde selbst: weil nicht mal 20nm derzeit operationell ist. Bekanntlich waren beide Hersteller schon immer gut für euphorische Ankündigungen...
 
TSMC verdient an jedem Wafer und nicht daran wie viel das Endprodukt kostet. Sicherlich werden Apple und AMD getrennt ihre Preise aushandeln, doch weit sind die nicht auseinander, da ja die Verträge geschlossen werden bevor die Yieldraten bekannt sind. Das bedeutet TSMC bekommt das selbe Geld für 667 Apple A8 SoCs auf einem 300mm Wafer, die jeweils 89 mm² gross sind (ich habe hier mal 9,5x9,5 mm genommen der Einfachheit halber) wie von ein GPU Hersteller dessen GPU ca. 300 mm (15x15 mm) groß ist und daher lediglich 256 Chips auf einen 300 mm Wafer passen. Kannst du hier ausrechnen: http://www.silicon-edge.co.uk/j/index.php?option=com_content&view=article&id=68

Also setzen wir jetzt nur mal rechnerisch voraus, dass keinerlei defekten Chips auf dem Wafer sind, was praktisch unwahrscheinlich ist, dann ergibt sich folgendes Bild:

Waferpreis ca. 5.000,- $:

Apple Pro Chip Preis: 5000/667=7,49
GPU Pro Chip Preis: 5000/256=19,53

Das sind natürlich keine richtigen Zahlen da noch weitere Effekte eine Rolle spielen, zeigen aber die Relation unter selben Voraussetzungen. Apple hat ca. 2,5 mal mehr Chips zum selben Preis. Du kannst das exakt bei jedem Yield ausrechnen hier: http://www.quadrillion.com/roi.htm

Jetzt kostet das billigste iPhone 6 zum Release 699,- €
Die R9 290X kostete bei Release 499,- €
und das ist eigentlich die typische Preisklasse für neue Highend GPUs wenn man Nvidias Mondpreise für Titan mal ausser Acht lässt.

Der Punkt an der ganzen Rechnung ist, dass TSMC nichts davon hat zu welchem Preis der Endkunde etwas kauft. Wäre auch noch schöner. Wichtig ist wie viele Wafer verkaufen sie. Somit muss Apple 2,5 mal mehr Smartphones verkaufen in 20nm als z.B. AMD Highend GPUs, damit TSMC gleich viel Umsatz machen kann.

Im 2 Quartal 2014 hat Apple das iPhone 5 43 Mio. mal verkauft. Im 3. Quartal 2013 sind 14,5 Mio. Desktop GPUs verkauft worden und davon hatte AMD einen Anteil von 35% -> ca. 5 Mio. natürlich auch kleinere.... es zeigt aber, dass Apples Stückzahlen deutlich über dem 2,5 Faktor liegen. Und damit nehmen sie ca. genau so viel Wafer ab wie AMD und Nvidia zusammen. Zudem haben sie Spielraum beim Kaufpreis der Wafer nach oben zu gehen, da sie beim Stückpreis niedriger liegen. Also sind bei einem Bieterkrieg um Wafer Kapazitäten die GPU Hersteller klar im Nachteil wenn sie Ihre Produkte wirtschaftlich herstellen wollen.
 
Zuletzt bearbeitet:
@johnniedelta: Boah ey, bisd Du VOLL KRASS der Blicker-Bunny, alder!

@Daedal: Wenn ich das richtig sehe hast Du im letzten Beitrag die Yield komplett ausgeklammert. Die dürfte die Rechnung - gerade zu Beginn der Fertigung - stark zugunsten Apples (vs. NV/AMD, nicht vs. andere Hersteller) verschieben.

Insbesondere läßt Du aber stillschweigend die These im Raum stehen TSMC hätte einene Kapazitätsengpaß. Das halte ich für völlig abwegig, da die Foundry mehr noch als GF und Samsung massiv ausgebaut hat und ausbaut. Apple mag groß sein, aber die SoC sind trotzdem klein und belegen deshalb nie und nimmer die gesamte Kapazität.
 
Zurück
Oben