Test AMD Radeon R9 285 im Test

C0B schrieb:
Es gibt für Nvidia schlichtweg keinen Grund den Preis in der Oberliga zu senken. Da muss AMD schon schnellere Karten bringen oder die 290X und 290 billiger anbieten.
So ein Käse. Eine R9 290 gibt es schon ab 300€, sie ist auf einem Level mit der GTX 780, deren Preise aber in der Regel bei 400€ starten. Und hier konkurriert sie eigentlich mit der R9 290X, aber eher preislich als leistungsmäßig. AMD hat also keinerlei Gründe seine High End Karten noch günstiger zu machen.

Und mach dir keine Sorgen, die 780Ti wird nicht bis Ende 2015 die schnellste GPU bleiben. Die News gab es hier auf CB nicht, aber Asetek, dessen Kühler auf der R9 295X2 Verwendung findet, gab vor kurzem bekannt, dass man den größten Auftrag der Firmengeschichte bekommen hat. Im Zusammenhang mit den Gerüchten um eine Riesen-GPU von AMD, die zufälligerweise eben auch ein Redakteur erwähnt hat ^^
Wolfgang schrieb:
Mich würde es eigentlich wundern, wenn die Fertigung von Tonga nicht gut bis sehr gut laufen würde. 28 nm HP bei TSMC ist "uralt", wenn man den Prozess immer noch nicht im Griff hat, dann wohl nie mehr. Darum hat AMD ja auch angeblich eine riesige GPU in Entwicklung, da der Prozess mittlerweile sehr gut läuft.
darf vermutet werden, dass AMD nächstes Jahr eine neue High End GPU mit Wasserkühlung bringt.
http://www.pcgameshardware.de/AMD-R...597/News/Asetek-neue-AMD-Grafikkarte-1133023/
 
Herdware schrieb:
So bleibt die 285(X) halt nur ein Ersatz für die alten 280(X). Niedrigerer Energieverbrauch, aktuellste Features usw. machen sie auch bei nur etwa gleicher Leistung unterm Strich zu einer Verbesserung.

Die 285x wird auf jeden Fall schneller wie eine 280x.
Es fehlen im Schnitt auf die 280x von der 285 nur in etwa 15%.
Die holt man locker durch mehr Takt und mehr Shader raus.
Im schnitt der Tests ist die 285 sogar etwas schneller wie die 280.

Hardwareluxx misst 4 bis 8% mehr Performance.
Und auch im benchmarkdurchschnitt bei FUll HD sind es hier ein mickriges Prozent.
Wenn Mantle dann mal mit 2GB Speicher läuft, sind es hier auch 3% im Schnitt.
AMD wird sich bei der Einstufung schon was gedacht haben.
 
Zuletzt bearbeitet:
Schade dass CB keine Videotranscodierung getestet hat:

SandraVideo.png
 
smilefaker schrieb:
...Hardwareluxx misst 4 bis 8% mehr Performance.
Und auch im benchmarkdurchschnitt bei FUll HD sind es hier ein mickriges Prozent.
Wenn Mantle dann mal mit 2GB Speicher läuft, sind es hier auch 3% im Schnitt...

hmm wie kann das sein, HWL hat doch sogar nur die Referenzkarte getestet, und CB.de die schnellere Strix oder nicht? :rolleyes::

zu 2 GB für MAntle... überall liest man das es zu wenig sei, ist das belegbar? :)


Wolfgang schrieb:
...
Im Moment ist leider noch nicht klar, wie DX12 aussieht, die Spezifikationen sind noch nicht final (womit man wohl sieht, dass die Ankündigung nen krasser Frühstart war). Nach aktuellem Stand ist GCN DX12-kompatibel. Die Frage ist aber nicht nur, ob das so ist und so bleibt, sondern auch, wie das genau gemeint ist. Man kann wohl sicher von ausgehen, dass GCN, Kepler und Maxwell kompatibel zu DirectX 12 Feature Level 11(.2) sind. Aber auch mehr?

Soviel zu Produktvorstellungen und Präsentationen, Features die nur auf Papier/Folie existieren. Bin anfangs davon ausgegangen, das es Hardwareseitige Unterstützung geben wird, oder zumindest Anpassungen etc. ;)

Somit spricht wirklich nicht mehr für die R9 285 und gegen die R9 280. :freak:


Lg
 
Die Leistung entäuscht mich schon ein bisschen.
Hätte da mehr erwartet, vor allem oberhalb der 280X.
Also doch auf die nächste Generation warten.
Aber wenigstens scheint mein 400W Netzteil für meinen i5-2500 und einer Grafikkkarte aus der neuen Generation zu reichen.
 
Sie wird die R9 280 ablösen und das war es auch, für micht uninteressant.
Habe mir erst vor 2 Wochen eine nagelneue 280X für weit unter 200 Euro gekauft, diese dient mal wieder nur als Übergangskarte, damit kann ich ganz entspannt bis zur GTX 880 warten.
Vielleicht überzeugt mich aber auch noch vorher AMD mit einer preiswerten R9 295 o.ä. die kommen könnte.
 
C0B schrieb:
Wenn sich das Upgrade nicht lohnt dann bringen dir auch die 200€ Karten nichts.
Es gibt noch genug die haben eine 560Ti im Rechner weil die aktuellen 200€ Karten nun mal nicht "schnell" genug sind für ein Upgrade.

Ansichtssache - Ich will +100% GPU Leistung (Punkt). Nicht erfüllt = Kein Upgrade.




NA WAS JETZT? :stock: trololololo

Genau. Deswegen hab ich auf eine 7950 gewechselt. Weil die nix bringt. Gut nur 50% scjneller außer in gta 4 und das mit nem phenomm2
 
SirBerserk schrieb:
keine ahnung wer dich für deine kommentare bezahlt, aber das wird so ähnlich kommen. die wird aber 400€+ kosten am anfang. aber recht hat er die leistung von ner 780ti bei 30% weniger verbrauch dürften schon drin sein. warum das so kommen wird? irgendwann geht die 780 in rente so 2-3 monate nach release von gm204, kein wunder, gm204 wird billiger in der herstellung sein als gk110.
Jaja träum weiter! Solange die nicht auf einen neuen Prozess wie (20 oder 16nm) umsteigen, wird da nix kommen was in eure unrealistischen Träume heranreicht.
Preislich sowieso nich.

C0B schrieb:
Was soll man mit 30%?

Dann lese mal die schwachsinnigen Kommentare bei Maxwell Gerüchten wieviele Spinner gleich zu Maxwell wechseln wollen, obwohl NIX bekannt ist.
 
Tappy schrieb:
Jaja träum weiter! Solange die nicht auf einen neuen Prozess wie (20 oder 16nm) umsteigen, wird da nix kommen was in eure unrealistischen Träume heranreicht.
Preislich sowieso nich.

ich hoffe du wirst dich daran erinnern was ich geschrieben habe.

war letzte woche dasselbe als die 285 von amd präsentiert wurde. da konnte man auch schon absehen das die karte mehr verbraucht als die 270x auch wenn viele anderer meinung waren.

die einsparungen der 750 ti gegenüber dem leistungsähnlichen kepler karten lässt mich zumindest halbwegs abschätzen wo die karten liegen werden.
 
Daher hätte ich gerne einen Test dazu gesehen um sie mit den alten zu vergleichen. Sind denn hier alle nur an FPS interessiert beim CPU oder GPU Kauf?
 
Daedal schrieb:
Daher hätte ich gerne einen Test dazu gesehen um sie mit den alten zu vergleichen. Sind denn hier alle nur an FPS interessiert beim CPU oder GPU Kauf?

Ist die einfachste Messgröße. Einfach auf Max stellen und fps messen. Den Rest kann man sich über n Dreisatz holen ^^
 
Und wie soll das gehen wenn bei FPS die Shader arbeiten und beim Transcodieren VCE? Zeig mir mal den Dreisatz der das berechnet. Oder irgendetwas berechnet ausser Spieleleistung...
 
Zuletzt bearbeitet:
Kenneth Coldy schrieb:
Bezüglich Nvidia gibt es da genügend Erfahrungswerte aus der Vergangenheit. Der Kunde wird belogen und betrogen wo es nur geht, die Fanboys biegen sich die grausame Realität dann so weit zurecht dass das ganze Universum sich schüttelt. Im Falle DX12 wird das wohl darauf hinaus laufen das die Karten den DX11.0-Subset von DX12 unterstützen wird und die Fanboys jeden niederbrüllen werden der nicht einsehen mag das alles was darüber hinaus geht ja sowieso nie benötigt wird.

Darauf, Nvidias Argumente dafür zu erläutern, Kepler mit DX11.1/11.2-Unterstützung zu bewerben, verzichte ich mal. Nicht dass ich noch als brüllender Fanboy abgestempelt werde. ;)

Ich sehe den Fall bei DX12 aber sowieso ganz anders gelagert. Es interessiert sich doch niemand wirklich für neue GPU-Hardwarefeatures, die DX12 eventuell bringt. Darüber ist bisher ja nicht mal irgendwas angedeutet worden.
Man kann wohl davon ausgehen, dass wenn es überhaupt solche neuen Features geben wird, weder GCN (1.X) noch Fermi, Kepler und Maxwell sie in vollem Umfang hardwareseitig unterstützen, einfach weil diese GPUs schon entwickelt wurden, lange bevor die Spezifikationen von DX12 endgültig festgelegt wurden. Bzw. ist das ja scheinbar bis heute nicht passiert.

Was bei DX12 aber wirklich interessant ist, ist der direkte Hardwarezugriff ala Mantle, und die damit erzielbaren Leistungssteigerungen. Darum dreht sich doch bisher alles. (Z.B. die diversen DX12-Demos.) Und was das angeht, sehe ich ziemlich gute Chancen, dass jede GPU davon (mehr oder weniger stark) profitieren wird, für die sich der jeweilige Hersteller noch die Mühe macht, neue DX12-kompatible Treiber anzubieten. Denn dieses Feature hat ja weniger was mit der GPU zu tun, sondern mit der D3D-API von DX12 selbst. Das ist Software, die auf der CPU läuft.

Ziemlich wahrscheinlich beziehen sich sowohl Nvidias als auch AMDs Aussagen zur Kompatibilität von aktuellen und älteren Karten zu DX12, nur genau darauf. Es geht nur um die geplante zukünftige Treiberunterstützung. Was zu dem Zeitpunkt noch neue Treiber bekommt, unterstützt auch DX12.

Ob und wie viele neue Features, die in der GPU-Hardware implemetiert sein müssen, dabei unterstützt werden, werden wir erst wissen, wenn es soweit ist. Aber wie gesagt, für die interessiert sich doch zumindest im Augenblick niemand wirklich.
 
Zuletzt bearbeitet:
Schade dass CB keine Videotranscodierung getestet hat:

Das wäre diesml alleine aus Zeitgründen eng geworden. Aber unabhängig davon, eine ganz ehrliche Frage:
Lässt sich Videotranscodierung überhaupt wirklich fair vergleichen? Ich meine mit demselben Programm, dass auf AMD/Nvidia GPUs auch mehr oder weniger dasselbe macht? AMD zum Beispiel in ihren "Beispielbenchmarks" fuchteln mit zwei völlig verschiedenen Programmen rum. Da weiß man ja schon gar nicht mehr, ob auch die etwas anders machen und die Ergebnisse noch vergleichbar sind. Ob jetzt SiSoft Sandra so ein wirklich "praxisnaher" Test ist...ich weiß nicht...

hmm wie kann das sein, HWL hat doch sogar nur die Referenzkarte getestet, und CB.de die schnellere Strix oder nicht? :
Die Referenzkarte hat keiner getestet, denn die hat AMD nicht rausgegeben. Es gab nur (übertaktete) Partnerkarten. Und in den Benchmarks laufen diese bei uns natürlich mit den Standard-Taktraten.

Offizieller Treiber für die R9 285 verfügbar, vielleicht könnte CB mal nachtesten
So wie ich das sehe ist das einfach der Launch-Treiber, nur mit einer anderen inf, die andere Grafikkarten unterstützt.
 
Zuletzt bearbeitet:
Zurück
Oben