Test AMD Radeon R9 290 im Test

Mit Custom Bios und Kühler sicher ein interessante Alternative - 350€ sind für die Leistung eine echte Ansage.

Mal schauen wo sich der Preis einpendelt. Zumindest belebt die Konkurrenz das Geschäft.
 
Klar ist das ein Ref Design, aber die Lautstärke und dann noch die Temperatur dabei, ist echt mies, wenn man die Versprechungen von AMD bedenkt. Da wird ja wirklich jede Custom Lösung besser sein.
 
Auch 'ne Möglichkeit, den Käufer gleich zur 290X zu schicken. :lol:
 
Oh man, müssen die letzten Tage und Wochen bei AMD ein Chaos gewesen sein. Ich kann mir bildhaft vorstellen, wie Entwickler und Manager panisch herumrennen und sich gegenseitig anschreien und die Schuld zuschieben, und dann das verzweifelte Bemühen, die sich anbahnende Katastrophe noch irgendwie abzuwenden und das Produkt zu retten. :eek:

Und das alles nur, weil der Referenzkühler für diese GPU einfach nicht leistungsfähig genug ist.

Was ist da nur schief gelaufen? Wie konnte man es sehenden Auges dazu kommen lassen?
Wurde das für Kühler-Design zuständige Team bei AMD irgendwann in den letzten Monaten gefeuert und AMD hat einfach nichts anderes mehr, als das selbe alte Kühler-Modell, das schon für die HD7970GHz nicht ausreichte?
Aber selbst wenn, dann hätte man halt verstärkt auf Zusammenarbeit mit den Kartenherstellern setzen müssen und die 290(X) von Anfang an nur mit guten Custom-Kühlern bringen.

Nicht dass die Hawaii-GPU selbst ganz perfekt wäre, aber der hohe Stromverbrauch wäre bei solchen High-End-Karten kein KO-Kriterium gewesen, wenn der Kühler nur gut genug ist, die Abwärme effektiv und leise abzutransportieren.
Einer kühlen und leisen Karte könnte man den höheren Verbrauch gegenüber der gleichschnellen GTX780 leicht verzeihen, wenn der Preis entsprechend etwas niedriger ist.

Aber so ist die Referenz-290 leider ein Reinfall. Nicht ganz so dramatisch, wie ohne die Drehzahlanpassung in letzter Sekunde, die erst Recht gezeigt hätte, wie unzureichend der Kühler ist (langsamer als GTX770 und 280X... wirklich?), aber immer noch schlimm genug.

Es ist ein Jammer um jede einzelne Hawaii-GPU, die für diese Referenzkarten verschwendet wird! (Ausgenommen die, die von Bastlern von dem unbrauchbaren Referenzkühler befreit werden.)
Und auch ein Jammer um den Ruf der Hawaii-GPU, den AMD sich mit der Entscheidung (nur) diese Referenzmodelle zu bringen ruiniert hat.

Am besten vergessen wir das alles schnell wieder und warten auf die Custom-Karten...:rolleyes:
 
Zuletzt bearbeitet:
Leistung und Preis stimmen, Lautstärke und Stromverbrauch nicht.
 
hm die Karte is sehr durchwachsen. Kann sich kaum von der GTX 780 absetzen die quasi nie unter 10% OC verkauft wird. Dafür ist sie preislich interessant, sofern sie mal für 345€ auch verfügbar ist. Lautstärke, naja...

Mit einem fiktiven „Uber Modus“ bei maximal 55 Prozent Drehzahl. Die Referenz sieht einen „Uber Modus“ zwar nicht vor, allerdings werden laut AMD ausgewählte Boardpartner die R9 290 mit einem „Uber“-BIOS wie bei der Radeon R9 290X ausstatten. So lässt sich bereits ein erster Ausblick auf diese Partnerkarten mit „Uber“-BIOS werfen und möglicherweise die maximale Leistungsfähigkeit der Grafikkarte ausloten. („AMD Radeon R9 290 (Uber)“)

öhm... Chaos >.<

Die Leistungsaufnahme (gaming Last) zur etwa gleich schnellen GTX 780 ist ja wohl ein Witz
 
Ist die 'Testkarte evtl. ein ausreißer in Sachen Leistungsaufnahme oder der Treiber setzt die Spannung zu hoch? Kann eigentlich nicht glauben das die Karte so viel mehr "Saft" braucht um stabil zu laufen. Falls doch scheint mir die 290x das bessere Angebot zu sein. Die Leistung ist zu diesem Preis nat. beeindruckend, das dürfte auch den NV-Fans gefallen=sinkende Preise. In dem Test fehlt mir BF4 als erster vertreter einer Engine auf der einige Spiele basieren werden. Ihr könnt dafür auch noch ein pro NV Game mehr mit rein nehmen;)
 
Na, da lag ich ja mit meiner Schätzung von 379,-€ garnicht soweit daneben. In meinen Augen hat AMD den Chip auf ein viel zu kleines Die gequetscht. Bei der kleinen Fläche für die Wärmeübertragung müssen schon sehr potente Kühler verbaut werden, um den Chip ausreichend zu kühlen. Wär der Chip so groß wie der letzte, wären die Probleme wohl kleiner.
Die Ausbeute und die Güte scheinen auch noch nicht sonderlich gut zu sein, sonst müßte AMD nicht derart hohe Spannungen ansetzen. Mit 1,150v takten meine 2 HD7950 (Gigabyte WF3) stabil mit 1150MHz und werden nicht mal 85°C warm.
Mal sehen ob im Verlauf der Produktion bessere Werte erreicht werden und später Karten mit weniger hohen Spannungen kommen? Wohl eher nicht!
AMD hätte sich mehr Zeit lassen müssen, um effizientere Chips zu entwickeln. Die gleiche Leistung zu bringen, dabei aber 100w mehr zu verbraten, ist heute nicht mehr zeitgemäß.
Meine 2 HD7950 uc auf 800MHz benötigen auch nicht mehr Saft als die 290/290X, leisten dafür aber deutlich mehr. Von daher werde ich die 2 wohl noch ein Jahr behalten und auf die R9 390 und Nvidias next generation warten.

PS. Netter Test, der doch einige Unzulänglichkeiten der GCN 2.0 Generation offenbart.
 
"Schnell, günstig und viel zu laut."

Ich übersetze:

Schnell günstig, und seit mindestens seit 5 Jahren aufgrund zahlreicher Custommodelle (so erlaubt, siehe Titan) bei jeder Generation beider Lager absolut unwichtig.

Allerdings kommt schnell so ein Murks heraus, wenn beide GPU Hersteller sich anmaßen, irgendwelchen Boostunsinn zu entwerfen und (teilweise) den Grafikkartenherstellern zusätzlich ebenfalls noch Möglichkeiten der Anpassung erlauben, so dass man als Endkunde kaum noch Überblick, bei zweifelhaften Nutzen hat. Natürlich ist es so einfacher, bei Bedarf die Leistung (Lüfter PPM) noch einmal fix anzupassen. So etwas gehört im Grunde seitens der, ich nenn sie einmal Fachpresse, rigoros mit Nichbeachtung (sprich manueller Reduzierung der Lüftergeschwindigkeit/Takt/oder je nachdem wie der entsprechende Boost arbeitet) bestraft. Kurze Erwähnung im Text. Fertig. Stattdessen wird auf die daraus resultierenden Geräuschentwiclung und/oder schlechten Kühlung in der ÜBERSCHRIFT hingewiesen. Ursachenidentifizierung ((temperaturabhängiger/TDP abhängiger Boost ist kagge), -benennung und damit mögliche zukünftige Beseitigung (hier im Sinne der Käufer), war allerdings noch nie der Fachpresse (des Menschen generell) beste Fähigkeit.

Ich will doch nur die Kontrolle über mein Stück Hardware zurück und vor allem, möchte ich die Leistung der Hardware einer Generation (nicht zu verwechseln mit Refresh) nicht DLC Content-mäßig in Kleckerschritten, was NV bspw. perfektioniert hat, oder in Abhängigkeit der gewünschten Balkenlänge serviert bekommen.

Dennoch, danke für den Eindruck und den Test. Ich würde mir jedoch etwas mehr Zurückhaltung bzw (gezieltes herausheben der eigentlichen Ursachen) bei den Überschriften wünchen.

Gruß
 
Zuletzt bearbeitet von einem Moderator:
* beides Rev. 1.0 mit variablen Spannungen und GHz-Bios
 
oxe23 schrieb:
Wie muss ich das verstehen? Ist da noch mit einer Entwicklung zu rechnen?
Also unabhängig von einem Refresh oder so, automatisch über bessere 290X-Abfall-Chips?

Kann durchaus sein. Die 280X soll ja auch noch durch einen besseren Chip weniger Strom verbrauchen. Kann es nur hoffen.
 
In anderen Test liegt der Verbrauch 20-30 Watt unter einer R9290X. habt ihr bei der Simulation eures "Ueber" Mode irgendwas kaputtgespielt;)...nein im ernst bitte noch mal nachforschen!
 
Kreisverkehr schrieb:
Mit dem Accelero wird doch anscheinend in jeder Lage die Temperatur unter dem Referenzdesign gehalten, somit sollte doch auch die Leistungsaufnahme bei geringerer Temperatur niedriger sein?


Die Antwort darauf steht schon im Test:

Dabei gilt anzumerken, dass wir für unsere kurzen Tests auf eine Kühlung der Speicherbausteine und insbesondere der Stromversorgung der Karte verzichtet haben, um das Testmuster nicht irreversibel zu verändern.

Ansonsten passt es ja zwischen 12V und 7V liegt eine Differenz von 11 K und das macht ~5,5% (Idle-Verbrauch und Lüfter abgezogen) Unterschied in der Leistungsaufnahme bei gleichem Takt/Spannung


Das Referenzmodell ist für die Tonne (sofern man nicht die Kühlung selber ändert), es müssen ordentliche Custom-Karten her.
 
Der Paule schrieb:
Ich will doch nur die Kontrolle über mein stück Hardware zurück...

Die Kritik verstehe ich nicht. Man hatte doch noch nie so weitgehende Kontrolle bzw. Anpassungsmöglichkeiten. AMDs PowerTune und Nvidias Boost 2.0 erlauben es (auch ohne weitere Tools), frei nach eigenem Geschmack einen beliebigen Kompromiss zwischen Leistung, Temperatur und Laustärke (und indirekt auch Verbrauch) einzustellen. Sehr viel feiner, als zu Zeiten von festen Taktfrequenzen und vordefinierten Lüfterprofilen.

Aber all das kann halt auch keine Karte retten, deren Kühler einfach nur unzureichend ist. Egal was man einstellt, die Hawaii-GPU rennt mit dem Referenzkühler immer gegen das Temperaturlimit. Jedenfalls bei allen Lüfterdrehzahlen, die nicht zu tatsächlich gesundheitsgefärdendem Lärm führen würden.
 
oxe23 schrieb:
Wie muss ich das verstehen? Ist da noch mit einer Entwicklung zu rechnen?

Bei den Karten ist es offensichtlich so, dass sie die stäkste Drosselung dadurch erfahren, dass sie schlicht zu heiß werden und damit dann drosseln und die Lüfter so hoch drehen, dass die Dinger halt zum einen nicht ihr volles Potential ausschöpfen können und zum anderen viel zu laut werden.

Das dürfte sich ändern, wenn Ende des Jahres (aber warum so spät erst?) die Partner mit eigenen Kühlerdesigns - wie ja sonst auch immer - auf den Markt kommen.
 
Hollomen schrieb:
In anderen Test liegt der Verbrauch 20-30 Watt unter einer R9290X. habt ihr bei der Simulation eures "Ueber" Mode irgendwas kaputtgespielt;)...nein im ernst bitte noch mal nachforschen!

Es scheint wohl wirklich "bessere Samples" gegeben zu haben. Aber es gibt auch genug, die genau das gleiche haben wie wir. Anandtech hat auch höhere Spannungen und mehr Verbrauch gehabt, Techreport auch usw usw.
http://www.anandtech.com/show/7481/the-amd-radeon-r9-290-review/15
http://techreport.com/review/25602/amd-radeon-r9-290-graphics-card-reviewed/8
 
Nope auf 662 MHz sogar :)
Als wir in der Default-Einstellung zuerst getestet haben, dachten wir auch "Was geht hier!?!". Dann kam das ganze rumgeruder von AMD und angepasster Treiber mit 47%.
 
Zurück
Oben