Test Gigabyte Radeon R9 290X im Test

Naja der Kühler von Sapphire hat eine größere Kühlfläche. Der Kühler überragt das PCB um 3 cm. Er ist ähnlich aufgebaut wie der Accelero Extreme III. Und auch dort sieht man ja recht deutlich, dass der Hawaii Chip schlechtere Temperaturwerte erzielt, wie andere Chips.
 
Es geht doch hier nur darum ob ein Kühldesign in der Lage ist auch im Worst Case die Performance zu bringen die möglich ist. Asus und Gigabyte schaffen es nicht. Das Beispiel Sapphire zeigt dass es geht, da ist sogar noch Luft nach oben. Ich erwarte einfach für einen gewissen Preisbereich dass Kühler angepasst werden. Nicht mehr und nicht weniger. Wenn sie es mir Ihrem Design nicht schaffen muss halt was anderes her.

Ob Hawaii jetzt beim AC III schlechter abschneidet als bei den GTX ist irrelevant solange der Kühler eine Drossellung verhindert und das tut der AC3 auch auf Hawaii. Auch da ist massig Luft nach oben.
 
Zuletzt bearbeitet:
Ist ja physikalsich klar, dass Hawaii wärmer werden muß als GK110!
Immerhin bauen die Transistoren ~12% dichter und die Spannung liegt (lt. ht4u) um ~0,006V (Hawaii 1,182V @ 1000MHz vs GK110 1,176V @ 1020 MHz) leicht höher.
Der gleiche Grund also, warum u.A. auch die 22nm Intel Chips trotz relativ niedrigem Verbrauch vergleichsweise heiß werden.

Zudem auch unklar ist, inwieweit die per Hardwarediode bestimmte und per Software ausgelesene Temperatur überhaupt mit einer realen Temperatur übereinstimmt.
 
Ich gebe dir sicher recht, dass sich die Hersteller Gedanken machen müssen. Das ist deren Job. Aber es ging jetzt in der Diskussion darum ob der Hawaii Chip nun schwerer zu kühlen sei oder nicht. Und wenn der AC III beim Hawii Chip höhere Temperaturen erzeugt wie bei anderen Chips zeigt dies einfach, dass es sich um eine hitzige GPU handelt. Selbst beim Review von Wasserkühlungen kommt man zu dem Ergebnis.

Die Radeon R290X ist aktuell die hitzigste Karte die wir bis jetzt bei uns hatten. Mit meiner maximalenm Kerntemperatur von 55 Grad ist sie verglichen mit einer GTX 780 ein wahres Heizmonster. Nichts desto trotz sind die von uns gemessen 55 Grad noch immer sehr gut. Das Testsystem verbrauchte bei einer Belastung mit Furmark ca. 515 Watt an Strom.
Quelle: http://www.hardwaremax.net/wasserku...-fc-r9-290x-nickel.html?showall=1&limitstart=

Das ist ja auch erst einmal nicht schlimm. Die GTX 480 war ebenso ein Hitzkopf und nur Zotac hatte es damals geschafft, ein ordentlich gekühltes Customdesign hinzubekommen. Aber es stellt Hersteller eben vor eine Herausforderung.
 
Wenn du mit Herausforderung meinst nicht einfach blind ein vorhandenes Kühlkonzept zu verwenden, dann stimme ich dir zu. Das sollte man aber auch erwarten können. Die Zotac hatte ja sogar eine third party Kühler von Zahlmann verbaut und war keine Eigenkonstruktion. Die nachfolgenden Eigenkreationen seitens Zotac die den Namen AMP erhalten hatten waren alle nicht so gut.

Da der Chip kleiner ist, aber genauso leistungsfähig und etwas mehr vebraucht wie eine vergleichbare GTX 780 TI, wird es bei dem Chip immer etwas schwieriger sein ihn zu kühlen, aber auch das ist problemlos möglich. Und darauf kommt es doch an.

Und deswegen peinlich dass es Asus und Gigabyte im Worst Case nicht schaffen.

Hier steht was zum Test bezüglich des Gehäuses der ASUS Radeon R9 290X DirectCU II OC von HW geklaut im Forum vom 3Dcenter:

"Anders verhält es sich bei der ASUS Radeon R9 290X DirectCU II OC. Hier messen wir unter Last eine maximale Temperatur von 80 °C. Diese Werte sind stark abhängig vom verwendeten Gehäuse bzw. dessen Belüftung. Wir verzichten bewusst auf einen offenen Aufbau für unser Testsystem, da dies nicht mehr praxisrelevant ist. Auf der anderen Seite spendieren wir dem Gehäuse genügend Frischluft, um bei den stundenlangen Tests nicht in thermische Probleme zu geraten. Mit den 80 °C sind wir mehr als zufrieden, schließen erreicht die ASUS Radeon R9 290X DirectCU II OC damit in allen Fällen die maximalen 1.050 MHz."

http://www.hardwareluxx.de/index.ph...n-r9-290x-directcu-ii-oc-im-test.html?start=4

Wer keinen worst case hat kann also sogar mit der ASUS gut leben. Die Frage ist nur welches Gehäuse wird verwendet.
 
Zuletzt bearbeitet:
Dem widerspreche ich auch gar nicht. Und Herausforderungen sind ja nicht das Schlechteste. Das zwingt die Hersteller mal wieder, sich etwas zu bewegen. Das Beispiel der 290X zeigt doch deutlich, dass sich die Hersteller zum Teil sehr lang auf ihren Lorbeeren ausgeruht haben. Viele der jetzigen Customkühler wurden in den letzten Jahren oft nur geringfügig modifiziert. Und wenn sie sich nun mal wieder mehr Gedanken machen müssen, kann das für zukünftige Grafikkartengenerationen nur von Vorteil sein.
 
Ulukay schrieb:
Die Anforderungen sind anders, aber sicher nicht "hoeher".
Es sind gleich viel Watt Verlustleistung, nur die Kontaktflaeche sieht anders aus.
was erzählst du denn für einen quark? natürlich sind die anforderungen höher. die amd gpus verbrauchen mehr leistung und geben die wärme auf einer geringeren fläche ab. beide punkte sind dutzendfach belegt und der fall ist ja wohl eindeutig. wie kann man nur so etwas schreiben...
 
Er spielt hier den Klugscheißer.

Die physikalische Größe, die "verbraucht wird" (korrekt: in eine andere Form umgewandelt) ist die Energie (Einheit 1J = 1Ws) und nicht die Leistung.
 
danke für den hinweis. dann muss ich meinen satz wohl anders formulieren:

"die amd gpus verbrauchen mehr energie und geben die wärme auf einer geringeren fläche ab."
 
zeedy schrieb:
Auch auf hardwareluxx hat sich die Asus nicht so schlecht präsentiert wie hier
http://www.hardwareluxx.de/index.ph...us-radeon-r9-290x-directcu-ii-oc-im-test.html

die asus karte hat zb. auch absolut den schlechtesten ram verbaut.... zumindest laut dem test auf guru3d, somit geht da soviel wie nichts mit übertakten... was eigentlich immer ein + war bei den amd karten und womit man ziemlich viel potential aufholen konnte zur konkurenz.

Dr.Schiwago schrieb:
@jeri
Die Leistungsaufnahme der AMD-Karten ist doch gar nicht so sehr viel höher, wenn man mal auf Seiten ohne den albernen Steckdosen-Klimbim nachschaut. Wobei mir die Sapphire R9 290 ohne und mit X sogar ganz gut gefällt.

Unterm Strich ist meine GTX 780 TI OC im Custom-Design nämlich bei längerer Last auch ziemlich laut (und hungrig). Jedenfalls stört es mich extrem und das Teil kommt demnächst mit einer noch zu kaufenden Schwester unter Wasser. Für 4K2k reicht eine GTX 780 Ti OC nämlich auch nicht wirklich und es ist egal, was man sich reinsteckt - es ruckelt.

und mehr leistungsaufnahme, produziert nunmal mehr hitze...
aber ich sag mal so, mit einer manuellen fanlüfterkurve via msiafterburner/evga precision x lässt sich das ganze eigentlich ziemlich gut bei 70-75° C auch bei 35-40% lüfterleistung 'leise' tweaken. es sei denn, man dreht alles auf ultra+ 16x aa (was sowieso bei einer single GPU nicht zum absolutem ruckelfreiem spielen führt) etc und spielt mit kopfhöhern... ich lege da mehr wert auf silent, da ich das ganze mit meiner heimkino/spielanlage doch viel lieber geniesse und einen staubsauger, welcher mein system+subwoofer übertönt absolut nicht will :D
 
Ich würde mal das Fazit (für mich) ziehen: wer die Leistung braucht und wem die Lautstärke egal ist oder mit Wasser kühlt, der kann im Moment zur einer 290X greifen. Alle anderen müssen auf Nvidia oder eben eine Sapphire 290 (ohne X) ausweichen, was ich wohl tun werde.

Guten Rutsch!
 
Sinthuria schrieb:
Und wenn der AC III beim Hawii Chip höhere Temperaturen erzeugt wie bei anderen Chips zeigt dies einfach, dass es sich um eine hitzige GPU handelt.

Du hasts anscheinend noch immer nicht kapiert. :rolleyes::
Es zeigt nur, dass dieser alte Kuehler nicht optimal angepasst fuer den Hawaii ist. Sonst GARNIX.
 
Ulukay schrieb:
Du hasts anscheinend noch immer nicht kapiert. :rolleyes::
Es zeigt nur, dass dieser alte Kuehler nicht optimal angepasst fuer den Hawaii ist. Sonst GARNIX.
also dass es bis jetzt nur eine einzige (!) custom lösung gibt, die man einigermaßen empfehlen kann, hat überhaupt gar nichts mit dem hawaii chip selbst zu tun? aber sicher :daumen:

edit: und die gtx 480 war damals auch nicht zu heiß, sondern zalman waren nur die einzigen, die einen passenden kühler bauen konnten, stimmts? :D
 
Zuletzt bearbeitet:
Ulukay schrieb:
Du hasts anscheinend noch immer nicht kapiert. :rolleyes::
Es zeigt nur, dass dieser alte Kuehler nicht optimal angepasst fuer den Hawaii ist. Sonst GARNIX.

Wird das nicht langweilig?
Ein Produkt zu verteidigen ist ja schön und gut aber so vehement? Der Accelero kann ohne Probleme jede GPU auf dem Markt kühlen, dass er sich mit dem Hawaii etwas schwerer tut liegt an AMD. Es wäre kein Problem gewesen der DIE einen Heatspreader zu verpassen der die Wärme auf eine größere Fläche verteilt und schon wäre es wieder einfacher.
Ich sehe es halt anders als Tom´s Hardware. AMD macht sich selbst das Leben schwer, wenn die glauben die Hersteller die zweigleisig fahren passen die Kühler extra an Hawaii an, dann wundert es mich nicht wenn es AMD schlecht geht.

AMD hätte es diesen Herstellern leichter machen können aber da wären wir wieder beim Thema nicht können oder nicht wollen.
 
@Ulukay
Du hast es noch nicht kapiert.
Der Chip braucht einen speziellen Kühler weil er halt wärmer wird und besser gekühlt werden will. Was ist denn da so schlimm daran?
Einige haben noch nicht kapiert, dass man bei einer Top GPU mit Top Leistung halt etwas mehr machen muss um seine Freude daran zu haben. Setzt das Teil unter Wasser und achtet darauf, das der RAM und die Spannungsregler mit gekühlt werden. Das ganze kostet halt aber man hat seine Ruhe.
 
Der Chip wird nicht waermer. Ka woher ihr den Bullshit habt. Er hat diesselbe Verlustleistung, man muss sie nur ueber eine kleinere Flaeche abfuehren. Dafuer muss man halt einen Kuehler mit kleiner Basis machen, und keinen Uralt Muell wiederverwenden.

Aber ihr findet eine hoehere Packungsdichte sicher auch total scheisse oder? :lol::
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben