News Wassergekühlte Radeon R9 290X von PowerColor

Also ich kann mir einfach nicht vorstellen, dass es ein derartiger Entwicklungsaufwand ist, der diese Verzögerung entschuldigt. Das ist höchstens noch eine Ausrede der Hersteller. Asus, MSI und Co. verbauen teilweise doch auch einfach nur ihren Kühler aus anderen Serien. Mit Referenz PCB wäre der Aufwand noch erheblich geringer.

Klar - in einer Woche ist das nicht gemacht aber mehr als 3 Monate kann man dafür doch nicht brauchen. Man nimmt ein bekanntes Kühler Layout, passt ggf. Bodenplatte und Aussparungen für Aufbauten neu an, und entwirft Kühler für Spannungswandler und RAM.

Wenn es das vergleichsweise winzige EK oder Aquatuning schafft innerhalb von ein paar Tagen nach Release einen kompletten Wakü Block vorzustellen, wird es ein großer Konzern wie Asus, der die Karten vermutlich wenigstens ein paar Wochen eher hatte, doch wohl hinkriegen ein neues Design zu basteln.

Da muss einfach ein Verbot von AMD dahinter stehen.
Und so ein Desaster, wie es hier manche hinstellen ist das mitnichten!
Die 290(X) sind im Prinzip dauerhaft restlos ausverkauft. Ergo verkauft man alles, was man produzieren kann. Es wird ja gern so hingestellt, als wartete die halbe Welt nur auf die neuen Kühler und AMD verhagelt sich deswegen massiv die Verkäufe. Dabei verdient AMD -angeblich- am Referenzdesign am meisten, weil sie nicht nur den Chip liefern sondern den Kühler, das PCB und VRAM gleich mit. Und das extra Zeug verkaufen die sicher nicht exakt zum Selbstkostenpreis.
 
@guggi4:
Da du Post #16 im Indikativ verfasst hast, lag die Annahme, du würdest es tatsächlich tun, durchaus auf der Hand. ;)


@topic:
Wurde doch schon oft genug erläutert, dass AMD am Referenzdesign aktuell mehr Gewinn macht als an GPU (+Speicher)-only. Aus betriebswirtschaftlicher Sicht machen die aktuell also alles richtig. Dass der Foren-Freak dabei nicht auf seine Kosten kommt, wird man wohl als verschmerzbar kalkuliert haben, denn sonst gäbe es Custom-Designs schon längst.

Die 290X LCS wird auch nur ein Ref.-Design mit nachträglich montiertem EK-Waterblocks-Kühler sein. Den Aufpreis, den PowerColor für den Luft-Kühler noch bei AMD zahlen musste, wird dabei natürlich an den Kunden durchgereicht, selbst wenn der Kühler gar nicht mit in der Packung liegt. Kosten wird die Karte dann min. 100€ mehr als die üblichen Custom-Layouts, hatten wir doch schon bei der 7970 LCS. Dafür, dass dann immer noch Garantie auf der Karte ist, sollte es den Preis aber immer noch wert sein.
 
Zuletzt bearbeitet:
PR3D4TOR schrieb:
Am meisten interessieren mich natürlich die Custom-Designs mit Luftkühlern. Ob diese das Monster von R9 290X im Uber-Modus vernünftig (aka gutes Verhältnis zwischen Temperatur und Lautstärke) kühlen können, kann ich derzeit weder mit Ja, noch mit Nein beantworten.
Ein Klick in Google und man kann es mit Ja beantworten ;)
...Das Monster von R9 290X :freak: immer diese Übertreibungen.
 
Das gezeigte foto sieht aus ob es aus dem Jahr 1993 stammt xD
wenn das Testlabor von PowerColor so aussieht, wie das Test Sample, na dann prost mal zeit!
Allein diese Archaische DVD Laufwerk :freak: :evillol:
 
tm0975 schrieb:
eine wasserkühlung macht doch nur sinn, wenn man sich an den heizkreislauf bzw die warmwasseraufbereitung anschließt ;-)



Die Idee hatte ich vor 3 Jahren umgesetzt die Pumpe aber so dämlich verbaut (natürlich mal defekt) das ich nicht mehr dran gekommen bin und das ganze System im Winter mal eingefroren ist......
Aber sonst schön leise mit ner guten GTX 480^^
 
zeedy schrieb:
Ein Klick in Google und man kann es mit Ja beantworten ;)
...Das Monster von R9 290X :freak: immer diese Übertreibungen.

Für mich ist das definitiv keine Übertreibung in diesem Uber-Modus. Sowohl in Performance Hinsicht, als auch im Hinblick auf den Stromverbrauch.

Google hilft mir nicht, da es keine Custom R9 290X gibt. Die umgebauten Grafikkarten mit AC Xtreme III & Co. kühlen erfahrungsgemäß immer deutlich besser als die Custom Kühler der Hersteller (PCS+, Toxic, DirectCUII, etc.)

Somit kann Ich diese Frage immer noch nicht eindeutig beantworten.
 
PR3D4TOR schrieb:
Für mich ist das definitiv keine Übertreibung in diesem Uber-Modus. Sowohl in Performance Hinsicht, als auch im Hinblick auf den Stromverbrauch.
Ja okay, so absurd hoch ist der Verbrauch auch nicht...vor allem mit einem guten Kühler. Und wenn der Xtreme III oder der MK-26 es schaffen, den Hawaii auf 60°C herunter zu kühlen, dann werden es die Partnerkarten auch nicht sooo viel schlechter machen. Der Xtreme 3 ist nun nicht um Welten besser als z.B. der Windforce von GIgabyte. Gibt nen Vergleichstest dazu auf hardwareluxx.

Viele denken einfach, der neue AMD Chip wäre so unfassbar ineffizient und unmöglich mit Luft zu kühlen, dabei ist das eigentlich der grottige Kühler, der mit der GPU nicht zurechtkommt bzw. die 94°C Zieltemperatur für eine leisere Kühlung...Die TDP Einstufung ist die selbe wie bei den 780ern und der HD 7970 GE.
 
swm-kullerkeks schrieb:
@guggi4:
Da du Post #16 im Indikativ verfasst hast, lag die Annahme, du würdest es tatsächlich tun, durchaus auf der Hand. ;)


@topic:
Wurde doch schon oft genug erläutert, dass AMD am Referenzdesign aktuell mehr Gewinn macht als an GPU (+Speicher)-only. Aus betriebswirtschaftlicher Sicht machen die aktuell also alles richtig. Dass der Foren-Freak dabei nicht auf seine Kosten kommt, wird man wohl als verschmerzbar kalkuliert haben, denn sonst gäbe es Custom-Designs schon längst.

Die 290X LCS wird auch nur ein Ref.-Design mit nachträglich montiertem EK-Waterblocks-Kühler sein. Den Aufpreis, den PowerColor für den Luft-Kühler noch bei AMD zahlen musste, wird dabei natürlich an den Kunden durchgereicht, selbst wenn der Kühler gar nicht mit in der Packung liegt. Kosten wird die Karte dann min. 100€ mehr als die üblichen Custom-Layouts, hatten wir doch schon bei der 7970 LCS. Dafür, dass dann immer noch Garantie auf der Karte ist, sollte es den Preis aber immer noch wert sein.

Stimmt, hab ich jetzt auch bemerkt ;) wobei ich es durchaus bereue nicht vor zwei drei Monaten eingestiegen zu sein, hätte dadurch immerhin fast den ganzen PC abbezahlt :)
 
@Scythe1988
Bashen aber selber Halbwahrheiten verbreiten, tztztz...Die Verlustleistung sinkt bei niedrigerer Temperatur, denn der elektrische Widerstand von Silizium ändert sich in Abhängigkeit von eben dieser. Vielleicht sind es nur ein paar Watt, das kann ich auch nicht genau sagen, aber die Leistungsaufnahme sinkt definitiv.


@tm0975
1. Weiter oben wolltest du noch Wasser mit der Wärmeenergie erhitzen und dann einen Raum beheizen, aber die Wärme gleich in den Raum zu blasen ist dumm?...Alles klar, schön zu lesen was du alles weißt.
2. Es heisst "Konvektion" oder "Wärmemitführung" und in der Konvektion ist immer in wenig Wärmeleitung inbegriffen aber falls da Nachholbedarf besteht,einfach ein Semster lang die Vorlesung Wärmeübertragung besuchen ;-)
 
Zuletzt bearbeitet:
Meine Monster (zufrieden?) GTX 480 hatte auch einen starken Custom-Kühler. Den AC Xtreme II bzw. die Werte von diesem hat der Custom-Kühler nicht mal ansatzweise erreicht. Das sind meine Bedenken bzw. würde ich gerne Tests von den bekannten Dual-Slot Lösungen sehen. Die MSI Kühler sind ja hoffnungslos mit einer R9 280X überfordert (MSI Gaming). Da muss sich zumindest MSI etwas neues einfallen lassen. Gigabyte hat Reserven mit dem Windforce X3, aber die Lautstärke ist nicht so prickelnd unter Last ohne Anpassung. ASUS & Co. stehen ähnlich da.
 
Bleibt abzuwarten. Ich hoffe es. Den AC Xtreme kenn ich selbst und weiß bestens über dessen überdurchschnittliche Kühleigenschaften bescheid.
 
Muss meine beiden 290iger auch noch umbauen die Kühler von Aquacomputer liegen schon zu Händen.

 
Zuletzt bearbeitet:
Mikey158 schrieb:
Hi,

Maxwell rückt schon ziemlich nahe. Das könnte noch gefährlich werden.

Ich kann es einfach nicht verstehen, doch irgendwie macht AMD das ganze falsch.

Keine Karten verfügbar, ein schlechter Kühler, Custom Modelle zu spät freigegeben; Mann oh Mann

Ob Maxwell oder nicht Maxwell ist doch hier gar nicht die Frage

Kepler reicht doch schon aus um das ganze Portfolio von AMD auf Distanz zu halten

Solange AMD da nichts in 20nm bringt kann sich Nvidia zurücklehnen u das wohlgemerkt mit der alten Architektur.

Und ist 20nm bereit bei TSMC steht auch Maxwell bei Nvidia an,die Gerüchte geben ja schon erste Vorzeichen

AMD braucht nicht nur den Shrinkprozess sondern auch noch schleunigst was, was der aktuellen Architektur auf die Sprünge hilft, sonst ist ab Maxwell der Ofen ganz aus mit Konkurenzdruck,so wie im CPU Geschäft schon geschehen mit Intel
 
Ich glaube wir haben ganz unterschiedliche Tests, Architekturreviews und News gelesen.

Von nebenbei auf Distanz halten, kann hier sowas von keine Rede sein!
Das ist ein technologischer Gleichstand wobei AMD gern mal 100€ weniger für die selbe Leistung bei etwas mehr Verbrauch verlangt. Oder ist der Preis der 780ti mit der Leistung der 290X bei weniger VRAM vollkommen spieldendes auf Distanz halten? :rolleyes:
 
Leiser,schneller,stromsparender,übertaktungsfreudiger u du willst hier allen Ernstes behaupten das wäre "Gleichstand"

Mitbekommen hast du schon wie schnell der Konter kam von nvidia ohne groß rumzuexperimentieren hat man AMD mit der 780TI den Wind aus den Segeln genommen innerhalb nichtmal 2 Wochen nach Veröffentlichung der 290/290X

Zudem hantiert hier Nvidia immer noch mit Kepler herum u nicht mit ner "vulkanartigen" Weiterentwicklung

Und ja es wird wohl prekär enden wenn AMD außer dieser Architektur nen Shrink zu verpassen,Maxwell nichts weiter entgegenzusetzen hat
 
Zuletzt bearbeitet:
Und wer sagt dass Maxwell nicht auch nur einer wird? meine Güte... Außerdem ist schneller, leiser und Übertaktungsfreudiger Ansichtssache. In vielen Fällen verlang Nvidia mehr Geld. Geld für das man sich nen Mk 26 kaufen kann. Und der ist leiser und hält die Karten Kühler als alles was so an Customdesigns zu bieten ist.

Zu den ganzen Leuten die sich über die Verfügbarkeit aufregen:
AMD und NVidia fertigen beide bei TSMC, wenn Amd keine Karten herbekommt, bekommt Nvidia mit sehr hoher Wahrscheinlichkeit auch keine.

BTT:
Ich find den Ansatz von PowerColor gut dass Ding unter Wasser zu setzen, hoffentlich lassen sie keine Kinderkrankheiten übrig^^
 
scully1234 schrieb:
Leiser,schneller,stromsparender,übertaktungsfreudiger u du willst hier allen Ernstes behaupten das wäre "Gleichstand"

Mitbekommen hast du schon wie schnell der Konter kam von nvidia ohne groß rumzuexperimentieren hat man AMD mit der 780TI den Wind aus den Segeln genommen innerhalb nichtmal 2 Wochen nach Veröffentlichung der 290/290X

Zudem hantiert hier Nvidia immer noch mit Kepler herum u nicht mit ner "vulkanartigen" Weiterentwicklung

Und ja es wird wohl prekär enden wenn AMD außer dieser Architektur nen Shrink zu verpassen,Maxwell nichts weiter entgegenzusetzen hat

Eine GTX780ti ist auch nicht leise, wenn diese auf Last fährt und ggf. übertaktet ist.
Damit eine GTX780ti ihren geringeren Stromverbrauch zur R9 290X amortisieren kann, müsste diese Karte in Anbetracht des Preisunterschiedes schon 3 Jahre verbaut sein bei 3-4 Std. täglich auf Volllast. Da es sich aber um Enthusiasten-Karten handelt, dürfte dieser Punkt eher unwahrscheinlich sein.
Die Übertaktungsfreudigkeit bringt dir höchstens in Benchmarks etwas. Wenn einer R9 290X die Luft ausgeht, dann wird es der GTX780ti nicht anders ergehen.
Und es gibt auch bei AMD Exemplare, die ihre 1400Mhz unter Wasser mit erhöhter Vcore schaffen.

Nvidias Kepler Architektur ist nun schon erheblich älter als die GCN2.0 Entwicklung von AMD in der 290(X).

Und als ob Maxwell so schnell im dedizierten Bereich landen wird. Laut den Spekulationen kommen im Q1 2014 höchstens die Notebook-Vertreter und dann wahrscheinlich auch noch kleinere Chips. Bis man 300mm2 Chips in Desktop-GPUs sehen wird, befinden wir uns bestimmt wieder im Q2-3 2014 und die großen Chips folgen dann evtl. Q4 2014 oder Q1 2015. Zumal Nvidia neben AMD nicht der einzige Abnehmer bei TSMC ist. Da gibt's auch noch andere große Abnehmer wie Apple.

Also abwarten und Tee trinken.

Nvidia ist zum jetzigen Zeitpunkt etwas vorn aber von Distanz - großer schon gar nicht - kann man nicht sprechen.
 
Zuletzt bearbeitet:
Wieso baut nvidia und amd überhaupt immer solche schlechten referenz kühler? Die sind dazu in der lage grafikkarten zu entwickeln und auf den markt zu bringen, aber scheitern dann immer wieder an einem guten kühler.. und kleinere firmen haben scheinbar keine probleme gute kühler zu entwickeln, auch zeitnah zu entwickeln.. woran liegt das? produziert amd und nvidia absichtlich schelchte kühler? Irgend ein grund muss es ja geben das man immer einen scheiss kühler auf die karte schraubt... Aber irgendwie auch schon ein wenig traurig da wollen die beiden firmen sich damit brüsten die schnellsten grafikkarten zu entwickeln.. aber bekommen es noch nichteinnmal gebacken einen anständigen kühler auf die karte zu schrauben...
 
Zurück
Oben