News Radeon R9 390X WCE mit 8 GB HBM und Wasserkühler

max_1234 schrieb:
Wenn eine GTX980 auf 250W kommt ist das effizient.
Wenn eine 290X auf 270W kommt ist das untragbar ;)

Typical nvidia kiddos.

mfg,
Max

Die GTX980 ist erheblich sparsamer und auch leiser als die 290x und auch deutlich simpler aufgebaut und das mit höherer Leistung. Weiß nicht wie man daran herumdiskutieren kann. Das ist einfach fakt.
 
Krautmaster:

Ich denke AMD verfährt ähnlich [wie nVidia und beschneidet DP Leistung] oder ist da schon was bekannt. Auch im HPC Markt macht HBM Gen2 und kleinere Fertigung mehr Sinn.

Warum sollten sie das tun? AMD hat keine gesonderten Einheiten für Double Precision. Das machen ganz einfach ausgedrückt zwei Shadereinheiten statt einer. Das ist auch der Grund, warum die Hawaii Fire Pro mit nur einem Chip die Quadro GK210 Dual Karten bei der DP Rechenleistung im der Pfeife raucht.
Wenn man es sich genau überlegt, ist das Design mit zusätzlichen Fumktionseinheiten, die entweder allein ackern oder Däumchen drehen unglaublich ineffizient.
Es gibt keinen Grund für AMD die DP Leistung zu beschneiden. Ganz und gar nicht - wenn zeitnah eine FirePro mit 8GB ECC HBM am Markt ist, kann das nVidias Tesla Lineup komplett zerstören und ungespitzt in den Boden rammen. Im HPC Markt (der wirklich klein ist) wird eigentlich kein Cuda verwendet sondern eigene Software auf Basis offener Lösungen verwendet. Falls gerade jemand einen neuen Supercomputer plant und baut gibts dann keinen einzigen Grund mehr, Teslas zu verwenden, wenn ein Chip von AMD existiert, der einfach mal 100% drauf legt. Schon die W9100 war unanständig schnell aber eine potentielle W oder gar S10100 oder 9200 (ich weiß nicht, wie das Namensschema da läuft) mit diesen 4000 Shadern, die 2000 DP Einheiten ergeben und die einen weit überlegenen Speicher mitbringen, dürften Cray und ähnliche auf der Stelle überzeugen, diese Wäre zu verbauen.
 
Penman schrieb:
Ich muss ja schon zugeben: Die Zahlen finde ich schon ziemlich hoch. Was mir trotzdem Sorge bereitet, ist der enorme Ausstoß von Abwärme. AMD bekommt weder ihre CPUs/APUs wieder unter Kontrolle noch halten sie mit Nvidia in Sachen GPUs mit.
AMD gibt die R9 290X schon mit >250W an während die Nvidia > 165W angibt. Das sind schon fast 100W Unterschied, die im Winter sicherlich super sind, aber im Sommer unnötig sind.

Aber Wasserkühlung ist schon eine feine Sache. Nicht unbedingt laut und trotzdem unglaublich gut.
Mal schauen, wann AMD das wieder in den Griff bekommt.

Du weißt dass AMD-CPUs sogar einfacher zu kühlen sind als Intels? Liegt u.a. daran, dass Intel die Heatspreader nicht verlötet... Und wo sind die APUs außer Kontrolle? Die CPUs sind kau wärmer als entsprechende Intels und die meiste Wärme kommt höchstwahrscheinlich eh aus der deutlich (!) stärkeren integrierten Grafikeinheit.

Und nVidia gibt den "durchschn. Verbrauch" an (der meist sogar überschritten wird, da die Referenzkarten niedrig takten und ein niedriges Powerlimit haben, bei Custom- & OC-Karten gehen da locker mal 50-100W mehr ) und AMD die TDP (d.h. die maximale Verlustleistung die man überhaupt über die Karte jagen kann - und die wird äußerst selten erreicht).
 
Als ob ich z.B. der Stromverbrauch interessiert :>

Ich persönlich kaufe die BESTE Karte zwischen 200-300€. Je nachdem was ich brauche, aber die höchste Leistung muss für das Geld her!
Entweder eine 200€ oder 300€ Karte!

Kack Fanboys, braucht keiner...
 
Amko schrieb:
Als ob ich z.B. der Stromverbrauch interessiert :>

Ich persönlich kaufe die BESTE Karte zwischen 200-300€. Je nachdem was ich brauche, aber die höchste Leistung muss für das Geld her!
Entweder eine 200€ oder 300€ Karte!

Richtig :D

Wobei ich wenn ich die Wahl habe lieber zu AMD greife, einfach weil mir die Firmenmentalität etwas mehr liegt. Sollte sich aber partout in meinem angepeilten Preisbereich nix tun, greife ich wenn es sein muss auch zu nV.
 
Daedal schrieb:
Und noch gar nicht mit eingerechnet welche Rabatte als Co-Entwickler vielleicht sogar dauerhaft genutzt werden können bei HBM. Vielleicht gibt es sogar Lizenzeinnahmen von Nvidia über FRAND, was deren zögern HBM zu nutzen zumindest mal logisch erscheinen ließe.

Das hat damit zu tun, das einer der Mitentwickler-Vorteile von AMD ist, dass sie 2 Jahre exklusiv die Technik benutzen dürfen.
Ich meine das irgendwo gelesen zu haben. Und für mich liest sich das so, in den 2 Jahren bekommt kein AMD-Konkurrent die Technik...
 
Novasun schrieb:
Das hat damit zu tun, das einer der Mitentwickler-Vorteile von AMD ist, dass sie 2 Jahre exklusiv die Technik benutzen dürfen.
Ich meine das irgendwo gelesen zu haben. Und für mich liest sich das so, in den 2 Jahren bekommt kein AMD-Konkurrent die Technik...
Nun, sollte das Stimmen, wird NV erstmal kein HBM bei Pascal verbauen können, oder nur gegen 'strafzahlung', also einen sehhr hohen Preis der dann zwischen Hynix, AMD und den anderen mitentwicklern aufgeteilt wird. Ich glaube nicht das NV sowas machen würde, damit würde man ja aufzeigen das die Konkurenz besser ist.
Da wäre es dann wahrscheindlicher das NV erstmal 9,12, 16 und 18 GB GDDDR5 RAM auf dem grossen Pascal verbaut, RAM, RAM, RAM, nix geht über RAM:D

psYcho-edgE schrieb:
Wer soll sie auch bekommen? nVidia will es eh erst mit Pascal einführen und Intel braucht es nicht. Matrox wird es sich wahscheinlich gar nicht leisten können.
Matrox könnte bereits mit Fiji auf HBM zuurückgreifen, denn die Kaufen Ihre Grafikkarten inzwischen von AMD ein:evillol:

Was APU's angeht: Ich könnte mir vorstellen das AMD 2-4GB Gen 1 HBM Speicher als L4 Cache auf die grösten APU's zwängt, dadurch dürfte die Leistung der Bandbreitenbegrenzten APU's massiv steigen.
Ich denke das das bis 100% mehr Leistung beim gleichen Chip drin liegen, verglichen mit einem modell das nur 16GB DDR3 1688 CL9 Dual-Ranked Dual-Channel memory hat ohne den HBM Cache.
 
Zuletzt bearbeitet:
Penman schrieb:
Ich muss ja schon zugeben: Die Zahlen finde ich schon ziemlich hoch. Was mir trotzdem Sorge bereitet, ist der enorme Ausstoß von Abwärme. AMD bekommt weder ihre CPUs/APUs wieder unter Kontrolle noch halten sie mit Nvidia in Sachen GPUs mit.
AMD gibt die R9 290X schon mit >250W an während die Nvidia > 165W angibt. Das sind schon fast 100W Unterschied, die im Winter sicherlich super sind, aber im Sommer unnötig sind.

Interessant, mein FX-8350 (TDP 125W) bleibt aber deutlich kühler als ein aktueller i5-4670K (TDP 84W) (siehe https://www.computerbase.de/artikel/prozessoren/intel-core-i5-4690k-test.2528/seite-3), auch meine MSI R9 290 Gaming hat kein Problem mit der Abwärme, die Karte geht selbst unter Volllast kaum über 80°C (inkl. Spawas).

Leistungsaufnahme =/ tatsächliche Abwärme. Irgendwann wirds auch im letzten Schädel mal drin sein. Da spielen viel mehr Faktoren mit rein.
 
Multithread schrieb:
Matrox könnte bereits mit Fiji auf HBM zuurückgreifen, denn die Kaufen Ihre Grafikkarten inzwischen von AMD ein:evillol:

Ich weiß, deshalb die Frage ob sie es sich überhaupt leisten können oder wollen ;) :D
 
@hrafnagaldr
naja der Haswell wird zwar Wärmer bezogen auf den Chip, die tatsächlich Abwärme ist aber geringer ^^

Selbst wenn eine R9 290X @ Luft bei 60°C und 300W läuft ändert die niedrigere Chiptemperatur nichts an der Abwärme. Gut an den Wakü Lösungen ist ja, dass die ABwärme meist zu 90% direkt das Case verlässt.
 
hrafnagaldr schrieb:
Interessant, mein FX-8350 (TDP 125W) bleibt aber deutlich kühler als ein aktueller i5-4670K (TDP 84W)

Aber die Abwärme, die in dein Gehäuse geleitet wird, ist trotzdem größer beim FX (und der 290) als beim i5 (und einer GTX 980).

Das hat nichts mit den Temperaturen des Chips zu tun.
 
Trotzdem sind sie insgesamt leichter/einfacher zu kühlen. Was denkt ihr was das Problem bei den AMD-Karten ist? Die Kühler schaffen es nicht die Abwärme schnell genug abzuleiten - gleiches gilt für Intels Heatspreader.
 
hat ja auch keiner das Gegenteil behauptet oder? Wenn die Wärme Abgabe auch beim Luftkühler optimiert wird... dann passt alles. Der R9 290X Stock Kühler da eben nicht besonders effizient. Wasserkühlungen sind gerade was das angeht bei GPUs um ein Vielfaches besser als Luft. Da halbiert sich schnell die Temperatur.

Dennoch muss auch AMD schauen dass der Standard Kühler @ Luft besser wird. Zumindest wenn es wieder gegen 250W geht.

@[F]L4SH


Merci, so tief bin ich beim HPC nicht drin. Kommt wohl auch auf das Szenario an und Wechseln wird man je nach dem wie viel Aufwand für die Optimierung in eine Architektur gesteckt wurde wohl kaum, zb von CUDA weg zu kommen kann ich mir recht schwer vorstellen. Aus mehr Rohleistung hat AMD selten wirklich Vorteile gehabt, auch im HPC Markt.
 
Zuletzt bearbeitet:
Ich habe Nachtspeicheröfen (Elektrische Heizung) und ein Elektroauto daheim ... meint ihr da interessiert mich ob ein Chip ein paar mehr Watt verbraucht als der andere ;)? Solange die Leistung stimmt ... die R9 390X WCE klingt auf alle Fälle interessant für mich. Ich brauche was das das Monster Star Citizen im Zaum hält :D.
 
psYcho-edgE schrieb:
Ich weiß, deshalb die Frage ob sie es sich überhaupt leisten können oder wollen ;) :D
Ich denke Matrox wird nur 30-60% von dem Zahlen für nen Grafikchip, als was wir als Endkunden Zahlen (je nach Chip).

Gut möglich das Tonga in erster Linie für Matrox und Apple da ist. Leider weiss ich von Matrox nichts bezüglich angekündigter Karten um das bestätigen zu können.
 
Krautmaster schrieb:
@hrafnagaldr
naja der Haswell wird zwar Wärmer bezogen auf den Chip, die tatsächlich Abwärme ist aber geringer ^^

Selbst wenn eine R9 290X @ Luft bei 60°C und 300W läuft ändert die niedrigere Chiptemperatur nichts an der Abwärme. Gut an den Wakü Lösungen ist ja, dass die ABwärme meist zu 90% direkt das Case verlässt.

Heißt aber dann nicht, dass die schwer zu kühlen sind, nur weil die Abwärme steigt. Sollte halt kein allzu kleines Gehäuse sein. Wobei meins dank 7x SATA Geräten eh schon nicht klein sein kann, das muss ich zugeben :D
Wenn nun ein Custom Kühler einer R9 290 ohne großartig aufzufallen bei max. 80°C hält, dann ist der Chip nicht schwer zu kühlen. Nur weil AMDs Referenzkühler das schlecht macht wird das immer als allg. Aussage zum Chip hergenommen.

Eine AiO Wakü beim Highendmodell sehe ich grundsätzlich positiv, im Referenztakt bleibt die vergleichsweise kühler, der Verbrauch sinkt und mit 2x 8pin + Wakü hat man viel Übertaktungspotential. Dass das überhaupt jmd. als negativen Punkte sieht kann ich nicht nachvollziehen. Der Kühler der R9 295X2 funktioniert ja auch sehr gut.
 
Krautmaster schrieb:
Wasserkühlungen sind gerade was das angeht bei GPUs um ein Vielfaches besser als Luft. Da halbiert sich schnell die Temperatur.
Ich finde das mit der WaKü durchaus interessant. Bisher habe ich mich immer vor WaKü gesträubt, aber vielleicht macht es gerade punktuell bei einer GPU Sinn, da es halt mit der heißeste Teil des Gaming PCs ist. Bin wirklich auf die richtigen Tests hinterher gespannt.



Die 8 GB HBM werden mittels Dual-Link-Interposing realisiert. Erst später soll die zweite HBM-Generation mit doppelter Datendichte und einer Bandbreite von über 1 TB/s diese Bauweise überflüssig machen.

Hm, ich bin da noch leicht vorsichtig, was die 390 angeht. Hieß es nicht, dass erst mit der nächsten Generation die ganzen Vorteile zum Tragen kommen, siehe z.B. neue Bauweise und auch was den Speicher angeht ?

Ich freu mich natürlich wenn's jetzt zur 390er schon 8GB HBM gibt, befürchte nur, dass es irgendwie übers Knie gebrochen ist, nach dem Motto "Hauptsache man bringt's schon mal raus".
Ähnlich wie die Hauptsache 4GB bei der 970er.

Hoffe das geht alles gut. ;-)

Ich denke aber die 400er bleibt weiterhin mein Ziel.
Neue Bauweise, weniger Stromverbrauch, ausgereifter HBM-Speicher und dann noch n Tacken mehr Leistung, als jetzt schon. :-)
 
psYcho-edgE schrieb:
[...]
Allerdings, ich sehe Fiji als technologischen Maßstab für die 400er :)

Ich sehe schon, wir werden wahrscheinlich 2016 / 2017 beide zur selben Zeit in Onlineshops stöbern und 14nm-Hardware von AMD zusammensuchen. :daumen:


@Ein ganz bisschen Off-Topic:
Wer sich an Wärmeentwicklung so sehr stört, der soll seine CPU / GPU entweder im Niedrigpreis- und Lüfterlos-Bereich suchen oder die physikalischen Gesetze der Thermodynamik ändern, meine Güte! :freak:
 
BookerDeWitt schrieb:
Falls(!) die Leaks stimmen, dann hat die 390X um die 10% Mehrverbrauch (30W) zu einer Titan X bei gleichzeitig höherer Leistung. Daraus kann man wohl eher sagen, dass beide Karten effizienztechnisch gleichauf liegen. An alle die jetzt schon über die Wasserkühlung herziehen:

Kennt ihr wirklich schon den Grund? HBM-Speicher liegt sehr nahe bei der GPU und muss mitgekühlt werden. So ein "Hotspot" ist prädestiniert für eine Wasser/Luft-Kühlung. Die abgegebene Verlustleistung muss nicht höher sein als die der Titan X und dennoch kommt eine Wasserkühlung mit einem kleinen heissen Bereich besser zurecht als eine Luftkühlung. Physikalisch gesehen müssen beide Lüfter bei annähernd gleichem Verbrauch dieselbe Wärme abführen. Allein deshalb wird die Titan X nicht auf einmal magischerweise deutlich leiser und kühler als die 390X! Aber natürlich wissen schon alle wie exorbitant laut der aufgeblasene, stromhungrige Brechstangenchip Fiji ist ;) Maxwells GM 200 hingegen wird die Ohren des Nutzer mit sanfter klassicher Musik berieseln, dabei auch noch Strom produzieren und das Raumklima auf Wohlfühltemperatur herunterkühlen. Aber nur wenn man kein Exemplar mit Kopfweh verursachendem, hochfrequenten Spulenfiepen erwischt :)

/sign... sehr schön gesprochen :schluck:
 
Zurück
Oben