News AMD bestätigt HBM-Grafikkarte mit 300 Watt

jomaster schrieb:
Wenn man sich plant ne Karte für 3 Jahre und mehr zu kaufen, ein Hardcore Gamer aka 8-12 Std pro Tag ist, oder ein Ökofreak der auf den PC angewissen ist, dann ist der Stromverbrauch eines der wesentlichen Kaufargumente. Also die Konkurrenz nicht schlecht reden, sondern ihren Errungenschaften ruhig mal eingestehen.

Ein Ökofreak, der auf die nen PC angewiesen ist hat aber dann keine Highendkarten drin. Jmd. der täglich 8-12 Stunden zocken kann hat entweder genug Geld um nicht arbeiten zu müssen oder er bekommts gezahlt.
Nochmal: Verbrauch mag bei Mittelklasse bis zur oberen Mittelklasse vllt. relevant sein. Im Highendbereich will ich aber Karten am PCIe Limit, die dort möglichst viel rausholen.
Eine GTX980 für 500€+ würde ich als 300W Karte kaufen, nicht aber mit einer TDP von 165W. Aus dem ganz einfachen Grund, dass ich zwar für das Geld eine leicht zu kühlende und sparsame Karte bekomme, die Leistung aber für das Geld sehr bescheiden ist (200€ weniger für eine R9 290X und man verliert 10% Leistung, in 4K ist die R9 290x evtl. sogar schneller).

Von daher bei Highend Karten der falsche Ansatz. Auch wenns die aktuell schnellste Single GPU ist, für den Preis bietet die GTX980 eine lächerliche Performance. Da hätte man die TDP lieber um 100W erhöht und die Karte aufgebohrt. Aber dann kann nVidia ja keine 1000€ Titan mehr bringen...
 
Zuletzt bearbeitet: (so viele Tippfehler :D)
300 Watt sind garnicht sooo ungewöhnlich für eine Karte, nur für ein referenzmodell ist das viel. Selbst viele GTX780tis im Customdesign haben im Bios 300Watt als TDP grenze hinterlegt! Das ist meist bei GK110 Karten, die um 1Ghz takten der Fall.

Meine GTX780ti Matrix die ich auf 1350mhz übertaktet habe, zieht bis zu 375 Watt aus dem Netzteil!


Ich schätze mal, AMD wird den Hawaii chip wie bei der 285 überarbeitet haben um die Effizienz etwas zu steigern und dazu mehr Shader verbauen. Taktmäßig sehe ich immernoch 1Ghz. Könnte eine spannende Karte werden. Es wird ziemlich sicher eine 28nm Karte, wo man nicht die Künstliche Handbremse zieht. Wie gesagt, jede vollausgebaute GK110 Karte von Nvidia hätte auch einen 300 Watt TDP, wenn man sie nicht mit diesem Kindergartentakt verkaufen würde. So ziemlich jeder 780ti / Titan black erreicht weit über 1000mhz.

Ich freu mich auf die Karte, wenn das Leistungsplus zu meiner 780ti@1350/2050 Mhz ausreichend hoch ist, schlage ich sehr gerne zu... könnte ja fast noch Stromsparen ^^

Wer sich über den Stromverbrauch aufregt, es ist eine Teure Oberklasse Karte mit viel leistung. Wer Ferrari, Lamborghini oder AMG fährt, weint auch nicht über die Benzinkosten. Die leistung kommt halt aus der zugeführten Energie. Die Physik lässt sich nicht betrügen. Wemm 300 Watt zuviel sind, der muss so eine Karte ja auch nicht kaufen.
 
So. Aus Langeweile rechne ich auch mal vor.

Werte (Tomshardware) für Gaming der:
Gigabyte R9 290X Windforce 3X OC -- ~255W
Gigabyte GTX 970 Gaming G1-- ~190W

Differenz: 65W.


Durchschnittliche Nutzungsdauer: 4h/Tag unter Gaming-Last.

65W * 4h = 260Wh (pro Tag) --> 94,9 kWh (pro Jahr)

Durchschnittlicher Strompreis 2014: 29ct/kWh

Ergebnis: eine Ersparnis von 27,52€ pro Jahr.

Die 290X kostet ab 320€ aufwärts, die 970 kostet 350€ aufwärts. Das heißt die 970 lohnt sich ab etwa einem Jahr.

Sollte man auf 5% Leistung der 290X zur 290 verzichten können, kriegt man letztere für 280€ aufwärts und damit dauert es über drei Jahre bis sich die 970 lohnt. (Und da rechne ich noch nicht mal die 30W weniger, die die 290 zur 290X braucht, ein!) Irgendwie doch nicht so krass der Unterschied im Stromverbrauch, oder?

Jetzt habt ihr alle aber genug gerechnet. Das Stromspar-Argument zieht eigentlich gar nicht. Grade bei den Prozentbereichen in denen sich die Leistungen dieser Karten im Gegensatz zum Kaufpreis bewegen.
 
Sind eh noch andere Parameter zu bedenken. Ich wollte zB unbedingt Civ BE kaufen. Erst als AMD das dem never Settle Bundle hinzufügte, hab ich die R9 290 geholt. Selbst trotz Steamsale hat das Spiel noch min. 1 Jahr Stromkosten wett gemacht (im Startpreis sogar zwei Jahre). Und Alien isolation hab ich auch noch :D
Bei Highend-Karten will ich wie gesagt nur wissen, wer fürs Geld die meiste Leistung bringt. Mehr nicht.
 
Was meist übersehen wird: Sehr vielen Leuten ist die Stromrechnung sogar schnurzpiepegal, ABER was viel entscheidender ist, eine hohe Leistungsaufnahme von 300W bedeutet in jedem Fall eine hohe Abwärme und damit verbunden hohe Anforderungen an die Kühlung, was wiederum nichts Gutes im Hinblick auf die Lautstärke eines Systems mit entsprechend verbauter Hardware schließen lässt.

Viele haben auch trotz Headset nicht unbedingt Lust dazu, wenn sich ihr PC wie ein Staubsauger anhört... lautstarke Unmutsbekundungen eventuell anderer anwesender Haushaltsmitglieder wie Lebensabschnittsgefährtinnen und Ehefrauen noch gar nicht einberechnet.
Für viele Enthusiasten dürften die potentiellen 300W insbesondere deshalb abschreckend wirken und nicht wegen zwo fuffzig mehr Strom im Monat.

Aber warten wir mal ab... es gibt ja schon lange Gerüchte, dass AMD an einer ausgefeilten wasserbasierten Kühllösung tüftelt und zumindest die Faktoren Lärm und Wärme dann nicht so gravierend sein werden wie es sich bei 300W zunächst anhört. Sie haben im Grunde ja auch kaum eine andere Wahl. Wenn man sich ansieht wie sehr die 290X bereits an der absoluten Schmerzgrenze (Wärme/Krach) operiert, dann muss eine neue Karte, die mutmaßlich im selben 28nm Prozess gefertigt wird, eine Sonderbehandlung im Hinblick auf die Kühllösung erfahren. Sonst kauft das ja außer ein paar Hardcorefreaks mit Ohropax keiner...
 
@Moriendor - DAS steht auf einem anderen Blatt und ist durchaus nachvollziehbar. Aber das hartnäckige Gerücht der hohen Stromrechnung geht mir auf den Zeiger. Außerdem sollen die Kühlerhersteller einfach mal ihren Arsch hoch kriegen. Seit Jahren wird einfach der Standard-Referenzkühler draufgeklatscht und hinterher beschwert man sich bei AMD was die so ne hohe Wärmeabgabe haben. Haben die nicht. Nur haben sie kleinere Chips was das ganze halt etwas aufwändiger macht in der Kühlung. AMD hat ja inzwischen wohl keinen Bock mehr und macht halt eine AiO drauf, die auch in ganz normalen Lautstärkebereichen bleibt :)

Die guten Customdesigns der 290(X) sind übrigens wunderbar leise. Nur hat der Referenzkühler den kompletten Ruf von Hawaii versaut, das will AMD jetzt wohl ändern ;)
 
Zuletzt bearbeitet:
Moriendor schrieb:
Viele haben auch trotz Headset nicht unbedingt Lust dazu, wenn sich ihr PC wie ein Staubsauger anhört... lautstarke Unmutsbekundungen eventuell anderer anwesender Haushaltsmitglieder wie Lebensabschnittsgefährtinnen und Ehefrauen noch gar nicht einberechnet.

Sorry aber eine so laute Grafikkarte hätte ich noch nie gehört. Oder reden wir hier von alten Servern? Meine R9 290 aus der MSI gaming Serie ist auch unter Volllast nicht störend laut. Da hat mich mein neuer Tacx Blue Motion Pro Heimtrainer nun ganz andere Lautstärkelevels gelehrt.

Abgesehen davon stelle ich meine Spielerechner nicht in Räume, in denen andere Leute verkehren. Das wäre imo sehr unsozial, wenn ich da immer nur phys. anwesend wäre. :D
Ins Wohnzimmer stellt man Konsolen oder lautstärketechnisch angepasste Rechner.
 
Zuletzt bearbeitet:
Bei einer 20nm Fertigung könnten sie niemals im Leben 300W TDP erreichen.
Außer die Architektur ist schlechter geworden als vorher...

Ja genau denn wie wir genau wissen, ist bisher jedes Mal mit der Einführung einer neuen Fertigung die Leistungsaufnahme gesunken.
Wer erinnert sich nicht mit Schrecken an die 180nm Chips, die 4000 Watt verbraucht haben?
 
psYcho-edgE schrieb:
Außerdem sollen die Kühlerhersteller einfach mal ihren Arsch hoch kriegen. Seit Jahren wird einfach der Standard-Referenzkühler draufgeklatscht und hinterher beschwert man sich bei AMD was die so ne hohe Wärmeabgabe haben. Haben die nicht. Nur haben sie kleinere Chips was das ganze halt etwas aufwändiger macht in der Kühlung. AMD hat ja inzwischen wohl keinen Bock mehr und macht halt eine AiO drauf, die auch in ganz normalen Lautstärkebereichen bleibt :)

Also ich würde da nicht unbedingt den Kühlerherstellern die Schuld geben. Die wollen schließlich auch was verdienen, während AMD/nVidia, respektive die Hersteller der Karten, es natürlich immer so billig wie möglich haben wollen, da bei jeder neuen Generation bis zum letzten Tag noch auf die allerletzte Nachkommastelle des letzten Cents Profit hin optimiert wird.
Jedenfalls funktioniert dieser Interessenkonflikt in unserer Marktwirtschaft bekanntlich nicht. Entweder die Hersteller nehmen etwas mehr Geld in die Hand und kaufen vernünftige Kühllösungen ein oder man gibt sich mit dem billigen Referenzmüll zufrieden und hat dafür Preisvorteile auf der Angebotsseite. AMD hat sich bei der 290X Referenz offenbar für die Preisvorteile entschieden.
Aber da können ja die Kühlerhersteller nix dafür. Wie man an zahlreichen Customdesign sieht, könnten die deutlich bessere Lösungen liefern. Letztlich wie immer alles eine Geldfrage.
 
Na ja, der AMD Referenzkühler dürfte eigentlich nicht merklich teurer/billiger sein als der von nvidia ^^ Aber hätten sie da (wie sie es anscheinend jetzt mit der 300er machen) mehr rein gesteckt, wäre der Ruf sicher besser.

Warum ist es AMDs Schuld wenn selbst die Customhersteller größtenteils verkacken? Schau dir ASUS an, das kann nicht sein, dass die Samples erhalten, um die Kühler anzupassen und trotzdem schauen anderthalb Heatpipes über den Chip hinaus. :freak:
 
Ich rieche ein bisschen Centurio..Wieviel die 390er wohl verbrauchen wird?

Und die 390x2 könnte dann die 1000W knacken. Wäre erfreulich schön, damit würde man Akzente setzen.
 
Interessant zu sehen, wie sich ZotaC.T 4 oder fünfmal hintereinander im selben Thread meldet um seine "Vermutungen" bezüglich der "gewaltigen Leistungsaufnahme" vorzubringen. Ein Schelm wer (besonders bei diesem Namen) dabei böses denkt ;)
 
Mmh ich hätte noch nicht mal was dagegen wen AMD und NV 375W Single Gpus im Portfolio hätten.
So lange da noch deutlich mehr Leistung rüber kommt.
 
Zuletzt bearbeitet:
Ich frage mich ob alle R9 3.. Modelle HBM bekommen, ich vermute nicht.
Das könnte durchaus bedeuten das die 390(X) bedeutend effizienter als alle anderen AMD Modelle sein wird und damit eine R9 380X so viel verbraucht wie eine 390X. (250-300W?)

Die R9 280 braucht übrigens etwas mehr weil es ein alter highend Chip mit neuer Verpackung ist.
 
BookerDeWitt schrieb:
Interessant zu sehen, wie sich ZotaC.T 4 oder fünfmal hintereinander im selben Thread meldet um seine "Vermutungen" bezüglich der "gewaltigen Leistungsaufnahme" vorzubringen. Ein Schelm wer (besonders bei diesem Namen) dabei böses denkt ;)
Wenn man sich mal seine Beiträge durchliest die er zuletzt verfasst hat, dann sollte einem auffallen das er sehr gerne "Vermutungen" äußert und für welchen Hersteller sein Fanboy herzchen schlägt.

Einfach auf Igno ;)
 
BookerDeWitt schrieb:
Interessant zu sehen, wie sich ZotaC.T 4 oder fünfmal hintereinander im selben Thread meldet um seine "Vermutungen" bezüglich der "gewaltigen Leistungsaufnahme" vorzubringen. Ein Schelm wer (besonders bei diesem Namen) dabei böses denkt ;)

Ich glaub ich hab nun drei Leute auf der Ignorierliste, die Zotac im Namen haben... Ich nenne mich jetzt dann xxSapphirexx oder so und schreib nur noch spekulativen anti-nVidia Kram. :D
 
Und damit kannst du dann anfangen, wobei ist ja eher handfest und nicht spekulativ :lol:
http://www.pcgameshardware.de/Asset...cials/Test-Benchmarks-Radeon-Geforce-1147608/
(Übrigens ein sehr gutes Beispiel für die generell besser optimierten Nvidia Treiber und den generell besseren CPU-Overhead... Achja, und der generell schnelleren 970/980 ggü 290... Konnte ich mir jetzt nicht verkneifen... Edit: CB hat die AC Benches nicht mit max Einstellungen gebencht, sondern "Reflection Rendering Frequency" auf niedrig gestellt. PCGH hat alles auf Max gebencht. "Reflection Rendering Frequency" ist aber besonders auf Nvidia-Karten sehr kostspielig, da kann mann sowas auch schon mal ruhig ausschalten :))

300W = 80fps würde ich nehmen.

Meine Vermutung aber: Das ding wird nie im Leben 300W verbrauchen. Vermute real 200-250W mit +20-30% Leistungssteigerung ggü. einer 980.
Selbst wenn mann eine 290X nimmt, dort GDDR5 gegen HBM tauscht (bspw. ca. 60W gespart) und 512 SteamProzis hinzusetzt (+256 SP bei 290 -> 290X = +30W u. +7-15% Leistung) sollte man bei gleicher Verlustleistung von 250W allein etwa 20-30% mehr Performance durch 3328 SP erhalten. Wenn da noch an der Speicherkompression gearbeitet wurde bzw. ohnehin mehr SI zur Verfügung steht, dazu noch Effizienzoptimierungen usw. damit mehr Performance aus Rohleistung kommt, wird das ganze überhaupt nicht so unrealistisch (Zumal allein die Rohleistung der 290X die der 980 Übertrifft)
 
Zuletzt bearbeitet:
berkeley schrieb:
Und damit kannst du dann anfangen, wobei ist ja eher handfest und nicht spekulativ :lol:
http://www.pcgameshardware.de/Asset...cials/Test-Benchmarks-Radeon-Geforce-1147608/
(Übrigens ein sehr gutes Beispiel für die generell besser optimierten Nvidia Treiber und den generell besseren CPU-Overhead... Achja, und der generell schnelleren 970/980 ggü 290... Konnte ich mir jetzt nicht verkneifen... Edit: CB hat die AC Benches nicht mit max Einstellungen gebencht, sondern "Reflection Rendering Frequency" auf niedrig gestellt. PCGH hat alles auf Max gebencht. "Reflection Rendering Frequency" ist aber besonders auf Nvidia-Karten sehr kostspielig, da kann mann sowas auch schon mal ruhig ausschalten :))

Hab mich schon gewundert, wo der Unterschied zwischen dem und dem CB Test herkommt. Ein Kumpel von mir spielt das schon von Beginn an mit ner 7950 Boost und es läuft bei ihm einwandfrei.
Aktuell interessiert mich eher die 3,5GB VRAM Geschichte bei den GTX 970ern, bin gespannt was dabei raus kommt.
Aber AC war kürzlich im Sale, da hätte ich mir das echt holen sollen. Zumindest kurz genießen, dass meine R9 290 schneller als ne GTX 980 ist :D
ZUmindest mit Reflection Rendering Frequency auf hoch.
 
Zuletzt bearbeitet:
Zurück
Oben