News AMD bestätigt HBM-Grafikkarte mit 300 Watt

Das die kommenden Karten die 980 schlägt sollte ja kein Thema sein. Wichtiger ist P/L. Wenn AMD 500€ verlangen wird ist mir das trotzdem zu teuer, egal was für Leistung rauskommt.
 
Solange die Karte ordentlich gekühlt wird interessiert mich der Stromverbrauch auch herzlich wenig. Leistung und Preis müssen wieder stimmen, so wie es in der Vergangenheit häufig auch war.
 
NoemSis schrieb:
300W für eine Grafikkarte? Das ist einfach zu viel.
Erstmal muss sich das bewahrheiten. Dann verweise ich mal auf die 970/980 und die Hersteller mit ihren unterschiedlichen PowerTargets usw

Davon mal abgesehen ist der prozentuale Anteil einer solchen GPU unter Volllast in deiner Rechnung deines Energielieferanten ein absoluter Witz.
Gleichzeitg wird sich (nicht unbedingt auf dich bezogen) darüber aufgeregt das die EU den Wattwahn bei Staubsaugern reglementiert / reglementieren möchte. Da interessiert Effizienz widerum kein Schwein! Selbes bei Warmwasser oder der Heizung, was die richtigen Kostenfresser sind.
Aber wenn dann eine GPU 100W mehr als die Konkurrenz unter Volllast verbraucht, da wird dann gerechnet.... :freak:
Ebenso muss es auch das Killer bla blub XY Mainboard sein. Das dies aber 20W im Idle mehr verbraucht als ein sparsameres Board, hat auch keine Priorität.

Nur mal so Gedaneknanstoß...

@bu.llet
Es ist nicht ausschließlich der Speicher, sondern insbesondere Speicher + Speichercontroller. Letzterer frisst nicht nur ordentlich an Transistorenfläche, sondern auch eben Energie. Wo wir bei dem Problem von Krautmaster sind.
HBM soll ja den Platzbedarf des SI enorm verringern, und daher auch mit dazu beitragen viel Energie zu sparen.
Und das könnte ja unter Umständen auch bei bei BR und DH Betrieb positiv beeinflussen.
 
Zuletzt bearbeitet:
Herdware schrieb:
Zum einen das, und zum anderen sehe ich nicht, warum man bei einem absoluten High-End-Modell nicht auch die PCIe-Spezifikationen ausreizen sollte. Bei meinem Spielerechner nehme ich jedes bisschen mehr Leistung gerne mit. Statt also z.B. eine High-End-Karte mit nur 200W TDP würde ich eine ebenso effiziente mit 300W, die dafür auch 50% schneller ist, vorziehen.

Richtig, Energieeffizienz kann meinetwegen gerne der mittleren bis oberen Mittelklasse vorbehalten sein. Bei den Highend-Modellen sollen die Hersteller in Lastsituationen an Leistung rausholen, was die Spezifikationen hergeben.
Nur im Idle und bei Bluray & Co. müssen gute Energiesparmechanismen greifen. Aber nicht beim Zocken in 4K oder mit DSR/VSR.
 
Zuletzt bearbeitet:
Man darf gespannt sein. Ich freue mich schon. Und das sage ich als Langjähriger "grüner" :)

@Herdware

Absolut Richtig! High-End ist eben High-End und extrem in meist allen Belangen.

Fehlen hier nur noch die Leute, die sich bei einem 500PS Benziner über den Spritverbrauch beschweren.... :D
 
Zuletzt bearbeitet:
bu.llet schrieb:
Wie viel verbrät denn der GDDR5-Speicher bei 4GB Bestückung? Ich kann mir nicht vorstellen dass 4GB GDDR5 überhaupt 50W ziehen.

Wenn ich das hier (Seite 2) nicht falsch verstehe, sind so 50-60W tatsächlich die Größenordnung in denen sich 4GB GDDR5 bewegen. Überrascht mich ehrlich auch ein wenig.

Wenn sich die ~40% Ersparnis bewahrheiten, wäre das mit 20W pro 4GB schon eine Hausnummer.

Was die Energieeffizienz angeht, verwundert es mich ein wenig, dass die 300W schon jetzt als No-Go verschrien werden. Zur Effizienz gehören ja immer zwei. :p
 
Zu was wären wohl die APUs in der Lage, wenn auf dem Mainboard HBM verlötet wäre ^^ ... naja ich freue mich auf die nächste Generation :) Mit HBM endlich mal wieder ein ordentlicher Technologie-Sprung
 
Naja, wenn sie fast doppelt so viel wie eine GTX 980 verbraucht und nur vllt. 15% schneller ist, sagt mir das, dass es Energieverschwendung ist.
 
man kann bei der genannten karte min 80% auf die R9 290X draufschlagen. Es dürfte der erste Fertigungswechsel seit langem sein, *2 Shader wären bis zu 100% mehr Leistung bei vermutlich 8 GB GDDR5. Gut möglich dass auch AMD erstmal mit kleineren Karten bei 20nm einsteigt. Nvidia mag zuvor bereits TITAN 2 bringen mit G200 - aber zu exorbitantem Preis. Die Frage ist, wie schnell AMD dann mitzieht und das eigene Monster launched. Da man dann wieder Gas rausnehmen müsste bis zum erneuten Fertigungswechsel kann es gut sein, dass man den Vollausbau der jeweiligen Serie erst spät sehen wird.
 
AMD wird noch gar nicht bei 20nm einsteigen aber vermutlich zu 28nm bei Globalfoundries wechseln, sodass hier schonmal an der Fertigung an sich viel gemacht werden kann. Der Xbox One SoC wird ja auch schon bei GloFo gefertigt
 
300 Watt bei mehr Leistung zur 290 (x) klingt doch erst mal okay,200 W wär auch unrealistisch.
Wenn die es zum Q3 2015 schaffen und 2016 neue FX's kommen könnte es sehr interessant werden...
*Freu*:)
 
Edit: Hier stand müll
 
Zuletzt bearbeitet:
28 nm fällt der Zuwachs kleiner aus, sofern man noch eine 28nm Karte bringt (bis 550mm² kann man ja gut gehen, Package Dichte erhöhen...). Ob das AMD macht... fraglich. Die vermuteten Daten mit etwa einer Verdopplung von Hawaii sind nur schwer in 28nm zu stemmen. 20nm wäre da angemessen.
 
NoemSis schrieb:
Naja, wenn sie fast doppelt so viel wie eine GTX 980 verbraucht und nur vllt. 15% schneller ist, sagt mir das, dass es Energieverschwendung ist.

Die 165W TDP die nVidia für das Referenzmodell angibt sollte man nicht so ernst nehmen. Es werden eh fast nur OC-Modelle gekauft, die liegen im Mittel und vor allem bei Spitzenlasten sehr deutlich drüber:
http://www.tomshardware.de/nvidia-g...up-vergleichstest,testberichte-241658-20.html
Die Peak-Werte werden aber nur sehr kurzzeitig erreicht, die sind lediglich dahingehend interessant, dass man dafür hochwertige Netzteile benötigt.

Von daher erst mal abwarten. und 300W TDP für eine Highend Karte halte ich nicht für sonderlich dramatisch.
 
psYcho-edgE schrieb:
Hoffentlich hat der Chip mal ne ordentliche Fläche so dass die deppigen Kühlerhersteller diesmal auch ordentlich damit arbeiten :p :o

Du meinst, damit es z.b. auch ASUS schafft, die Heatpipes gar auf den Chip zu bringen, nicht wie jetzt größtenteils nebendran? :D Aber selbiges hoffe ich auch, der Stromverbrauch bzw. Abwärme ist ja egal, solange sie gut abtransportiert werden kann.

Sehe es genauso wie viele hier. 300W unter Last ist völlig in Ordnung, wenn sie auch ordentlich Leistung bringt. Viel wichtiger ist ja der Desktop/BluRay Verbrauch, der ja trotzdem gering ausfallen kann.
 
ZuseZ3 schrieb:

das ist der Gesamtverbrauch. Du kannst etwa die Differenz ausrechnen, kommste bei der Referenz auf sagen wir 175W zwischen idle und Last , * etwa 0,9 wegen Netzteil Effizienz bist du bei <160W und andere Komponenten wie CPU brauchen bei Gaming Last auch mehr. Also kommen 150W schon etwa hin.

Gilt aber nur für die Referenzkarte.
 
Einige scheinen es nicht zu verstehen, bei 300W geht es nicht nur um den Stromverbrauch, sondern auch darum das man so eine Karte auch entsprechend kühlen muss. Meine 290X heizt mein Büro pro Stunde um 1-1,5 Grad auf wenn ich spiele. Das finde ich schon sehr krass.:D
 
Dr.Pawel schrieb:
Solange der Stromhunger bei Blueray und mehreren Monitoren gesenkt wurde kann das Teil von mir aus seine 300 W unter Last saugen das juckt mich dann nicht die Bohne solange die gebotene Performance dann stimmt! HBM geht ja auf jeden Fall mal in die richtige Richtung.

Mfg
PaWel

Genau das...Vorallem wenn ich bei Youtube knapp 150-200 Watt auf der Verbrauchsanzeige bei der 290X sehe....
 
Mal gucken ob bei dieser erwarteten Monsterkarte (Nvidia zieht sicherlich auch dann wieder nach) endlich mal einen großen Sprung bei den CPU´s gemacht wird.

Sonst wird es bald überall Geheule geben, das die CPU der Bottleneck ist und man 1000 € für nen Achtkerner in die Hand nehmen muss, damit die neuen High-End Grafikkarten auch gefüttert werden kann!

Hier drücke ich AMD ganz fest die Daumen, das der "ZEN" nen ganz großer Wurf wird.
Dann muss sich Intel auch mal endlich wieder anstrengen und nicht nur 10% Mehrleistung von Generation zu Generation anbieten^^
 
Zurück
Oben