Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD bestätigt HBM-Grafikkarte mit 300 Watt
- Ersteller Wolfgang
- Erstellt am
- Zur News: AMD bestätigt HBM-Grafikkarte mit 300 Watt
Erstmal muss sich das bewahrheiten. Dann verweise ich mal auf die 970/980 und die Hersteller mit ihren unterschiedlichen PowerTargets uswNoemSis schrieb:300W für eine Grafikkarte? Das ist einfach zu viel.
Davon mal abgesehen ist der prozentuale Anteil einer solchen GPU unter Volllast in deiner Rechnung deines Energielieferanten ein absoluter Witz.
Gleichzeitg wird sich (nicht unbedingt auf dich bezogen) darüber aufgeregt das die EU den Wattwahn bei Staubsaugern reglementiert / reglementieren möchte. Da interessiert Effizienz widerum kein Schwein! Selbes bei Warmwasser oder der Heizung, was die richtigen Kostenfresser sind.
Aber wenn dann eine GPU 100W mehr als die Konkurrenz unter Volllast verbraucht, da wird dann gerechnet....
Ebenso muss es auch das Killer bla blub XY Mainboard sein. Das dies aber 20W im Idle mehr verbraucht als ein sparsameres Board, hat auch keine Priorität.
Nur mal so Gedaneknanstoß...
@bu.llet
Es ist nicht ausschließlich der Speicher, sondern insbesondere Speicher + Speichercontroller. Letzterer frisst nicht nur ordentlich an Transistorenfläche, sondern auch eben Energie. Wo wir bei dem Problem von Krautmaster sind.
HBM soll ja den Platzbedarf des SI enorm verringern, und daher auch mit dazu beitragen viel Energie zu sparen.
Und das könnte ja unter Umständen auch bei bei BR und DH Betrieb positiv beeinflussen.
Zuletzt bearbeitet:
H
hrafnagaldr
Gast
Herdware schrieb:Zum einen das, und zum anderen sehe ich nicht, warum man bei einem absoluten High-End-Modell nicht auch die PCIe-Spezifikationen ausreizen sollte. Bei meinem Spielerechner nehme ich jedes bisschen mehr Leistung gerne mit. Statt also z.B. eine High-End-Karte mit nur 200W TDP würde ich eine ebenso effiziente mit 300W, die dafür auch 50% schneller ist, vorziehen.
Richtig, Energieeffizienz kann meinetwegen gerne der mittleren bis oberen Mittelklasse vorbehalten sein. Bei den Highend-Modellen sollen die Hersteller in Lastsituationen an Leistung rausholen, was die Spezifikationen hergeben.
Nur im Idle und bei Bluray & Co. müssen gute Energiesparmechanismen greifen. Aber nicht beim Zocken in 4K oder mit DSR/VSR.
Zuletzt bearbeitet:
iBankai
Lieutenant
- Registriert
- Juni 2010
- Beiträge
- 992
Man darf gespannt sein. Ich freue mich schon. Und das sage ich als Langjähriger "grüner"
@Herdware
Absolut Richtig! High-End ist eben High-End und extrem in meist allen Belangen.
Fehlen hier nur noch die Leute, die sich bei einem 500PS Benziner über den Spritverbrauch beschweren....
@Herdware
Absolut Richtig! High-End ist eben High-End und extrem in meist allen Belangen.
Fehlen hier nur noch die Leute, die sich bei einem 500PS Benziner über den Spritverbrauch beschweren....
Zuletzt bearbeitet:
giessl
Lieutenant
- Registriert
- März 2010
- Beiträge
- 838
bu.llet schrieb:Wie viel verbrät denn der GDDR5-Speicher bei 4GB Bestückung? Ich kann mir nicht vorstellen dass 4GB GDDR5 überhaupt 50W ziehen.
Wenn ich das hier (Seite 2) nicht falsch verstehe, sind so 50-60W tatsächlich die Größenordnung in denen sich 4GB GDDR5 bewegen. Überrascht mich ehrlich auch ein wenig.
Wenn sich die ~40% Ersparnis bewahrheiten, wäre das mit 20W pro 4GB schon eine Hausnummer.
Was die Energieeffizienz angeht, verwundert es mich ein wenig, dass die 300W schon jetzt als No-Go verschrien werden. Zur Effizienz gehören ja immer zwei.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
man kann bei der genannten karte min 80% auf die R9 290X draufschlagen. Es dürfte der erste Fertigungswechsel seit langem sein, *2 Shader wären bis zu 100% mehr Leistung bei vermutlich 8 GB GDDR5. Gut möglich dass auch AMD erstmal mit kleineren Karten bei 20nm einsteigt. Nvidia mag zuvor bereits TITAN 2 bringen mit G200 - aber zu exorbitantem Preis. Die Frage ist, wie schnell AMD dann mitzieht und das eigene Monster launched. Da man dann wieder Gas rausnehmen müsste bis zum erneuten Fertigungswechsel kann es gut sein, dass man den Vollausbau der jeweiligen Serie erst spät sehen wird.
psYcho-edgE
Admiral
- Registriert
- Apr. 2013
- Beiträge
- 7.600
Hoffentlich hat der Chip mal ne ordentliche Fläche so dass die deppigen Kühlerhersteller diesmal auch ordentlich damit arbeiten
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
28 nm fällt der Zuwachs kleiner aus, sofern man noch eine 28nm Karte bringt (bis 550mm² kann man ja gut gehen, Package Dichte erhöhen...). Ob das AMD macht... fraglich. Die vermuteten Daten mit etwa einer Verdopplung von Hawaii sind nur schwer in 28nm zu stemmen. 20nm wäre da angemessen.
H
hrafnagaldr
Gast
NoemSis schrieb:Naja, wenn sie fast doppelt so viel wie eine GTX 980 verbraucht und nur vllt. 15% schneller ist, sagt mir das, dass es Energieverschwendung ist.
Die 165W TDP die nVidia für das Referenzmodell angibt sollte man nicht so ernst nehmen. Es werden eh fast nur OC-Modelle gekauft, die liegen im Mittel und vor allem bei Spitzenlasten sehr deutlich drüber:
http://www.tomshardware.de/nvidia-g...up-vergleichstest,testberichte-241658-20.html
Die Peak-Werte werden aber nur sehr kurzzeitig erreicht, die sind lediglich dahingehend interessant, dass man dafür hochwertige Netzteile benötigt.
Von daher erst mal abwarten. und 300W TDP für eine Highend Karte halte ich nicht für sonderlich dramatisch.
trockenerToast
Lt. Commander
- Registriert
- Aug. 2010
- Beiträge
- 1.349
psYcho-edgE schrieb:Hoffentlich hat der Chip mal ne ordentliche Fläche so dass die deppigen Kühlerhersteller diesmal auch ordentlich damit arbeiten
Du meinst, damit es z.b. auch ASUS schafft, die Heatpipes gar auf den Chip zu bringen, nicht wie jetzt größtenteils nebendran? Aber selbiges hoffe ich auch, der Stromverbrauch bzw. Abwärme ist ja egal, solange sie gut abtransportiert werden kann.
Sehe es genauso wie viele hier. 300W unter Last ist völlig in Ordnung, wenn sie auch ordentlich Leistung bringt. Viel wichtiger ist ja der Desktop/BluRay Verbrauch, der ja trotzdem gering ausfallen kann.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
ZuseZ3 schrieb:@NoemSis: Seit wann verbraucht die 980 er 150 Watt??
https://www.computerbase.de/2014-11/geforce-gtx-980-test-vergleich-round-up/5/
das ist der Gesamtverbrauch. Du kannst etwa die Differenz ausrechnen, kommste bei der Referenz auf sagen wir 175W zwischen idle und Last , * etwa 0,9 wegen Netzteil Effizienz bist du bei <160W und andere Komponenten wie CPU brauchen bei Gaming Last auch mehr. Also kommen 150W schon etwa hin.
Gilt aber nur für die Referenzkarte.
Lutscher
Lt. Commander
- Registriert
- Okt. 2005
- Beiträge
- 1.351
Einige scheinen es nicht zu verstehen, bei 300W geht es nicht nur um den Stromverbrauch, sondern auch darum das man so eine Karte auch entsprechend kühlen muss. Meine 290X heizt mein Büro pro Stunde um 1-1,5 Grad auf wenn ich spiele. Das finde ich schon sehr krass.
Zucksi
Lt. Commander
- Registriert
- Juni 2008
- Beiträge
- 1.830
Dr.Pawel schrieb:Solange der Stromhunger bei Blueray und mehreren Monitoren gesenkt wurde kann das Teil von mir aus seine 300 W unter Last saugen das juckt mich dann nicht die Bohne solange die gebotene Performance dann stimmt! HBM geht ja auf jeden Fall mal in die richtige Richtung.
Mfg
PaWel
Genau das...Vorallem wenn ich bei Youtube knapp 150-200 Watt auf der Verbrauchsanzeige bei der 290X sehe....
- Registriert
- Juni 2014
- Beiträge
- 4.583
Mal gucken ob bei dieser erwarteten Monsterkarte (Nvidia zieht sicherlich auch dann wieder nach) endlich mal einen großen Sprung bei den CPU´s gemacht wird.
Sonst wird es bald überall Geheule geben, das die CPU der Bottleneck ist und man 1000 € für nen Achtkerner in die Hand nehmen muss, damit die neuen High-End Grafikkarten auch gefüttert werden kann!
Hier drücke ich AMD ganz fest die Daumen, das der "ZEN" nen ganz großer Wurf wird.
Dann muss sich Intel auch mal endlich wieder anstrengen und nicht nur 10% Mehrleistung von Generation zu Generation anbieten^^
Sonst wird es bald überall Geheule geben, das die CPU der Bottleneck ist und man 1000 € für nen Achtkerner in die Hand nehmen muss, damit die neuen High-End Grafikkarten auch gefüttert werden kann!
Hier drücke ich AMD ganz fest die Daumen, das der "ZEN" nen ganz großer Wurf wird.
Dann muss sich Intel auch mal endlich wieder anstrengen und nicht nur 10% Mehrleistung von Generation zu Generation anbieten^^
Ähnliche Themen
- Antworten
- 454
- Aufrufe
- 60.979