News Radeon RX Vega: Einordnung der Spekulationen zur Leistungsaufnahme

Hallo zusammen,

@ Schm1ddi

Nehmen wir an sie brauch "plötzlich" nur "200Watt" - was dann? Und wenn 300 Watt? Und wenn 500 Watt?

Der Stromverbrauch bei ähnlicher Performance ist für mich ein ganz gewaltiges Argument. Bei mir kommt es immer auf das Spiel an. Wenn mich ein Spiel fesselt, kann es vorkommen, daß ich 5 Stunden am Rechner sitze. Und da ich bevorzugt Rollenpiele absolviere, kann das dann Wochenlang der Fall sein.

Ich habe das nicht nur für meinen Fall durchgerechnet, sondern sogar Überwacht, was z. b. 3 Stunden bei mir am Zähler ausmachen unter Last. 3 Stunden Spielen unter Last macht bei meiner Mühle derzeit 0,4-0,5 Kwh aus. Bei einem Bruttopreis von 0,32 Cent pro Kwh.

Wenn ich nur mal eine GTX 1060 nehme Respektive einer RX 580 - ich halte seit einiger Zeit verstärkt nach eine guten 1060 Ausschau -, welche in ähnlichen Performanceregionen liegen, dann merke ich das Gewaltig, daß so eine 580 je nach Modell sich bis zu 100 Watt mehr genehmigt. Und von der Abwärme etc. nicht zu Reden. Was ja geflissentlich in der Regel unter den Tisch Fallen gelassen wird.

Klar geht es hier um eine Karte, die noch nicht auf dem Markt ist. Aber schau dir mal die letzten Modelle von AMD an. Ich würde mich mehr als Freuen, wenn AMD da mal wieder wenigstens annähernd auf Augenhöhe käme, wie es bei den CPU`s glücklicherweise wieder der Fall ist. Denn dann könnte Nvidia nicht mehr Schalten und Walten wie sie wollen, was seit 2 Jahren aber leider der Fall ist.

Nimm nur mal, was die RX 480 / 580 Modelle so Ziehen an Strom. Dann vergegenwärtige dir mal, wo die kommende / kommenden Karten angesiedelt sind, dann fällt der Schluß nicht schwer dahingehend, daß es in Regionen um die 250 - 300 Watt geht. Bedenke, einige Modelle der 480 / 580 genehmigen sich schon 200 - 210 Watt. Meine Befürchtung ist, der kommende Vega-Chip wird genauso bis ins Exzeß geprügelt, wie es bei 480 und noch mehr der 580 der Fall ist. Und nur, um annähernd auf Augenhöhe zu den GTX 1080 / 1080 Ti Chips zu kommen. Von mehr ist eigentlich gar nicht mal mehr die Rede. Was mich eigentlich noch viel mehr bestürzt.

Kurz zurück zum Stromverbrauch. Wie gesagt, mir ist der Stromverbrauch enorm wichtig und ich merke das absolut. Ebenfalls zahle ich meinen Strom selbst. Ist mir nicht so verständlich, daß AMD es beim Stromverbrauch nicht endlich mal schafft, genügsamer zu sein. Bei den CPU`s haben sie es ja jetzt auch hingekriegt.

So long...
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Meine Befürchtung ist, der kommende Vega-Chip wird genauso bis ins Exzeß geprügelt, wie es bei 480 und noch mehr der 580 der Fall ist.

Halte ich für eher unwahrscheinlich, da die 580 einfach nur das letzte bisschen Leistung auf kosten des Verbrauchs aus Polaris holen sollte, weil ansonsten einfach nicht mehr ging. Vega hingegen ist komplett neu, da wird eventuell auch zu späterer Zeit noch was hochgezüchtetes kommen.
 
Das sehe ich ähnlich. Alle wollen ihre GPU und CPU immer übertakten, so als sei das unbedingt notwendig und überhaupt sinnvoll. Eine Spezifikation gibt es nicht umsonst.
Es ist meiner Meinung nach allenfalls sinnvoll, zu übertakten ohne die Spannung zu erhöhen oder eben direkt zu Undervolten. Ansonsten erschafft man unweigerlich ein stromfressendes Monster.
 
Hallo zusammen,

@ Schm1ddi

Willst AMD - dann MUSSTE auch "TUNEN" WOLLEN. Willste nix machen - vl später bereuen = kauf Nvidia.

Hä? Wieso bitte soll man die Nvidia Karten denn nicht "Tunen" können? Was du jedenfalls geradezu implizieren versuchst. Gerade Pascal zeigt das Gegenteil. Die Dinger lassen sich sehr gut "Tunen". Und die meisten Modelle lassen dies mit relativ Moderater Steigerung des Stromverbrauchs zu, im Gegensatz zu den allermeisten derzeitigen AMD GPU-Modellen, welche schon am Anschlag laufen, also im Gegensatz zu den Polaris Modellen. Und das wird erfahrungsgemäß mit Vega kaum anders sein.

@ Taxxor

Halte ich für eher unwahrscheinlich, da die 580 einfach nur das letzte bisschen Leistung auf kosten des Verbrauchs aus Polaris holen sollte, weil ansonsten einfach nicht mehr ging. Vega hingegen ist komplett neu, da wird eventuell auch zu späterer Zeit noch was hochgezüchtetes kommen.

Was bitte glaubst du denn, was Polaris war? Polaris war ebenfalls "komplett" Neu. Polaris ließ leider keine sonderlich hohen Taktzahlen zu. Deshalb wurden sie bis an den Rand geprügelt, egal ob 480 oder 580. Bei Vega sehe ich es so, daß man auf Teufel komm raus im Hochpreissegment an die GTX 1080 / 1080 Ti rankommen muss. Und was bisher bekannt ist, läßt leider nichts gutes Ahnen. Leider. Wie gesagt, mir wäre es mehr als lieb, wenn da AMD ein Äquivalent zu den Neuen CPU`s hinbekommen würde im GPU-Bereich.

So long...
 
Auch wenn der Tonfall von ihm nicht gut war, so hat er im Kern doch recht. Wem 10 € mehr auf der Stromrechnung wehtun, der sollte sich eigentlich auch keine Vega-GPU für 500 € aufwärts kaufen.

Wem der Stromverbrauch wichtig ist, der sollte eh bis ans Maximum undervolten und bis zum Sweetspot der Energieeffizienz untertakten.
 
Hallo zusammen,

@ Leli196

Schau mal seinen Beitrag genau nach. Auf was er sich genau bezieht. Hier geht es um Unterschiede von 500 Respektive 300 bzw. 200 Watt. Er wollte klar darlegen, daß ihm das was ausmacht. Und er hat dargelegt, wieso. Dabei hat er niemals geäußert, eine Vega Karte zu Kaufen, das ist bzw. war überhaupt nicht sein Punkt. Nicht mehr, nicht weniger. Dies absolut anständig und Sachlich dargelegt.

Und im übrigen, es geht hier nicht um "Rechthaberei". Mein Eindruck, hier fühlen sich einige Fanboys wieder auf den Schlips getreten.

So long...
 
Zuletzt bearbeitet:
Wer sagt denn hier ginge es um Rechthaberei? Ich dachte nur hier geht es um Vega :freak:
Natürlich hat er nie geäußert eine Vega-GPU zu kaufen. Wie auch, wenn die Energieeffizienz nicht bekannt ist und ihm das aber wichtig ist. Dann muss er ja warten bis es Tests gibt.

Und trotzdem bleibt es wie bereits gesagt: Wem 10 € wehtun, der ist bei RX Vega falsch. Ich kaufe mir ja auch keinen Ferrari, wenn mir die Spritkosten zu hoch sind.
 
Haha und auf einmal kommt einem die Diskussionskuktur des Epic Thread als geradezu englisch vor, die feine Art. Hier entbrennt eine (nicht selten hohle) Schlammschlacht die eig nur eines zeigt - Vega bliebt das mit Abstand spannendste Release 2017 da die Grünen zu lange keine Konkurrenz oben raus hatten.
 
Bezieht sich das teilweise auf mich? Ich möchte wirklich niemandem auf die Füße treten und erst recht keine 'Schlammschlacht' starten.
 
Luxmanl525 schrieb:
Hallo zusammen,

@ Schm1ddi



Hä? Wieso bitte soll man die Nvidia Karten denn nicht "Tunen" können? Was du jedenfalls geradezu implizieren versuchst. Gerade Pascal zeigt das Gegenteil. Die Dinger lassen sich sehr gut "Tunen". Und die meisten Modelle lassen dies mit relativ Moderater Steigerung des Stromverbrauchs zu, im Gegensatz zu den allermeisten derzeitigen AMD GPU-Modellen, welche schon am Anschlag laufen, also im Gegensatz zu den Polaris Modellen. Und das wird erfahrungsgemäß mit Vega kaum anders sein.

@ Taxxor


..

Pascal läuft auch schon deutlich über dem Sweetspot mit für die meisten Karten unnötig hoher Spannung. Ich kann bei meiner 1070ftw mit der Keule mal noch knapp 110mhz gewinnen, wobei der Verbrauch dann massiv zulegt, bei nicht nennenswert gestiegener Performance. Der Sweetspot liegt bei ca 0.9v bei etwas über 1900mhz
, der Zuwachs von 1750mhz bei 0.8v korreliert mit dem Verbrauchsanstieg, aber schon der Sprung auf 2000mhz bei 0.975v, lässt den Verbrauch überproportional steigen, während die Performance kaum zulegt.
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
.
Ich habe das nicht nur für meinen Fall durchgerechnet, sondern sogar Überwacht, was z. b. 3 Stunden bei mir am Zähler ausmachen unter Last. 3 Stunden Spielen unter Last macht bei meiner Mühle derzeit 0,4-0,5 Kwh aus. Bei einem Bruttopreis von 0,32 Cent pro Kwh. .

Statt mit apothekerhaftem Eifer bei deinem PC auf Krampf ein paar Watt zu sparen, solltest du lieber einen vernünftigen Stromtatif abschließen.

Ein Wechsel nimmt nicht mehr Zeit in Anspruch als du für das verfassen von diesem langen Beitrag benötigt hast.

Mal davon abgesehen das hier wohl die meisten ihre CPU übertakten und somit eine deutlich höhere Energieaufnahme in Kauf nehmen. Das dann unbedingt bei der Grafikkarte, welche zum Spielen nochmals deutlich wichtiger ist, wiederum gespart wird, ist schon etwas schizophren ;)
 
Hoffentlich bleiben die Gerüchte auch Gerüchte. Ein Grafikkarten "Bulldozer" würde ich AMD nicht wünschen, vorallem nachdem Vega ohnehin so extrem spät erscheint.
 
Das mit der Leistungsaufnahme ist mir auch nicht so ganz verständlich. Habt ihr euch das mal durchgerechnet? Im Grunde rechnet sich nämlich der Aufpreis eines Kühlschrankes (24/7!!) von A+++ gegen A++ in dessen Lebensdauer selten bis nie, und das selbst bei unseren Strompreisen.

Kostet eine AMD GraKa 50€ weniger bei 100W mehr Stromverbrauch, rechnet sich das bei 2,5h/Tag auch erst nach 2 Jahren. Und 2,5h/Tag schaff nicht mal ich, das ist also ganz weit weg von einem Durchschnittsgamer. Diskussionen um Leistungsaufnahme sehe ich daher eher entspannt bzgl. Preis. Für mich ist da Lautstärke das größere Argument, da die 100W mehr Wärme auch wieder abgeführt werden müssen.
 
eax1990 schrieb:
Auf den Stromverbrauch bin ich btw. aber auch mal gespannt, den Ausdruck "Ökonazis" fand ich irgendwie witzig :D, ich weiß nicht - also ich finds schon geil statt 95€ Stromrechnung nur noch 40€ zu zahlen - also glaub wenn man selber zahlt merkt mans erst.
Ich habe wirklich alles umgeschmissen vor 2 Jahren, alle AMD Kisten/Hardware entsorgt und das spiegelt sich dann eben in der Rechnung wieder, zumindest bei mir macht das nen gravierenden Unterschied was in den PCs verbaut ist.

du zahlst mit deiner tollen neuen/besseren Technik immer noch Forderungen? :freak:

Ich habe trotz 2 PC's mit AMD Grakas immer Guthaben, obwohl ich nur 40-45€ Abschlag in den letzten 3 Jahren zahle. Wie geht das denn bitte, das kann doch nicht bei einer durstigen R9 285 und Fury möglich sein?

Bei mir spiegelt sich eher der Verbrauch von Waschmaschine, Ofen, Mikrowelle usw. in der Rechnung nieder. Der PC kann auch ganz einfach sparen, in dem man ein FPS-Limit setzt, was ich bei Nvidia genauso wie bei AMD aktiv nutze.

zum Thema: da eine 1080-1080ti auch keine wirklichen Sparwunder sind, besonders bei OC-Nutzung, ist das mir persönlich nicht so wichtig. Meine 285 wird entweder von einer 1080 oder die dazu passenden Vega ersetzt. Dann kann mein Netzteil endlich vollkommen ausgelastet werden, das erhöht wenigstens die Effizienz :)
 
Zuletzt bearbeitet:
tek9 schrieb:
Statt mit apothekerhaftem Eifer bei deinem PC auf Krampf ein paar Watt zu sparen, solltest du lieber einen vernünftigen Stromtatif abschließen. )

genau das gleiche habe ich mir auch gedacht:p
der bursche zahlt doppelt so viel wie ich pro kwh
 
Wo bekommt man das kw/h für 16ct brutto inkl aller Abgaben?

Ich wechsle sofort von meinem 24ct tarif!
 
Anstatt einen günstigeren Stromtarif zu nehmen sollte man vielleicht mal darüber nachdenken den Strom aus erneuerbaren Energien zu beziehen anstatt aus Kohle- und Atomkraft.
Das kostet bei uns nur 1-2 Cent mehr pro kWh.
 
Warum sollte ich für etwas extra zahlen was sowieso passiert? Für die 2 Cent pro KWh, immerhin 100€ im Jahr, nehme ich dann lieber Emissionsfreie Kernenergie in Kauf.
 
Ich bin im Öko Tarif und zahle glaub rund 29ct/kwh, wenn ich mich recht entsinne.
 
Zurück
Oben