News Sonntagsfrage: Wohin geht die Reise beim Stromverbrauch?

SavageSkull schrieb:
PV ist in so einer Größenordnung momentan witzlos.
Das einzig sinnvolle ist eine Kleinstanlage unter 1000€ invest, die deinen eigenen Strombedarf um 25-33% senkt. Alles drüber ist ökonomisch momentan sinnlos.
Kenne einige, die sich jetzt fragen, was sie jetzt mit der großen Anlage machen, nachdem der gute Verkaufspreis jetzt nach 10 Jahren abgelaufen ist. Verdient haben die an der großen Anlage kaum etwas und jetzt kann man die nur noch laufen lassen, bis etwas kaputt geht.
Naja, ganz so ist es zum Glück nicht. Mit einer Anlage unter 1000€ meinst du sicherlich ein BKW. Wenn man das verbotener Weise nicht gerade mit einem Ferraris-Zähler nutzt, sind da auch nur 10-15% Verbrauch abdeckbar. Alles über einem BKW ist weder ökonomisch sinnlos und noch weniger unrentabel. Es sei denn man fällt auf die Firmen rein, die einen Hausspeicher aufquatschen wollen und dir eine kleine Anlage Anhand deines Stromverbrauchs aufschwatzen. Wenn ein BEV ins Spiel kommt ist das sogar eine richtige Geldmaschine. Da lache ich über die Spritpreise.
Mit einem BKW habe ich vor Jahren angefangen. Nachdem der Zählerwechsel kam, wurde in eine große Anlage investiert. Warum sollte ich Strom verschenken. Das macht man mit einem 600W System nämlich, wenn man einen digitalen Zähler hat. Man nutzt niemals die ca 500-800kWh im Jahr selbst. Und wenn du 600W Standby-Verbrauch hast, dann hast du auch deutlich mehr Gesamtstromverbrauch. Dann kommst du so oder so nicht auf 25-33%
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wichelmanni und Tsu
da ich vor etwas über einem Jahr alles neugeholt hab wird alles mitgetragen was das Netzteil mitmacht 💁🏼‍♂️
 
NightSun schrieb:
An sich ist es normal, dass jede neue Generation die mehr Leistung bringt
auch mehr Strom verbraucht.

Geht man mal ein paar Computerbase Tests zurück, sieht man, dass z.B. die GTX 580 weniger verbraucht hat als die GTX480.
Die GTX680 hat dann nochmal weniger verbraucht als die GTX580.
Und die GTX780 hat 3W mehr verbraucht als die GTX680(Gesamtes Testsystem wohlgemerkt).
Die GTX980 war dann nochmal deutlich sparsamer als die 780 mit knapp 40W weniger im Gesamtsystem.

Die GTX1080 war dann wieder etwas höher, aber auch nur 10W fürs Gesamtsystem, dafür dass sie 60% schneller war als die GTX980.

Die 2080 ist nun die erste GPU in dieser Aufzählung, die tatsächlich für ~40% Mehrleistung auf die 1080 auch ~30% mehr verbraucht hat.
 
  • Gefällt mir
Reaktionen: spcqike, janer77 und Raptor85
NightSun schrieb:
An sich ist es normal, dass jede neue Generation die mehr Leistung bringt
auch mehr Strom verbraucht.
Das galt bis zu PIV/Bulldozer und Thermi als Automatismus. Seit derem Nachfolger nicht mehr.
 
Taxxor schrieb:
Die 2080 ist nun die erste GPU in dieser Aufzählung, die tatsächlich für ~40% Mehrleistung auf die 1080 auch ~30% mehr verbraucht hat.
Die brachte ja auch die Möglichkeit von Raytracing mit, was wiederum ja auch versorgt werden will. Wobei du hier vermutlich die reine Rohleistung meinst.
Die Entwicklung/Anforderungen bei den Spielen gehen ja auch nicht gemütlich linear, sondern es werden mittlerweile immer schneller leistungsstärkere GPUs verlangt (sofern die Regler beim neusten AAA-Titel auch weit nach recht geschoben werden sollen).

Ich kann mich noch an ein Statement erinnern, wo es hieß, dass Raytracing so dermaßen rechen- und speicherintensiv wäre, dass es noch sehr lange dauern würde, bis man das auch nur ansatzweise gut am heimischen PC in Spielen umsetzen könnte.
Ich weiß nicht mehr genau, wann ich das so gelesen oder in einem Video oder einer Doku gesehen habe. Dürfte aber vielleicht so in der zweiten Hälfte der 2000er-Jahre gewesen sein.
 
Raptor85 schrieb:
Die brachte ja auch die Möglichkeit von Raytracing mit, was wiederum ja auch versorgt werden will.
Was aber kein Argument ist, wenn der Stromverbrauch ohne Nutzung von Raytracing verglichen wurde^^

Wenn sie ohne RT 40% schneller wäre und dabei gleich viel verbraucht hätte, dafür aber mit RT, was die 1080 nicht kann (bzw wenn man es erlaubt hätte dann 10% der Leistung der 2080 gehabt hätte), dann 30% mehr als diese verbraucht, wäre es ja okay gewesen.
 
  • Gefällt mir
Reaktionen: Raptor85
Taxxor schrieb:
Wenn sie ohne RT 40% schneller wäre und dabei gleich viel verbraucht hätte, dafür aber mit RT, was die 1080 nicht kann, dann 30% mehr als diese verbraucht, wäre es ja okay gewesen.
Ich hab mich nochmal etwas korrigiert. ;)
Nicht umsonst gilt ja Pascal als sehr energieeffiziente Architektur. Danach ist man irgendwie nicht gut abgebogen...
 
bensel32 schrieb:
sind da auch nur 10-15% Eigenverbrauch abdeckbar. Alles über einem BKW ist weder ökonomisch sinnlos und noch weniger unrentabel.
Das macht man mit einem 600W System nämlich, wenn man einen digitalen Zähler hat. Man nutzt niemals die ca 500-800kWh im Jahr selbst. Und wenn du 600W Standby-Verbrauch hast, dann hast du auch deutlich mehr Gesamtstromverbrauch. Dann kommst du so oder so nicht auf 25-33%.
10-15% Eigenverbrauch bei einem BKW?
Und 25-33% Eigenverbrauch mit einer 600VA Balkonanlage bei einem Standby-Verbrauch von 600W?

Google Ergebnis Eigenverbrauch PV schrieb:
Eigenverbrauch bedeutet, den von der Photovoltaikanlage erzeugten Strom selbst zu verbrauchen. Das heißt, der Strom wird von Ihrer Anlage auf dem Dach direkt zu den Verbrauchern im Haus geleitet.
Dementsprechend musst du rechnen, wieviel von der PV-Anlage selbst verbraucht wird und wie viel Überschuss eingespeist wird.
Und da hast du bei einer 600VA Anlage und 600W Standby Verbrauch immer 100% Eigenverbrauch.
Das Ding ist hochrentabel.
Und auch bei einem normalen BKW hast du bei günstigem Einkauf, guter Positionierung und entsprechendem Verbrauchsverhalten (Homeoffice!) eine verdammt hohe Rentabilität. Unter 50% Eigenverbrauch musst du da erstmal schaffen.
So rentabel kann eine große PV mit 8,16ct/kWh Einspeisevergütung gar nicht sein.
Die rechnet sich zwar allein mit der Einspeisevergütung auch irgendwann, aber das dauert deutlich länger.

Was du da ausrechnest, ist der Anteil an PV-Eigenverbrauch am Gesamtverbrauch. Der ist für die Rentabilität völlig egal. Wichtig ist nur, wieviel PV-Strom du nicht einspeist sondern direkt selbst verbrauchst.
 
n8mahr schrieb:
sinken, weil mehr multi-chip lösungen.
mehrere chips, die in ihrem optimalen bereich arbeiten können, dürften effektiver sein und besser skalieren, als ein vollkommen überzüchteter einzelchip.

Glaubst du wirklich, dass diese mehreren Chips in Zukunft jeweils in einem optimaleren bereich arbeiten werden?
Etwas vielleicht, aber es müsste ja jeder Chip weniger als 150W verbrauchen dürfen, um insgesamt mit dem verbrauch zu sinken.
Multi-Chip ist das Tor zu mehr möglichem Verbrauch für die Hersteller, denn einen Einzelchip kann man schon alleine wegen der Größe nicht so viel verbrauchen lassen, weil man die Abwärme ja auch irgendwie weg bekommen muss.
Die Größe des Einzelchips zu verdoppeln ist fertigungsbedingt sehr unwirschaftlich wegen der zu hohen Wahrscheinlichkeit, dass zu viele Defekte auf einem Chip sind.

Statt der 520mm² der 6800XT bei 300W kann man mit Multi-Chip nun eben z.B. 2x400mm² bei jeweils 200W machen und noch nen I/O-Die mit 100mm² der nochmal 50W zieht und hat dann 450W für die komplette GPU.
 
Zuletzt bearbeitet:
Hovac schrieb:
@GokuSS4
Die SoC Spannung kann man je nach AM4 Brett auch manuell festsetzen. Das macht im Idle schnell 10 W Unterschied. Ich habe derzeit 0,94 V für IF 1800 MHz. Stock sind für IF 1600 MHz bei mir z.B. schon über 1 V angesetzt.
1641153202597.png


du hast nur 0,94V bei IF 1800MHz?
das habe ich bei niemandem gesehen bisher
 
Darknesss schrieb:
10-15% Eigenverbrauch bei einem BKW?
Sorry, Eigenverbrauch war missverständlich ausgedrückt und wurde von mir korrigiert. Ich meinte natürlich, wie der von mir Zitierte, die Ersparnis zum Gesamtverbrauch. In dem Fall meinte ich mit Eigenverbrauch den Gesamtstrom den er verbraucht. Hätte man an dem Wort "abdeckbar" aber auch erkennen können.
Und klar hat man bei 600W Erzeugung und 600W Standby-Verbrauch auch 100% Eigenverbrauch. Allerdings keine 25-33% Ersparnis vom Gesamtverbrauch. 600W Standby heißt min. 14,4kWh Verbrauch pro Tag! Das sind schon über 5200kWh im Jahr. Dann müsste dein 600VA BKW um nur die 25% Ersparnis zu erreichen ja 1300kWh im Jahr produzieren. Das würde die kleine Anlage nicht einmal in Südeuropa bringen.
Gut man könnte 1050W Modulleistung an dem Growatt MIC 600TL-X hängen. Aber selbst da kommen in DE keine 1300kWh rüber.

Aber gut, genug Off topic
 
Zuletzt bearbeitet:
Taxxor schrieb:
Glaubst du wirklich, dass diese mehreren Chips in Zukunft jeweils in einem optimaleren bereich arbeiten werden?
Etwas vielleicht, aber es müsste ja jeder Chip weniger als 150W verbrauchen dürfen, um insgesamt mit dem verbrauch zu sinken.
why not?

In der Praxis wirds ja meist net so heiss gegessen, wie´s gekocht wird.(x)
gerade die 144fps-messung war interessant

(x) und davon ist ja nur ein Teil vom GPU-Core aber mind. 1/4...1/3 von anderen Komponenten (bei der 6800), SOC+Vram+VRM-verluste+DP+Lüfter, .... Die man ja net zwangsweise verdoppelt bzgl. zukünftiger Modelle.
(bei mir ist allerdings SOC+Vram UVtet... siehe Anhang)

Vllt. hat ja die Redaktion auch mal noch den Verbrauch von der CPU@144fps parat!?
(da geht garantiert auch bei einigen CPU´s noch etwas UVen)
 

Anhänge

  • Watt@144fps.JPG
    Watt@144fps.JPG
    118,5 KB · Aufrufe: 207
  • GPU-Core anteilig.png
    GPU-Core anteilig.png
    54,1 KB · Aufrufe: 208
  • 9400F@UV.png
    9400F@UV.png
    70,9 KB · Aufrufe: 206
Zuletzt bearbeitet:
GerryB schrieb:
why not?

In der Praxis wirds ja meist net so heiss gegessen, wie´s gekocht wird.
gerade die 144fps-messung war interessant
Das ist dann, was die Nutzer eventuell daraus machen und was auch ohne Multi-Chip heute schon gemacht wird.
Aber es ging ja darum, was mit den neuen Karten vom Hersteller ab Werk vorgesehen an Verbrauch möglich sein wird.
Ob eine 8900XT oder GTX5090Ti in 3-4 Jahren dann mit MCM unter 300W TDP landen wird, die man dann auch als Nutzer nur über Umwege überschreiten kann.
 
Wie immer gilt auch bei Technik hinsichtlich Stromverbrauch: alles kann nichts muss. Jedem steht frei die Hardware so zu betreiben wie er möchte, es geht weit hoch mit dem maximalen Verbrauch im High end, doch genauso werden in Zukunft auch kleine Karten mit 35-75-100-150W usw erscheinen, welche mehr Leistung den je in dieser Leistungsklasse Liefern werden.

Dann wird neben der Leistung eben auch der Verbrauch zukünftig ein Kriterium. Da ist aber auch weiterhin für jeden was dabei. Ich sehe das ganz entspannt
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
PieczonyKurczak schrieb:
Es wird Zeit dass die EU Obergrenzen für den Stromverbrauch bei Endkundenhardware einführt die auch alle paar Jahre immer strenger werden.
Da macht die EU bereits, allerdings Cleverer als der Stammtisch, die EU limitiert verbrauch der in ihren augen nichts odrr nur mini mal etwas bringt. z.B. Stand-by Verbrauch, Warmhaltezeit von Kaffemaschinen etc, bei den Staubsagern gab es aber ausschrei... weil die leute dort nicht nach Saugleistung sondern verbrauch bewerten wie gut das Produkt ist... (ähnlich bei Autos mit den PS...)
 
Hovac schrieb:
Die SoC Spannung kann man je nach AM4 Brett auch manuell festsetzen. Das macht im Idle schnell 10 W Unterschied. Ich habe derzeit 0,94 V für IF 1800 MHz. Stock sind für IF 1600 MHz bei mir z.B. schon über 1 V angesetzt.
Was ich garantiert nicht auf einem PC brauche, der mir auch im Homeoffice dient, ist der 1-in-6000 Glitch bei Arbeitsspeicher oder Berechnung. Das geht vielleicht, wenn man Buchautor ist oder der PC nur für Musik und Gaming läuft.

Halbleiter altern, und was vielleicht im ersten Jahr geht, dass glitcht dir danach immer häufiger. Toleranz schmilzt, UV musst rückgängig machen. Mein PC ist mir für solches Skirting aber kein Bastel-Rechner.
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: incurable
Der Stromverbrauch KANN noch steigen. Aber nur bis etwa 1000-1600W. Weil z.b. die Amis in der Regel nur 15A bei 115V haben. Bei 1600W muss man schon eine zweite Leitung für die Monitore legen XD.

Aber die Effizienz wird trotzdem mit jeder Generation steigen. Z.b. Meine Strix 1080Ti zog bis 290W. Die 3080 zieht bis rund 320W, hat aber 70% mehr Leistung.
Wenn eine 4090 450W zieht, aber wieder 70% mehr Leistung als eine 3090 hat, liegt die Effizienz immernoch höher als eine 3090.

Je nach Gebrauch einer Karte MUSS sie ja nicht zwangläufig alles an Strom ziehen was sie kann. Spielt jemand in 1080p mit einer 3090, glaube ich kaum das die 350W zieht. In 1440p kommt meine 3090 eigentlich nicht über 300W. In 4k schon.

Wenn jetzt 8k kein Mainstream wird, sollten GPUs eigentlich kaum je über 500W rutschen...(ich meine nicht MAX Watt sondern tatsächliche Nutzung)
Bei 8k ist hier die Frage, braucht man das? Wieviel ppi will man haben? Mein 48" OLED (kleiner gibt es keinen Gaming OLED) hat 91ppi und mir reicht es. 8k bräuchte ich nicht mehr.
Ergänzung ()

Tsu schrieb:
Was ich garantiert nicht auf einem PC brauche, der mir auch im Homeoffice dient, ist der 1-in-6000 Glitch bei Arbeitsspeicher oder Berechnung. Das geht vielleicht, wenn man Buchautor ist oder der PC nur für Musik und Gaming da ist.

Halbleiter altern, und was vielleicht im ersten Jahr geht, dass glitcht dir danach immer häufiger. Toleranz schmilzt, UV musst rückgängig machen. Mein PC ist mir für solcher Skirting aber nicht mehr ein Bastelrechner.
Mein 7700k lief 3 Jahre auf denselben Einstellungen: 4,8Ghz bei 1.25V. Temperatur bleib auch gleich.
Dabei zog er auch nur 2/3 der TDP, trotz Overclock/Undervolt. Hardware Crashes gab es keine.

Meinen aktuellen Ryzen 5950X habe ich auf 4,2Ghz allcore bei 1.1V gelocked, damit der sparender und zu heiß arbeitet. Stock ging er zwar auf 2 Kernen auf 5Ghz, aber dabei auch 20-25°C wärmer als ein 4,2Ghz allcore Boost, weil er den Boost mit 1.5V erzwang. Und der Boost lief auch oft beim Surfen. Da hat der dann 80+W versemmelt. Ohne Boost und mit 4,2Ghz Lock ist er unter 40W beim Surfen/Filme schauen.

Die 3080/90FEs die ich hatte/habe waren da ein wenig frikelig, da gab es hin und wieder Spiele crashes, bis ich die Mhz/Volt ein wenig angehoben hatte. Läuft nun auf 1800Mhz/0,8V Stabil. Aber hier muss ich sagen, jede GPU ist anders.
 
Zuletzt bearbeitet:
Beefsupreme schrieb:
Kommt dann bald die nächste Strafsteuer auf stromhungrige Grafikkarten?
Ausnahme für Bitcoin-Mining Farmen, dass sind ja Gewerbetreibende.
 
  • Gefällt mir
Reaktionen: Beefsupreme
Gufur schrieb:
Unser Grundversorger ist hier mit guten 25ct/kwh aufgestellt.
Mein 100% Ökostrom ist sogar ab dem 01.01. von 28ct/kwh auf ebenfalls ca. 25ct/kwh gefallen.

Ich lese auch überall von den Preissteigerungen und Kündigungen, kann es selber aber nicht nachvollziehen.

Habe zum 01.11.21 sowohl den Strom- als auch Gasanbieter gewechselt.
Strom 25,7 Cent pro kWh
Gas 4,8 Cent pro kWh

Die Verbrauchserhöhung bei GPUs finde ich primär Zwecks Kühlung und Lautstärke blöd, aber war zu erwarten.

Wir kommen immer näher an die Limits der aktuellen Art Prozessoren zu bauen und damit werden auch die Steigerungen immer kleiner.
Um die kleineren Leistungssprünge zu kompensieren jagt man halt nun den Verbrauch hoch.

Aber auch das hat seine Limits und wird nicht ewig so weiter gehen.
 
Zurück
Oben