News Im Test vor 15 Jahren: Als der Gaming-PC noch 200 Watt verbraucht hat

R00tMaster schrieb:
Und wenn du den OC von der CPU und Graka rausnimmst, dann landest du wieder bei ~200Watt.
Eher nicht, gegebenes Ziel: Spiel bei max. Details @60FPS. Das läuft dann bei mir auf Anschlag, zumindest die GPU. Würde ich als Ziel 200Watt veranschlagen geht das nur, wenn ich an dem Spiel etwas verändere, also Details/Auflösung runter.
 
Bei der Umfrage hätte ich mir die Option: „Achte im Idle auf niedrigen Verbrauch aber unter Last ist mir der egal“
Wie hoch war eigentlich die Effizienz bei normalen Netzteilen aus der Zeit?
 
  • Gefällt mir
Reaktionen: Raycrate und Steini1990
Mir ist der Stromverbrauch unter Last egal. Wichtig ist mir nur lautloser Betrieb bei Office-Anwendungen/Photoshop und sehr leiser Betrieb beim Spielen.
 
  • Gefällt mir
Reaktionen: Nebuk und TheBear1517
Kann im Winter die Heizung aus lassen da es unterm Schreibtisch immer schön warm ist. Das hat sich gefühlt aber seit 10 Jahren nicht geändert.

Wie siehts den bei Leistung pro Watt aus?

Da hinkt doch dann Vergleich mit den alten GPUs.

Gtx1080ti ist 4000% schneller als zB ne ATI9800 Pro braucht aber nur 300% mehr Strom.
 
  • Gefällt mir
Reaktionen: Raycrate
Mit 400W unter Last komme ich nicht hin. Hab ja nicht umsonst ein 1KW Netzteil im PC.
 
Die Energiedichte obliegend der immer kleineren Strukturen mit höherer Anzahl an ICs (Pakdichte), stellt heute auch, gerade aus termische Sicht ein massives "Problem" dar.

Der Silizium DIE ist von der Fläche her, oftmals auch immer kleiner geworden, bei höherer Integration, was dem Konstrukt ebenfalls zusätzlich eine gewisse Rolle einverleibt.

Höhere Pakdichte und Integration auf kleinerem Raum bedeutet ebenfalls potentiell höhere termische Entwicklung und dadurch auch einen höheren, möglichen Energieverbrauch, hervorgerufen durch einen geringeren Wiederstand und höheren Stromflüssen obliegend der hohen Temperatur.

(Bitte korrigieren, insofern ich Unrecht habe)
 
also ich kann nicht behaupten das ich weit über die 200 watt komme. laut Strommessgerät an der dose bin ich bei ca 240-280watt mit nem 7600k und ner 1070(graka leicht oc). genrell sind bei mir 60 fps fix, da mehr fps das spielgefühl nicht wirklich verbessern und mir die Qualität auf 2k mehr als genügt
 
Gut dass ihr bereits in der Einleitung klar stellt dass es auch heute "nur" bis zu 300-400Watt selbst bei potenteren (SingleGPU-Rechnern) sind und nicht 800-1000 oder gar mehr Watt wie viele -der Entwicklung des Netzteilmarktes nach- zu glauben scheinen.

Tatsächlich zieht selbst ein stark übertakteter aktueller i7 nebst ebenfalls massiv übertakteter 1080TI nur in provozierten Stresstestszenarien mal gut 400Watt -gemessen- aus der der Dose. Im Gamingalltag eher gut 300Watt für die selbe Maschine.

Tatsächlich haben wir das Peak der Verbräuche von Gamingrechnern sogar bereits länger hinter uns und sind wieder deutlich auf dem absteigenden Ast. Um ~´07-´10 haben die Kisten gleicher Hackordnung in den geschilderten Szenarien gut 100-150Watt mehr gebraucht.
 
Zuletzt bearbeitet:
Wechsel von AMD GPU auf Nvidia und Intel CPU auf AMD, in Summe gleicher Verbrauch unter Last bei doppelter Leistung. Ganz grob pauschalisiert. :)

Das Verbrauchsniveau ist angestiegen, die Auflösungen und Rechenleistungen aber weit mehr, dank der (a) größeren Lüfter und (b) adaptiven Spannungsversorgungen schaffen die heutigen Rechner jedoch die Abwärme deutlich leichter weg, das ist ein Fortschritt.

Mir reichte und reicht weiterhin ein 500 W Netzteil, ist jetzt die älteste Komponente im System, dafür noch mit Garantie. ;)
 
Artikel schrieb:
Das deutet bereits darauf hin, dass die höhere Leistung aktueller Grafikkarten nicht nur durch modernere GPU-Architekturen und bessere Fertigungstechniken ermöglicht wird, sondern auch durch höhere Leistungsaufnahme und somit Wärmeabgabe.
Ein wenig überspitzt formuliert aber im Grunde richtig. Schon seit Jahren bildet ja die Leistungsdichte die Grenze für die Performance von CPUs und GPUs. Neue Chips haben eine höhere Packdichte, wodurch man viel mehr Transistoren in einen Chip packen kann. Auch brauchen sie viel weniger Spannung für gleiche Taktraten wie ältere Chips. Sprich man kann die Taktraten erhöhen - was den Stromfluss im Chip erhöht - und man kann viel mehr Transistoren auf gleicher Fläche verbauen. Also hat man eine viel höhere Wärmeentwicklung auf einer kleinen Fläche und schon haben wir den Salat. Wir gewinnen Leistung durch Miniaturisierung, machen uns aber zwangsweise die Kühlung viel schwerer. Die war damals noch viel einfacher.
 
Schaby schrieb:
Ws mir auch nicht gefällt ist die Aussage, dass die Mehrleistung durch mehr Energie erkauft wird. Lasst mal aktuelle Hardware mit dem Unreal Test laufen und setzt die Frames auf die damaligen Höchstwerte fest, jede Wette dass das aktuelle System weniger Energie verbraucht.

..

Das kannst du gerne machen. Aber der Erkenntnisgewinn ist sehr begrenzt.
Natürlich leistet aktuelle Hardware mehr als alte. Das hätten wir uns auch so denken können.

Es stimmt allerdings das die Leistungsaufnahme mit der Zeit immer weiter in die höhe gegangen ist.

Die erste Geforce DDR war die schnellste Karte in 2000 und wurde lediglich per AGP, also mit weniger als 44 Watt versorgt. Heute gibt es Karten mit 2x8pin PEG die bis zu 375 Watt nehmen können.

Bau mal aktuelle Hardware ein Case aus 1999/2000 mit den damals gängigen 80er Lüftern ein. Die meisten Cases hatten nicht einmal Blowhole für zusätzliche Lüfter. Das gesamte System wurde vom Lüfter im Netzteil gekühlt.
 
Schaby schrieb:
Ich habe Sonstiges gewählt, ich Übertakte, achte dabei aber auch auf den Verbrauch.
So sieht's aus. Mein R5 2600 läuft default auf 3,85GHz@1,18V, schafft übertaktet 4GHz@1,2V oder 4,2GHz@1,39V. Also sind die 4GHz der beste Kompromiss.
Die 980ti hatte im originalen Bios auf ~1350MHz@1,256V geboostet, jetzt läuft sie mit 1506MHz bei 1,2V.
 
"Heutige High-End-Rechner liegen bei 300 bis 400 Watt"

ehm, ne fette custom 1080 Ti frisst alleine schon gerne mal 320W :freak:

custom 1080 Ti + 2700X + 1x SATA HDD, 1x SATA SSD, 1x NVMe SSD + 5x 120er Lüfter mit a 13W, 1x 80er lüfter, 1x 92er lüfter + CPU Kühler, 2x 8GB ram, chipsatz auf dem mobo und verlustleistung netzteil(80+ Gold) sind ca. 640W +/- ohne OC, einfach alles @ stock :king:
 
  • Gefällt mir
Reaktionen: Slashchat
tek9 schrieb:
Es stimmt allerdings das die Leistungsaufnahme mit der Zeit immer weiter in die höhe gegangen ist.

Das stimmt eben nicht, denn vor einigen Jahren waren wir bereits deutlich höher im Verbrauch bei gleichen Rechnerklassen als es heute der Fall ist. Etwa um ´07-´10. Seither ist es wieder rückläufig.
 
Meetthecutthe schrieb:
Das stimmt eben nicht, denn vor einigen Jahren waren wir bereits deutlich höher im Verbrauch bei gleichen Rechnerklassen als es heute der Fall ist. Etwa um ´07-´10. Seither ist es wieder rückläufig.
Meinst du die TDP Angaben der CPUs, die sich auf den Standardtakt beziehen statt dem Boosttakt? Ja, die sind jetzt niedriger.
 
ZeroCoolRiddler schrieb:
Meinst du die TDP Angaben der CPUs, die sich auf den Standardtakt beziehen statt dem Boosttakt? Ja, die sind jetzt niedriger.

Nein, sondern den real gemessenen Verbrauch jeweiliger Highendrechner ihrer Zeit nebst Übertaktung in den Lastszenarien Benchmark als auch Gaming. Im Idle sowieso.
 
Also mein Q6600 hatte mit 3,9GHz und 1,55V damals schon über 250W genuckelt.
Als Graka kam damals ne 8800GT samt Voltmod mit ebenfalls ca. 220W dazu.
 
XTR³M³ schrieb:
"Heutige High-End-Rechner liegen bei 300 bis 400 Watt"

ehm, ne fette custom 1080 Ti frisst alleine schon gerne mal 320W :freak:

custom 1080 Ti + 2700X + 1x SATA HDD, 1x SATA SSD, 1x NVMe SSD + 5x 120er Lüfter mit a 13W, 1x 80er lüfter, 1x 92er lüfter + CPU Kühler, 2x 8GB ram, chipsatz auf dem mobo und verlustleistung netzteil(80+ Gold) sind ca. 640W +/- ohne OC, einfach alles @ stock :king:

Findet so nicht statt. Die 1080TI verbraucht in keiner Ausbaustufe und keinem Szenario für sich alleine 320Watt oder irgendwas auch nur annähernd in der Richtung.

Gerne dazu auch dieser Tests bei dem die Redaktion etwas über 400Watt fürs Gesamtsystem bei stark übertakteter CPU wie auch 1080ti im Benchmarkszenario misst.

Davon ab messe ich meinen eigenen Rechner mit 2 besseren Leistungsmessern unterschiedlicher Hersteller zur besseren Mittelung und kann die Werte daher bestätigen.
 
Das waren noch Zeiten.... Jetzt bin ich bei 600-700 Watt nur für die CPU
 
Meetthecutthe schrieb:
Findet so nicht statt. Die 1080TI verbraucht in keiner Ausbaustufe und keinem Szenario für sich alleine 320Watt oder irgendwas auch nur annähernd in der Richtung.

Gerne dazu auch dieser Tests bei dem die Redaktion etwas über 400Watt fürs Gesamtsystem bei stark übertakteter CPU wie auch 1080ti im Benchmarkszenario misst.

Davon ab messe ich meinen eigenen Rechner mit 2 besseren Leistungsmessern unterschiedlicher Hersteller zur besseren Mittelung und kann die Werte daher bestätigen.

ehm, ne popelige FE frisst schon ziemlich genau die angegebenen 250W:
https://www.tomshw.de/2017/03/09/nvidia-geforce-gtx-1080-ti/6/

und die ganzen OC customs liegen WEIT drüber und fangen so bei 300W an, manche modelle(zotac AMP xtreme zb.) genehmigen sich auch deutlich über 350W... graka ALLEINE!!

dann lasse mal nen HDD/SSD benchmark laufen, schalte cpu-z torture dazu und firestrike als zugabe, so das du wirklich das gesammte system auf 100% hast... dann weisst du mal was deine kiste wirklich zieht :king:
 
Zurück
Oben