News Im Test vor 15 Jahren: Als der Gaming-PC noch 200 Watt verbraucht hat

50-100% mehr Stromverbrauch bei wieviel mehr Leistung CPU locker 100x und Grafik ebenso 100x mehr und aufwärts, in der Effizienz Watt/Leistung hat sich allerhand getan, das kann niemand bestreiten!
 
@Stormfirebird
Ja mit den 15 Jahren ist das eben so eine Sache, denn da gab es nur die Stromversorgung über PCI. Denn erst vor 14 Jahren kam SLI mit der 6000er Serie und erst vor 13 Jahren (meine ich jedenfalls) mit der 7000er Serie die zusätzliche Stromversorgung über 6-Pin. Vor 12 Jahren ging es dann mit der 7900 GX2 so richtig ab (900 bis 1000 Watt Netzteil):
https://www.bit-tech.net/reviews/tech/graphics/quad_sli_geforce_7900_gx2/4/

Wenn du nun sagst, dass nur "High-End" verglichen wird, dann kannst du auch gleich sagen, dass heutiges High-End Gaming mit 4-Way SLI bei 1000 Watt liegt.

Der Knackpunkt ist einfach, dass es früher einfach nicht schneller ging und das lag eben nicht daran, dass keiner mehr Strom verbrauchen wollte, sondern es einfach nichts zu kaufen gab. Siehe auch:
https://www.pugetsystems.com/labs/articles/Building-the-Ultimate-Gaming-PC-12/
our choice for the Ultimate Gaming PC is clear - the GeForceFX 5900 with 256mb memory. It just doesn't get any faster!
 
Retro-3dfx-User schrieb:
50-100% mehr Stromverbrauch bei wieviel mehr Leistung CPU locker 100x und Grafik ebenso 100x mehr und aufwärts, in der Effizienz Watt/Leistung hat sich allerhand getan, das kann niemand bestreiten!

Tja, wäre mal die KI in Spielen 100 mal besser, die Grafik 100 Mal besser oder Gott bewahre gar die Spiele, der Spielspaß. Entweder liegt es an mir, aber kaum noch etwas kann mich wie früher Pirates! am C64, Civilization ebenso. Oder WC 1 am Amiga. Die ganze Begeisterung hielt sich so bis Anfang von WoW und seitdem ist meine Spielzeit drastisch gesunken.

Da reicht ein Lenovo Ideacentre mit g4560, 8gb und nvme SSD. Da sind wir bei Thema Stromverbrauch, der zieht nix aus der Dose ;)

Zum gelegentlichen zocken reicht die Xbox, die ist auch ein Monster was Grafik im Vergleich zum Stromverbrauch angeht.
 
  • Gefällt mir
Reaktionen: fox40phil und Rockstar85
mgutt schrieb:
Ja mit den 15 Jahren ist das eben so eine Sache, denn da gab es nur die Stromversorgung über PCI.
Da ziehst du erst übern den Artikel her und haust dann so eine Pleite raus? Erster Absatz darf auch mal gelesen werden...
Vom Kontext war ich jetzt mal von jeweils einzelnen Karten ausgegangen, mehr als two way SLI wird ja auch seit Pascal nicht wirklich unterstützt/gepflegt. Aber die Energie Bilanz wird nicht besser, umso mehr Karten man jetzt hinzufügt, um mal zum eigentlichen Punkt zurückzukehren.
Ich bin mal raus, das wird hier zur Farce
 
Neo772™ schrieb:
Selten so ein Schwachsinn gelesen!!
Stromverbrauch steigt an. Von wegen:
Meine 4870X2 hat vor gut 10 Jahren 420 Watt alleine gezogen, der Nachfolger die 5870 war auch extrem Stromhungrig.
Meine 1080 zieht unter Volllast 260-280 Watt. Das hat die AMD 5870 bei nicht einmal ein Viertel der Leistung locker getoppt.
Die 4870X2 war ja auch eine Dual-GPU, schau dir an was zweimal Vega oder Fijii frisst und plötzlich ist dein Post Schwachsinn.
Die 5870 war auch das Topmodell, deine 1080 ist der Midrange Chip.
Die 5870 war auch nicht der Nachfolger der 4870X2, das war die 5970.
 
Game-PC darf nicht mehr als 150 W maximal verbrauchen. Wird Zeit das die EU einen Rahmen für die Energieffizient von Grafikkarten vorgibt.
Bei Saubsaugern hat das auch ganz gut geklappt.
 
Martinfrost2003 schrieb:
Die Hersteller bringen immer noch PCs mit max. 200Watt Gesamtleistung herraus . Allerdings werden die dann eher zum Briefe schreiben und Internet Surfen genutzt und nennen sich Office PC statt Gaming PC

Stimmt. Word bekommt man ohne GTX 1060 / 1070 / 1080 gar nicht auf. Sorry, aber was erzählst du da. Steht doch sogar im Artikel:
2018-06-16 14.47.53.jpg


Ja sind 244 Watt, aber dadurch ist das noch lange kein Office Rechner. Und eine 1060 bzw 1070 genauso wenig, wenn einem Full HD reicht.
 
Der Unterschied zu damals: Die Rechner haben IMMER 200W verbraucht, auch im Leerlauf.
Moderne Rechner brauchen nur unter Last 300-400W. Im Leerlauf begnügen sich die meisten mit 50-80W.
 
Wenn Leistungsaufnahme nicht auch Abwärme bedeuten würde, dann wäre sie mir in der Tat egal. Bei meiner Vorliebe für kompakte Systeme ist die Kühlung nämlich immer das größte Problem. Aber der Verbrauch selbst, die Kiste läuft so selten unter Vollast, da machen ein par hundert Watt mehr oder weniger keine 2€/mon.
 
UrlaubMitStalin schrieb:
Der Unterschied zu damals: Die Rechner haben IMMER 200W verbraucht, auch im Leerlauf.
Moderne Rechner brauchen nur unter Last 300-400W. Im Leerlauf begnügen sich die meisten mit 50-80W.

Na ja, 100 Watt schon eher. Meiner hat damals um die Zeit um die 100 Watt im Idle verbraucht und ca. 200 unter Last.

Heute sinds eher so 50 im Idle und 300 unter Vollast.

Aber ich persönlich schau nach wie vor, dass die Leistungsaufnahme nicht zu hoch ist. Für mich eines der wichtigsten Kriterien, da ich meine Hardware gerne leise und effizient, sprich ohne Aufwand kühlen möchte. Für irgendwelche Custom Bastellösungen hab ich keine Zeit und Lust.

Ich kauf einfach ne GPU unter 200 Watt und kann ziemlich sicher sein, dass, egal welcher Kühler drauf ist (solange es nicht referenz ist) die Karte mit dem verbauten Kühler leise kühlbar ist, ohne dass ich an der Lüfterkurve basteln muss und das Gehäuse nicht unnötig aufheizt, so dass ich meine Gehäuselüfter auf niedrigster Drehzahl laufen lassen kann.

Mir ist der ganze Stress bezüglich Kühlung, Lautstärke und Lüfterkurve einfach zu nervig. Ich hab keine Zeit mehr für den Schmarrn, deswegen kommt Hardware, die quasi am Limit läuft einfach nicht in Frage, un Zusatzsoftware, um die Grafikkarte zu "tweaken" will ich auf meinem Rechner einfach nicht mehr sehen. Ich erwarte, dass das Teil von anfang an so läuft, wie ich es mir vorstelle. Und bei irgendwelchen 250-300 Watt GPUs ist das halt nur äußerst selten der Fall...

Ich kauf mir PC Hardware, um Games mit 60+ FPS zu zocken, nicht um mich damit zu beschäftigen, dass die Kiste läuft, wie ich es mir Vorstelle. Ich hab damit in der Vergangenheit echt genug Zeit verschwendet (es wird auch zu einer Art Sucht) und hätte stattdessen lieber mehr Games durchgespielt. Aber vielleicht werde ich auch einfach nur alt. :p
 
Zuletzt bearbeitet von einem Moderator:
mgutt schrieb:
@Robert
Und dann gilt eben auch nicht der Stresstest, sondern der Verbrauch beim Gaming.

Da es *den* Verbrauch beim Gaming aber nicht gibt bietet es sich an, statt dessen eine künstlich erzeugte maximale Last für Vergleiche heran zu ziehen.
Ergänzung ()

Martinfrost2003 schrieb:
Die Hersteller bringen immer noch PCs mit max. 200Watt Gesamtleistung herraus . Allerdings werden die dann eher zum Briefe schreiben und Internet Surfen genutzt und nennen sich Office PC statt Gaming PC .

Die Office PCs von HP, Lenovo und Dell die ich kenne haben i3@2.x Ghz und Netzteile mit irgendwas um die 120W eingebaut. Und die gehen beim 08/15 User (Officepaket, Terminalserveranwendungen) ab wie Schmitts Katze
 
Zuletzt bearbeitet:
der_infant schrieb:
Wie siehts den bei Leistung pro Watt aus?

Da hinkt doch dann Vergleich mit den alten GPUs.

Gtx1080ti ist 4000% schneller als zB ne ATI9800 Pro braucht aber nur 300% mehr Strom.

Der Vergleich macht überhaupt keinen Sinn weil aktuelle Spiele auch 4000 Prozent mehr Leistung benötigen um flüssig spielbar zu sein.

Ergo benötigen aktuelle High End Karten 300 Prozent mehr Strom um aktuelle Spiele mit hohen Frameraten zu Rendern.
 
Die Hardware war trotzdem lauter und gefühlt heißer :lol:
 
Alphanerd schrieb:
Tja, wäre mal die KI in Spielen 100 mal besser, die Grafik 100 Mal besser oder Gott bewahre gar die Spiele, der Spielspaß. Entweder liegt es an mir, aber kaum noch etwas kann mich wie früher Pirates! am C64, Civilization ebenso. Oder WC 1 am Amiga. Die ganze Begeisterung hielt sich so bis Anfang von WoW und seitdem ist meine Spielzeit drastisch gesunken.

Da stimme ich dir zwar zu, aber das kann auch am Alter(n) liegen :). Früher waren die Sprünge im Fortschritt größer (Hard- und Software) bzw. es gab noch nichts vergleichbares, ausserdem hat man als junger Mensch noch nicht so viel gesehen - insofern ist alles neue viel interessanter als im "Alter", wo man schon die ein oder andere Erfahrung mitbringt.
 
Neo772™ schrieb:
Selten so ein Schwachsinn gelesen!!
Stromverbrauch steigt an. Von wegen:
Meine 4870X2 hat vor gut 10 Jahren 420 Watt alleine gezogen, der Nachfolger die 5870 war auch extrem Stromhungrig.


die 5870 hatte die doppelte leistung wie die 4870 und hatte deutlich weniger Stromverbrauch und für dich war das stronhungrig?! hmm okay
 

Anhänge

  • 20180616_171018_HDR.jpg
    20180616_171018_HDR.jpg
    1,2 MB · Aufrufe: 490
Ja, ganz ehrlich, bei gegebener Leistung war es halt konstant ein hoher Stromverbrauch. Habe damals gut 640 Watt Komplettsystem gemessen noch mit der 4870X2 unter Last. Das war schon pervers.
 
  • Gefällt mir
Reaktionen: Slashchat
XTR³M³ schrieb:
dann lasse mal nen HDD/SSD benchmark laufen, schalte cpu-z torture dazu und firestrike als zugabe, so das du wirklich das gesammte system auf 100% hast... dann weisst du mal was deine kiste wirklich zieht :king:

wozu solche pussibenches laufen lassen?

1. im alltag wird dein pc niemals an diese künstlich erzeugte grenze stossen
2. 3dmark und andere benches laufen auf frisch installierten Systemen eh schneller wie auf schon länger installierten, mit identischer Hardware.
3. sind benches immer für die ein oder andere Hardware optimiert, sodas man da nicht wirklich objektiv und unabhängig vergleichen kann


sprich, 0 Aussagekraft....
 
  • Gefällt mir
Reaktionen: fox40phil und R00tMaster
Woher stammen solche Vergleiche? 50 bis 100% mehr?

Mein System mit 1800x und Vega64 verbraucht unter Spielen nach eigener Optimierung unter 300W inklusive Monitor und USB Perepherie + Wasserkühlungskompontenen und 6x120mm Lüfter. Leistet dabei wahrscheinlich bis 500% mehr wie ein System vor 15 Jahren, wobei ich das nicht unbedingt als Highend ansehe. Eine Titan oder 1080ti dürfte wahrscheinlich weniger verbrauchen.

Das wurde in dem Vergleich nicht betrachtet - bei den heutigen Anforderungen an die Hardware würde das 15 Jahre alte System wahrscheinlich mit 200W Verbrauch unter 1080p nur 10fps mit gleichem Offset triggern, meins schafft ca. um 50-60 fps (je nach Titel und Offset) in UHD. Dann darf es gerne 50% mehr Energie verbraten.
 
Zuletzt bearbeitet von einem Moderator:
Ach das waren Zeiten wo der Rechner ständig hängengeblieben ist aus welchem Grund auch immer. Toller Test! Heute wurde alles optimiert(Hardware/Software) und die Entwicklung kommt leistungstechnisch "gefühlt" über zwei Jahre nicht voran(ausser Ryzen).
 
Zurück
Oben