News Im Test vor 15 Jahren: Als der Gaming-PC noch 200 Watt verbraucht hat

Gefühlt hatte die FX 5800 aber noch ne Ecke mehr verbraucht. Denn während die 9700 warm wurde, konnte man sich an der FX schon im Windows Betrieb die Pfoten verbrennen.

Ich erinnere mich dunkel, das die FX aber in Windows auch den Takt gesenkt hatte! Von 400/400 auf 300/00 (Chip, Speicher)
 
Meetthecutthe schrieb:
Nein - Grund : Siehe oben.

eben doch, und hast du überhaupt auf den link geklickt? :freak:

selbst meine rog strix OC frisst 328W wenn sie voll ausgelastet ist und nicht ins temparaturlimit rennt.
 
joshy337 schrieb:
Alternativer Titel:

Im Test vor 15 Jahren: Als der Spiele-PC noch keinen eigenen Drehstromanschluß gebraucht hat

*Braucht* er denn heute einen Drehstromanschluß?

@CB: Mir fehlt in eurem Artikel die B-Probe.

Die leistungsstärksten Grafikkarten heute verbraten vie mehr elektrische Leistung und liefern sehr viel höhere Wirkleistung? OK. Aber wie steht es denn wenn man die gleiche Leistung wie in der 2003er High-End-Grafikkarte heute haben wollte? Welche TDP hätte heute das Gespann aus CPU+GPU oder die APU die das bewerkstelligt?
 
Mit meinem antiken System bin ich auch nicht sparsam unterwegs, bewegt sich zwischen 140W und 450W. Allerdings kommt es halt auch immer drauf an wie man das Ding nutzt. Ein Systemwechsel nur des Energieverbrauchs wegen amortisiert sich bei mir nicht, das Ding ist nicht mehr wie früher 24/7 an, weil es nicht mehr für alles herhalten muss. Und wenn ich abends mal 3 Stunden spiele kostet mich das eben 30 statt 20 Cent.
 
Wer sich High End Hardware kauft muss damit rechnen oder sich informieren. Ich habe mir nie solche Schwanzvel...gekauft.
Hitzeentwicklung und Lärm gefallen mir nicht so. Gerade bei den Grakas. Wenn ich da zurück denke was es für Heißluftföns gab:lol:, nein danke.

Mein Rechner ( G4560, 1050ti, 8GB RAM, SSD) verbraucht bei Volllast max. 120W. Was mir auch schon zu viel ist.
Immerhin kann ich alles damit spielen was mir gefällt. Auch wenn ich bei der Grafik nicht immer ein "Marketing Ultra" einstellen kann. Weitere Kommentare erspare ich mir dazu.:rolleyes:

Dank einiger Politiker+ Parteien haben wir in den letzten 20 Jahren auch einen enormen Anstieg der Stromkosten.
Wieder einmal richtig toll gemacht, thx für nichts.:daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nebula123, cele und R00tMaster
Mein PC braucht beim Zocken inclusive Monitor unter 300 Watt. Im Idle braucht er mit Monitor 90, das gefällt mir ja weniger, aber weiter runter bring ichs net.

Die Ti betreib ich mit 0.81V, sonst wär unter 300W nicht drin.
 
Wie gesagt, ne 1080Ti ist 4000% schneller als ne ATI 9800 pro. Verbraucht aber nur 3x so viel Strom. Also sinkt doch der Stromverbrauch drastisch relativ zur Leistung gesehen.
 
immortuos schrieb:
Die 300-400W für heutige Spielerechner sind aber auch etwas niedrig gegriffen, mit einem R7 2700X/i7 8700k/SLX/TR und einer Vega 64/GTX 1080Ti/Titan Xp/Titan V liegt man da bei Last schon drüber, mit Customdesigns, OC und co sogar deutlich.

Ich baue gerade einen Rechner auf. Ohne GPU mit 8700K bin ich bei 15 Watt im Idle (Offset Undervolting, C8 aktiviert) und 123 Watt bei 100% Auslastung. Mit einer 1080 Ti käme ich also auf max 400 Watt und nicht drüber. OC ist was anderes, aber du sprachst bereits vom Default.

Der Rechner wird übrigens semi-passiv. Ungeköpft läuft der 8700K jetzt bei max 62 Grad. Ab 60 Grad geht der CPU Lüfter an, ist also quasi immer aus. Der wird bald geköpft, dann werde ich noch adaptiv Undervolting mit Overclocking kombinieren. Auch dann sollte der Lüfter quasi immer aus bleiben, da ich bei 4700 MHz bei max 70 Grad lande und durch das Köpfen sollen ja noch mal 20 Grad rauszuholen sein.

Als GPU ist übrigens eine Non-/ Light-OC GTX 1080 mit nur einem Stromanschluss und Raijintek Kühler geplant. Da kommt man im Idle auf max 30 Watt und Gesamt max auf 350 Watt. Und das auch nur rein theoretisch bei Stresstests. Beim Rendern und Gaming rechne ich eher mit 250 Watt, da niemals beide Komponenten zu 100% ausgelastet werden.

Ich verstehe daher auch nicht warum die Netzteile immer größer werden. Es kauft ja nicht jeder einen 8700K und kombiniert die mit High-End GPU. Ist irgendwie wie der Megapixelwahn früher bei Kameras.

Auch finde ich die Aussage im Artikel falsch, da es sich meiner Ansicht nach ausschließlich auf OC / Luxus Karten bezieht.
 
Zuletzt bearbeitet:
@der_infant Ja, die Effizienz (Leistung/Verbrauch) steigt, der Verbrauch aber eben auch.

@Hayda Ministral Da es sich bei "Im Test vor 15 Jahren" nur um Rückblicke handelt, können wir da keine neuen Benchmarks etc. für anfertigen und einpflegen. Tut mir Leid.

@mgutt Wenn du sagst, dass sich die Aussage auf Overclocking beziehst, aber dann mit einem undervolteten Rechner als Gegenbeispiel kommst, kommt dir das nicht selbst seltsam vor?
 
deo schrieb:
Der Idle Verbrauch ist erschreckend hoch, wenn man ältere Verbrauchstests sieht.
Wenn der PC nicht nur für Spiele genutzt wird, sondern für alles, sind die Unterhaltskosten für die heutige Zeit indiskutabel.
Leute, die sich keinen neue PC leisten könenn (wie auch bei anderen elektrischen Geräten) sind damit doppelt betraft, weil sie überhöhte Stromrechnungen haben.
Korrigieren mich, wenn ich es missverstehen, aber wäre es dir lieber wenn aktuelle Systeme mehr Strom verbrauchen um für Gerechtigkeit zu sorgen? Auch verstehe ich die Argumentation nicht. Wenn es sich finanziell lohnt einen neuen PC zu holen dann könnten sich die Leute doch eher ihren alten PC nicht mehr leisten.
 
@mgutt Nur mit CPU 36 Watt? Wenn ich deinen Post richtig verstanden habe, dann hast du die Grafikkarte noch nicht.

Unabhängig davon: Nein, es bezieht sich nicht nur auf Overclocking. Ja, die CPU in dem Testrechner ist übertaktet, die Grafikkarten aber nicht. Und das Gesamtsystem verbraucht - wie du ja leicht erkennen kannst - *deutlich* mehr.
 
@ NMA
Die heutigen Strukturverkleinerungen senken erheblich die Stromaufnahme.
Heutige Computer sind keine tonnenschweren Schränke aus Einzeltransistoren oder einfachen IC mehr, die man mit einer Sackkarre oder Hubwagen erst an ihren Platz bringen muss.

So hat intel den 130nm Pentium M im Stealey 1:1 in der Fertigung 2008 lediglich verkleinert angeboten. Die CPU hatte nur eine 5W TDP und war immer noch leistungsfähiger als die ersten Atom. Intel hat auch eine Generation später eingelenkt, den Atom mit einem strukturverkleinerten Chipsatz auszustatten, der keine 20W TDP aufwies.

Die intel Larrabee, die ja auf den Pentiumkernen basiert, wäre heute in 600nm Fertigung nicht ohne Aufwand trotz Stromsparmechanismen zu betreiben.

Lasse man eine 9800pro im 14nm Verfahren fertigen, kann man die gleich auch noch auf 1.xGHz takten.

nvidia hat ja mit seinem letzten Monsterchip in aktueller Fertigung auch die unwirtschaftlichen Machbarkeiten ausgeschöpft. In 150nm der AMD 9800pro dagegen würden noch weniger vom Band laufen und die Vorstellung wäre mit zwei Händen in Erinnerung geblieben.
 
Selten so ein Schwachsinn gelesen!!
Stromverbrauch steigt an. Von wegen:
Meine 4870X2 hat vor gut 10 Jahren 420 Watt alleine gezogen, der Nachfolger die 5870 war auch extrem Stromhungrig.

Jedes Kind weiß, dass der aktuelle Trend im Stromverbrauch von Grafikkarten seit Generationen eine Stagnation von Stromverbrauch (wenn nicht sogar ein Rückgang) beinhaltet. Insbesondere bei Nvidia.

Meine 1080 zieht unter Volllast 260-280 Watt. Das hat die AMD 5870 bei nicht einmal ein Viertel der Leistung locker getoppt.

Dank meiner 4870X2 habe ich heute noch ein (nicht mehr benötigtes) Corsair TX750W 750 Watt Netzteil im Rechner (hält immer noch :D )
 
Zuletzt bearbeitet:
@Robert
Ja aktuell noch ohne GPU. Mein Projekt habe ich auch nicht wegen dem Artikel, sondern wegen der "400 Watt dürftig" Aussage genannt.

Nur auf den Artikel bezogen zählt nicht nur 4K High End, sondern die am meisten verkauften Karten und das sind nun mal die GTX 1060 und 1070 und keine Titan etc.

Im Artikel ist ja schließlich auch die Rede von der FX 5600 und nicht von der FX 5950 Ultra.

Und dann gilt eben auch nicht der Stresstest, sondern der Verbrauch beim Gaming. Und mit einer GTX 1060/1070 liegt man da ebenfalls bei 200 Watt. Fazit: Nichts hat sich geändert.
 
  • Gefällt mir
Reaktionen: R00tMaster
Neo772™ schrieb:
Ernsthaft? Auch deine 5870 war noch lange nicht der Gipfel des Verbrauchs https://www.computerbase.de/2017-01/radeon-hd-7970-290x-fury-x-vergleich/3/
Bei Nvidia siehts auch nicht unbedingt anders aus https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/3/ man beachte dass die 1080 nicht den maximal Ausbau besitzt und hier die FE mittlerweile sehr moderat getaktet werden.
Die Effizienz steigt auf jeden Fall, aber der Verbrauch sinkt nicht wirklich.

@mgutt Alternative Fakten? Im Artikel ist von den schnellsten Grafikkarten der damaligen Zeit die Rede, ohne jetzt ein Wiki zu wälzen gehe ich mal davon aus dass auch eben jene in den Tabellen vorzufinden sind. Wie kommst du jetzt darauf mit aktuellem midend zu vergleichen.
 
Zuletzt bearbeitet:
Ja, die Leistungsaufnahme ist um 50-100% gestiegen. Die Leistungsfähigkeit dürfte aber wohl das zehn- bis zwanzigfache Betragen (direkte Vergleiche sind schwer, da u.a. alte Grafikkarten keine aktuellen Benchmarks unterstützen). Die wirkliche Frage ist: Braucht man so viel an Mehrleistung, damit das Verhältnis stimmt? Als Gamer kann man wohl "Ja" sagen. Office-User würden wohl heute noch mit einem PC von vor 10-15 Jahren auskommen.
 
Was waren das noch für Zeiten, als ein Gaming System noch 30 Watt verbauch hatte:

dogs-of-war-amiga-500.jpg
dogs-of-war-amiga-500.jpg
 
  • Gefällt mir
Reaktionen: MasterXTC, Sternengucker80, yummycandy und 2 andere
Zurück
Oben