News Im Test vor 15 Jahren: Als der Gaming-PC noch 200 Watt verbraucht hat

Ich habe mal "sonstiges" in der Umfrage angekreuzt.
Nicht auf den Stromverbrauch zu achten, heißt ja nicht automatisch, dass ich auch übertakte. Klingt logisch oder?

Meine Hardware ist so ausgelegt, dass ich gar nicht übertakten muss. Wenn Spiele zu langsam werden, kann in nur in den wenigsten Fällen mit übertakten wirklich deutlich mehr Leistung erreichen, sodass diese dann auch ausreicht. Also muss dann eher was neues her.
 
Manchmal wünschte ich, ich hätte damals mehr Screenshots und Bilder von den Systemen gemacht.
Wie stolz ich darauf war, dass UT2003 super auf meiner MX460 lief.
Dann kam noch das erste Splinter Cell.

Ich hab immer auf 800x600 gezockt, weil ich es so aus HL und CS gewohnt war und fand alles drüber "komisch". Jetzt kann ich nur noch drüber schmunzeln.
 
  • Gefällt mir
Reaktionen: Pamoli
Vor x Jahren hatte mal die PCGH (printed) einen Test gemacht um herauszufinden welche Spiele am meisten aus der Steckdose ziehen, der Sieger war (glaube ich) Doom 3. So ein Test wäre mal (wieder) interessant
 
Ja hatte damals die 4870X2, die allerdings auch recht schnell den Bach runter ging, weshalb ich auf Gewährleistung eine AMD 5870 als Ersatz bekam, die mindestens die gleiche Leistung hatte und das ohne die ganze Mikroruckler Geschichte.

Davor hatte ich ein System aus GT260 SLI - SLI der ersten Generation sozusagen. Heute kann ich darüber auch nur schmunzeln. Eine GT280 hätte genausoviel Leistung gehabt, bei gleichem Preis und weniger Treiberproblemen.
Aber so ist das nunmal mit dem geilen Shit den man unbedingt haben muss :D

Hach die gute alte BF2 Zeit :D
 
  • Gefällt mir
Reaktionen: Oneplusfan
Stormfirebird schrieb:
Im Artikel ist von den schnellsten Grafikkarten der damaligen Zeit die Rede.

Eben nicht. Da ist die Rede von FX 5600 oder FX 5800. Die 5800 Ultra oder die 5950 Ultra wird nicht aufgeführt. Und die Gegenwart Tabelle beginnt bei der 1080 und geht weiter über die 1080 Ti. Und der Witz ist dabei noch, dass die 1080 mit 240 Watt eben deutlich weit weg von der Aussage "300-400 Watt" aus dem ersten Absatz entfernt ist. Edit: ok die Ultras konnten wohl wegen der Onboard Versorgung auch nicht wirklich mehr ziehen:
https://techreport.com/review/6572/nvidia-geforce-6800-ultra-gpu/28

Aber es sind eben andere technische Voraussetzungen.

Was ist z.B., wenn man wie früher nur von der Stromversorgung über PCI-E ausgeht wie bei einer 1050 Ti.

Oder was verbraucht die 1080 Titan
denn noch, wenn das Spiel so wie früher in 1280x960x32 gerendert wird? Geht die dann überhaupt über Idle? ^^

Und der Monitor fehlt hier auch bei der Gesamtstromaufnahme.
 
Zuletzt bearbeitet:
Dafür haben die Monitore mehr verbraucht. Mein letzter TFT kam auf 85 Watt und davor meine letzte Röhre auf 160 Watt und das non-stop.
 
luckysh0t schrieb:
Vor x Jahren hatte mal die PCGH (printed) einen Test gemacht um herauszufinden welche Spiele am meisten aus der Steckdose ziehen, der Sieger war (glaube ich) Doom 3. So ein Test wäre mal (wieder) interessant

Das wird aber ein enges Kopf an Kopf rennen von dem ganzen Early Access - Schrott :D

Plott Twist:
Stromanbieter werfen demnächst auch EA-Spiele auf den Markt, die immer 100% CPU und GPU - Auslastung brauchen , mit Lootcrates für Prozente auf die nächste Rechnung :D
 
würde mal sagen meiner tut das immer noch... ich komme nicht über 280 Watt + 50 Watt Monitor und das in komparativ zur Leistung von Damals enorm toll und effizient.

ich mag diese Serie "früher mal". Wenn man in mein Sysprofile rein schaut kann man dort alle meine builds seit "Anbeginn" der PC Zeit sehen (86).
 
@ nebulus
Die gesamte Commodore IC Technik und Leistung lässt sich heute als SoC mit eMMC Speicher aufbauen und dann liegt man bei wenigen Watt Verbrauch bei deutlich höherer Rechenleistung. Ihr Röhrengerät hat sicher keine 30W Verbrauch, sondern deutlich mehr. Die Effizienz der Röhrenmonitore verbesserte sich auch mit der Zeit.
 
mgutt schrieb:
Eben nicht. Da ist die Rede von FX 5600 oder FX 5800. Die 5800 Ultra oder die 5950 Ultra wird nicht aufgeführt.

Du versuchst aber auch besonders hart jegliche Aussagen des Artikels falsch zu verstehen. High-End ist das beste, nicht die Karte (Hardware) darunter!
Es heißt im übrigen im Test vor 15 Jahren, gab es die genannten Karten denn schon vor genau 15 Jahren?
Auf die schnelle finde ich da keine 5600 im Text, dafür eine 5800, die auch mit dem höchsten Verbrauch in der Tabelle auftaucht.
Die Bedingungen passen schon, wenn würde man noch die aktuellen Karten auf einer modernen Auflösung rechnen lassen. Aber es geht hier ja um eine realistische Last, die in beiden Fällen gegeben ist.
 
bei den idleverbräuchen der (ur)alten hardware läuft es mir immer kalt den rücken runter. 200W unter last kriege ich auch mit nem 5820K (kein OC) und ner 1070 hin wenn letztere mit 0,8V läuft. die liefert dabei immer noch mehr leistung als meine alte 970, die sich bis zu ~200W genehmigt hat. ja ich weiß, ist alles andere als highend.


Während Kühler im Dual- oder gar Triple-Slot-Design vor 15 Jahren untypisch waren, sind diese heute eher die Regel denn die Ausnahme.[...]
das wird aber sicher auch daran liegen dass sich die ansprüche an die lautstärke verändert haben. der kühler meiner 1070 GameRock z.b. ist für ne karte mit ~170W TDP eigentlich überdimensioniert, ermöglicht aber einen verdammt leisen betrieb.
 
Neo772™ schrieb:
Meine 4870X2 hat vor gut 10 Jahren 420 Watt alleine gezogen, der Nachfolger die 5870 war auch extrem Stromhungrig.

die 5870 hat 190W verbraten... die 4870X2 290W...
 
Naja.
Die Hersteller bringen immer noch PCs mit max. 200Watt Gesamtleistung herraus . Allerdings werden die dann eher zum Briefe schreiben und Internet Surfen genutzt und nennen sich Office PC statt Gaming PC .

Obwohl es auch Verkäufer gibt, die diese Dinger trotzdem als Gaming-PCs vermarkten....
 
Habe auch sonstiges gewählt. Bin eher ein Budget-Gamer. Dabei waren mir die Lautstärke und Leistung meiner 1060 und R9 380 jeweils wichtiger als der Verbrauch.
Solang ich kein AKW im Keller brauche ist für mich der Stromverbrauch am Rechner eher nebensache. Da achte ich eher bei Kühlschrank, Trockner, Waschmaschine und Co drauf.
 
Schöner Vergleich zu heute. Eine direkte Performance/Watt-Gegenüberstellung zu heutigen Systemen wäre noch witzig.

Bei der Umfrage habe ich sonstiges gewählt, weil mich interessiert im Idle/2D-Betrieb durchaus der Stromverbrauch, beim Zocken zählt dann aber schon eher die Leistung auf dem Bildschirm.
 
Brandkanne schrieb:
Schöner Vergleich zu heute. Eine direkte Performance/Watt-Gegenüberstellung zu heutigen Systemen wäre noch witzig.

bei den CPUs wirds wohl eher "wenig" sein, aber bei den GPUs liegen lichtjahre zwischen den generationen von 2003 und heute.
 
Zuletzt bearbeitet:
Die idle Leistungsangaben sind nett und ich find auf die kommt es auch an. Denn die meisten die einen i7 und eine Titan haben werden arbeiten gehen und wenn sie nicht Stereotypen sind Frau und Kind haben. Da macht der Spieleverbrauch in der Woche ca 8-10h. Und wenn sie nicht zocken würden wären sie eben mit dem Auto 10km zum nächsten befreundeten Paar gefahren. Also ist computerspielen sehr viel umweltgesünder als mal was zu unternehmen, aber erzähl das mal deiner Frau.
 
  • Gefällt mir
Reaktionen: kryzs
fox40phil schrieb:
9800pro damals vor HL2 für bloss 210€ gekauft...meine beste und langlebigste GPU bisher, würde ich sagen.
Die 256MB Version war noch mal deutlich teurer. Das war auch die Zeit, wo gpus tv karten integriert hatten oder ähnliches:D und VideoIN.

Ja, TV Karte war damals Pflicht. Am besten DVB S2. Gab es genau einen Sender. Astra Test Kanal und die CPU Last ging beim Abspielen auf 100%.
 
Meine Historie:

1999 ATI Rage 128 GL (6 W TDP)
2001 nVidia GeForce 2 GTS (9 W)
2004 ATI Radeon 9800 Pro (47 W)
2008 nVidia 8800 GT (125 W)
2010 ATI Radeon 5770 (108 W)
2012 ATI Radeon HD 7850 (130 W)
2016 nVidia GeForce GTX 1070 (150-170 W)

Gibt ne schöne Aufwärtskurve :-)
 
Zurück
Oben