News Kosten für Hardware: Ist eure Schmerzgrenze beim Gaming-PC erreicht?

Die Umfrage, bezieht ich immer auf persönliche. Was spiel ich, wieviel basteldrang hab ich und was sagt der Geldbeutel.
Ich hab, so oft aufgerüste, obwohl ich es nicht hätte müssen, sämtliche Ären durch, seit den 90ern. Übertakten, ist schon lange durch. Mit günstiger Hardware und Bleistift/ guter Kühlung, usw., ist es schon lange durch. Gerade bei den Spielen, magert es doch. Da ist es nicht wie früher. Ohh, geil neues Spiel/ packendes Spiel, aber läuft nicht mit der CPU/ GPU. Ja, wir haben super Hardware, aber nur scheiss Spiele, wofür sich die Preise nicht lohnen.
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=-, Joker*, ~HazZarD~ und 2 andere
sebbolein schrieb:
Ja, genau. Lass uns Äpfel und Birnen vergleichen.
Btw, der Verbrauch meiner 4 köpfigen Familie liegt bei 2500kW/h im Jahr.
Wow, toll! Meiner liegt mit 1 Person bei 3200kW/h im Jahr. Und jetzt?

Diese Verbrauch-Fetischisten hier sind wirklich furchtbar. Ist das eine Art neue Unterkategorie technikaffiner Grüner? Für Enthusiasten zählt Verbrauch nur, weil man ihn wegkühlen muss.
 
  • Gefällt mir
Reaktionen: Romanow363
sebbolein schrieb:
Ja, genau. Lass uns Äpfel und Birnen vergleichen.
Btw, der Verbrauch meiner 4 köpfigen Familie liegt bei 2500kW/h im Jahr.
Ich wollte Äpfel mit Kaviar vergleichen. Aber für das Hobby ist es vertretbar. Zusätzlich kann man damit prahlen. Wer will nicht das dickste Ding und die längsten Balken haben?
 
Das hat sicher beides seine Berechtigung.

Es ist sicher komplexer mit wenig Watt bei einer Performance zu landen, mit der man selber gut auszukommen kann beim Gamen als mit unbegrenzt Leistung.
 
Es entbehrt nicht einer gewissen Ironie, dass ich mir heute die (mMn in der Tat überteuerte) high-end Gaming-Hardware zwar leisten könnte, aber nicht mehr so recht den Sinn darin sehe.
Weniger Zeit (Familie, Beruf), andere Hobbys zum Geldausgeben, aktuelle Spiele motivieren mich nur noch selten...
Unterm Strich sehe ich für die paar Stunden in der Woche, die ich mal was (meist älteres aus meinem gigantischen Backlog) zocke halt nicht ein, viel mehr auszugeben, als früher auch schon (ne gewisse Inflationsbereinigung wäre wohl ok). Fehlt einfach der Reiz. Nur bekommt man dafür leider keinen soliden Mittelklasse-Rechner mehr, wie das noch vor ein paar Jahren der Fall war.
 
  • Gefällt mir
Reaktionen: Petoschka, Zealord, KAOZNAKE und 3 andere
elmex201 schrieb:
Geht mir genauso. Mir ist es egal was mein Privat-Jet, Sportwagen, Heli oder meine Yacht verbrauchen. Meine Hobby ist es wert. Da gibt es keine Grenzen.
Sehr polemisch formuliert, aber ist es inhaltlich falsch?

Muss sich jeder schämen ein wenig mehr auszugeben, nur weil er sich es leisten kann und andere vielleicht nicht?
Jetzt erzähl mir die paar Watt sind relevant, wenn man sich das passiv Haus, die Solaranlage, den Ökostorm und die 100km² Wald im Amazonas auch nicht nur leisten kann, sondern auch leistet.
Da wird ja bitte auch nochmal ne kaum genutzte Yacht und ein Elektro-Spotwagen drin sein dürfen, oder etwa nicht?
Wer die 4090 haben will, brauch sich sicher nicht von den paar Watt Stromverbrauch abschrecken lassen, eine Fernreise wegen der kosten der Karte weniger gemacht und der CO2 Fußabdruck der Karte ist negativ, wahrscheinlich selbst wenn sie 2 Jahre 24/7 am rennen wäre, also halt so wie anderen Zeitgenossen die sonst nix im leben haben außer Gaming. ;-)

Und zum angeben taugt die 4090 sowieso nicht, in der Community ist imho P/L King und außerhalb kostet die Karte nicht mal genug um einen Malle Urlaub im Dezember zu stechen. Und das ist schon die so ziemlich unterste Kategorie an Fernreise mit man irgendwie noch status ausdrücken könne, selbst hübsche Felgen für den BMW kosten wahrscheinlich mehr und sind besser geeignet zum Angeben ;-)
 
Zuletzt bearbeitet:
JMP $FCE2 schrieb:
...die praktisch schon bei Erscheinen veraltet war.

Die 110nm-GPU war auf dem technischen Stand mit DirectX 9.0c Pixel-Shadern, AGP 8x und DVI-Schnittstelle.
Die hat ihre 3 Jahre gemacht und wurde dann durch eine 65nm GF 9600 GT (DirectX10) ersetzt mit viermal soviel GDDR3.
Die hat ihre 3 Jahre gemacht und wurde dann durch eine 40nm GTX 560 (DirectX11) ersetzt mit doppelt soviel GDDR5

Nach etwas über 10 Jahren Gesamtnutzungsdauer hatte ich dann insgesamt unter 500 € ausgeben für drei GPUs. Dann war dann Schluß mit Midrange und es kam die PS4 Slim für 1080p AAA am Preispunkt 250 €.

JMP $FCE2 schrieb:
Eine GTX 1070 für 500€ ist 6 Jahre später noch besser brauchbar.

Eine GTX 1070 ist heute de facto 16nm-Elektroschrott, aber geschenkt gibt es die deswegen nicht mehr. Bei eBay werden 250 € dafür aufgerufen. Für eine sechs Jahre alte GPU! LOL! 🤣 Selbst eine olle 1050 Ti kommt in 14nm daher, eine 1660 schon in 12nm.
 
  • Gefällt mir
Reaktionen: Stuffz
Wechsler schrieb:
Eine GTX 1070 ist heute de facto 16nm-Elektroschrott,
Hmm, ist sie das? Also ich hab jetzt natürlich nicht jeden Benchmark der Geschichte im Kopf, aber ist die nicht noch so auf dem Level einer 2060 und damit nur ein paar Prozent hinter der 3060 ;-)
 
  • Gefällt mir
Reaktionen: Öcher Tivoli und kolege
Es ist eine sechs Jahre alte GPU, gefertigt in einem sechs Jahre alten 16nm-Prozeß. Sowas hat man 2010 weggeworfen. Das ging bei eBay maximal für 10 € an "Liebhaber", deshalb habe ich die 6800 immer noch im Keller liegen.

Wenn eine 8nm-GPU kaum schneller ist, macht das die Sache ja noch lächerlicher.
 
  • Gefällt mir
Reaktionen: Stuffz
sebish schrieb:
Wow, toll! Meiner liegt mit 1 Person bei 3200kW/h im Jahr. Und jetzt?

Hier hast du einen Keks 🍪

sebish schrieb:
Diese Verbrauch-Fetischisten hier sind wirklich furchtbar. Ist das eine Art neue Unterkategorie technikaffiner Grüner? Für Enthusiasten zählt Verbrauch nur, weil man ihn wegkühlen muss.

DEN Enthusiasten gibt es nicht. Und gab es auch noch nie.
Verbrauchswerte, Effizienz, Kühlung, etc. sind bei allen Enthusiasten ein Thema.
 
  • Gefällt mir
Reaktionen: Petoschka, daknoll, windeskælte und 2 andere
MitchRapp schrieb:
Das kann ich mir persönlich einfach nicht vorstellen. Ich werde niemals bereit sein einen Controller zum Zocken zu nutzen.
Ach, musst Du auch nicht. Kann Dir aber nur raten es mal zu versuchen. Ist für so manches einfach das beste Eingabegerät. So wie auch Maus und Tastatur für z.B. Strategie.
 
  • Gefällt mir
Reaktionen: windeskælte
Für 2000 € hatte ich ein Auto gekauft...kann man wohl bald Auto gegen Grafikkarte tauschen.
 
  • Gefällt mir
Reaktionen: Stuffz
Av4tar schrieb:
...kann man wohl bald Auto gegen Grafikkarte tauschen.

Und dann stellt man beim Auftanken der Grafikkarte fest, dass auch die Spritpreise gestiegen sind ;)
 
Zuletzt bearbeitet:
Wechsler schrieb:
Die hat ihre 3 Jahre gemacht

Ich hatte die bessere 6800 GT, die war schon ein Jahr später beim ersten Engine-Update von HL2 (Lost Coast Demo) am Ende. Und auch HL2 habe ich damit nur in 1600x1200 gespielt, weil meine CPU ein noch größerer Bremsklotz war. Sonst hätte ich heruntergeschaltet, weil 40 fps für eine nagelneue 400€-GPU nicht wirklich toll sind. Und Gothic 3 (2 Jahre später) lief nicht mal auf der 7800 GT flüssig.

Wechsler schrieb:
Eine GTX 1070 ist heute de facto 16nm-Elektroschrott

Auf der ist nach 6 Jahren alles problemlos spielbar. Besser, als Gothic 3 auf der 7800 GT.

Die Kosten pro Monat sind heute wesentlich geringer.
 
  • Gefällt mir
Reaktionen: shaboo, .Ake, Öcher Tivoli und 2 andere
JMP $FCE2 schrieb:
Ich hatte die bessere 6800 GT, die war schon ein Jahr später beim ersten Engine-Update von HL2 (Lost Coast Demo) am Ende. Und auch HL2 habe ich damit nur in 1600x1200 gespielt, weil meine CPU ein noch größerer Bremsklotz war.
Du hast HL2 von 2004 also "nur" in Full-HD gespielt. Kann man machen, so wie man heute 8K verwenden kann, wenn man will. 😉

Der Mainstream für den Spiele-Entwickler entwickelten war bis 2005 480i60 (SD) und bewegte sich 2006 Richtung 720p30 (HD).

Am PC wurden bei mir 600p85 bis 768p85 (auf der 6800) verwendet, ging dann auf 960p85 (auf der 9600 GT) auf dem CRT und erreichte 1080p60 auf GTX 560 auf dem LCD, als es damit dann langsam zurück zu 720p60 ging, kam die Konsole her.
 
JMP $FCE2 schrieb:
Auf der ist nach 6 Jahren alles problemlos spielbar.

Absolut, für FHD reicht auch heute noch eine 1070. Und deshalb wird die auch noch relativ teuer gehandelt. Weil FHD vielen ausreicht. Das ist immer noch ein guter Kompromiss zwischen "günstig" und "gut aussehen".

Früher war das anders. UHD hat vier mal so viele Pixel wie FHD. Geht man von FHD nochmal um den gleichen Faktor runter, landet man ungefähr bei SVGA (800 x 600). Das sah im Vergleich zu FHD deutlich schlechter aus als FHD im Vergleich zu UHD, und deshalb war eine Grafikkarte damals relativ schnell Elektroschrott.

Ist ja bei Prozessoren auch nicht anders. Mit einem knapp 10 Jahre alten Haswell kann man heute immer noch halbwegs vernünftig arbeiten oder spielen. Vor 10 Jahren dagegen hat man mit einem 10 Jahre alten Pentium 4 (Singlecore, im besten Fall mit Hyperthreading) im Vergleich zu einem Haswell nichts mehr gerissen.
 
  • Gefällt mir
Reaktionen: shaboo, Apocalypse und .Ake
Kommando schrieb:
Ach, musst Du auch nicht. Kann Dir aber nur raten es mal zu versuchen. Ist für so manches einfach das beste Eingabegerät. So wie auch Maus und Tastatur für z.B. Strategie.

Stimmt durchaus, ist aber auch überbewertet für vieles gibt es auch abseits von Maus, Keyboard und Kontroller einfach bessere Eingabegeräte.

Wechsler schrieb:
Es ist eine sechs Jahre alte GPU, gefertigt in einem sechs Jahre alten 16nm-Prozeß. Sowas hat man 2010 weggeworfen.
Eine 6600 hab ich iirc in 2006 weggeworfen, die X800 XT hat auch nicht viel länger gehalten, 8800 sei dank. ;-)
Die 8800 hingegen hat dann 8 Jahre ihre Dienste verrichtet.
Es waren, vor der 8800 auch deutlich andere Zeiten was das Tempo der Entwicklung angeht. Entwicklungs-Zyklen bei Grafik-Engines waren nicht an Konsolen-Zyklen gebunden und GPUs an sich waren eine Brandneue Technology mit neuen Durchbrüchen alle 6 Monate. Alte Karten waren innerhalb von 2 Jahren kaum mehr etwas wert weil nicht nur die Fertigung so schnell vorrangeschritten ist, sondern auch weil die Architekturen und Softwareunterstützung rasant war. Eine alte Karte ist nie mehr Wert als eine neue Karte mit vergleichbaren Features und Leistung.
Das die Entwicklung viel langsamer geworden ist, bestreitet glaube ich niemand und das hat viele Gründe, aber am Ende sind die Dinge so wie so sind, und nicht wie man sie gerne hätte oder vielleicht wie sie mal früher waren.
Und eine 1070 ist eben auch heute noch eine Mittelklasse GPU, jetzt halt nimmr gehobene sondern untere Mittelklasse, so wie die 8800GTX auch ewig noch eine vollkommen ausreichende Karte für 1080p war, weil sie eben so etwa zweimal so schnell wie die Konsolen GPUs damals war und sich damals die Entwicklung nach dieser Karte recht stark verlangsamt hatte.

So gesehen, wäre die 4090 ja ein echter Kracher, wenn nur nicht das Preisschild drauf so hoch wäre.
 
Wechsler schrieb:
Der Mainstream für den Spiele-Entwickler entwickelten war bis 2005 480i60 (SD) und bewegte sich 2006 Richtung 720p30 (HD).

Die Fernsehnormen waren für den PC-Markt irrelevant.

Mit der ersten Geforce (Ende 1999) waren 1024x768 Quasi-Standard. Das Gekrümel darunter hat man sich bestenfalls noch angetan, um in Quake 3 die 125 fps dauerhaft zu halten.

1280x1024 waren wenige Jahre später auch üblich, das konnte jede etwas bessere 17"-Röhre. Aber auch dafür waren 6800 GT/7800 GT nach 2 Jahren zu schlecht.
 
  • Gefällt mir
Reaktionen: Stuffz, Apocalypse und .Ake
Apocalypse schrieb:
Sehr polemisch formuliert, aber ist es inhaltlich falsch?

Muss sich jeder schämen ein wenig mehr auszugeben, nur weil er sich es leisten kann und andere vielleicht nicht?
Man braucht sich auch nicht zu rechtfertigen. Jemand, der mit einem Lambo der Kudamm runter cruist, hat sicher auch seine "rationalen Beweggründe". Ich finde es sympathischer, wenn zugibt "egal, ich finde es geil und will es einfach nur haben".
 
  • Gefällt mir
Reaktionen: Apocalypse
Zurück
Oben