News Kosten für Hardware: Ist eure Schmerzgrenze beim Gaming-PC erreicht?

Cerebral_Amoebe schrieb:
Zum Glück ist das nicht mehr so.
Drei Grafikschnittstellen (Glide, OpenGL, D3D) und ein Jahr später liefen die aktuellen Spiele nicht mehr zufriedenstellend auf der Grafikkarte, die das Jahr davor angeschafft worden ist.
Was denkst du denn, wo meine ganze fast geschenkte Hardware herkam? Irgendwer muß die ja neu gekauft haben. 🤣

Ohne wäre ich auch nie beim PC gelandet.
 
daknoll schrieb:
Mit einer 1070 will niemand mehr die aktuellen Spiele spielen. Das ist reine Schönrederei. Wer will schon alle Regler nach links schieben.
Zur Not, klar reicht das zum Zocken... Gerade für Spiele die man so abends mal mit Kumpels zockt, reicht ne 1070 und noch älter locker (Anno, Wreckfest, CS, Borderlands 2/3...). Ein Kumpel von mir ist aktuell da auch noch mit ner GTX 970 zufrieden.

Sicher geht damit kein 4k Raytracing @120fps. Aber braucht man das, um Spaß zu haben? Ich zocke (auch) auf nem Steam Deck, das sicher noch weniger Power hat und trotzdem macht es mir komischerweise Spaß... Bei aktuellen Games müssen halt die Settings runter gedreht werden, so wie man das als PC Gamer seit 30 Jahren schon kennt, wenn man nicht immer das allerneueste drin hat.

Der Unterschied zu damals ist wie gesagt, dass man mit ner 6 Jahre alten Graka überhaupt noch was halbwegs aktuelles zocken kann. Anfang der 2000er war der Unterschied von 6 Jahren so einer wie zwischen Geforce 3 Ti und besagter Geforce 7900 GTX, da lagen dann wirklich mehrere Welten zwischen. Spiel mal ein Oblivion auf ner Geforce 3. Ein Cyberpunk 2077 läuft hingegen wohl mit reduzierten Settings auf ner 1070.

Dass man gerne was schnelleres hätte will ich dabei nicht in Frage stellen, nur will/kann vllt. nicht jeder das Geld für hinlegen.
 
  • Gefällt mir
Reaktionen: Kommando, shaboo, Magnifico und 4 andere
R++ schrieb:
Einfach mal z. b. mehrere Youtube reviews (1070 in 2022) bemühen, bevor man unwahre Behauptungen aufstellt.
Ich hatte bis vor ca. eineinhalb Jahren eine Vega56 also in etwas die 1070 Leistungsklasse, traue mich daher auch eine Meinung dazu zu haben und diese auch zu vertreten.
Ich verbreite keine Unwahrheit sondern meine Meinung.
OK, nicht niemand will mit den Reglern links spielen, sondern sehr viele nicht.
 
Ich bin da auch etwas zurückhaltender bei dem Thema ich bin auch so ein „spontan“ Opfer was gerne mal viel Geld ausgibt. Ich hab dann im Anschluss oft ne kurze Zeit Kognitive Dissonanzen aber das geht ja immer mal vorbei.

Nur auch bei mir hat es sich etwas verschoben. Ich hab mir diesen Sommer 2 neue Rennräder gekauft und da waren schnell mal knapp 7000€ fällig. Die habe ich ehrlich gesagt ohne mit der Wimper zu Zucken bezahlt und auch da waren die Bikes eher ein Schnäppchen.

PC ist neben dem Fahrrad echt noch mein größtes Hobby und ich habe mir vor Corona das System in meiner Info unten zusammengestellt. Und ich habe mit Absicht gleich für meine Begriffe ordentlich auf den Tisch gelegt damit ich eben auch ne Zeitlang Ruhe habe. Allerdings wollte ich schon gerne ne 3080 haben, alleine schon wegen meinem Acer x34 Monitor. Aber ich muss zugeben ich achte schon sehr auf eine gewisse Relation was Preis/Leistung angeht und die war jetzt knapp 1 1/2 Jahre wirklich absolut miserabel.

Ich habe „noch“ viel Zeit zum zocken und genieße diese auch. Meine Frau ist zum Glück wesentlich jünger und Nachwuchs noch nicht geplant aber das wird mich schon auch noch treffen.

Ich weiß nicht wieso aber immer wenn ich wirklich kurz davor war den „Kaufen Button“ zu drücken habe ich es gelassen. Irgendwas im inneren sagt mir einfach „Nein“.

Ich werde mir schon eine 3080 holen, wird für dieses System das letzte Upgrade aber die werde ich mir hier aus der Bucht holen wenn ich ein gutes Angebot sehe und Glück habe.

Und ja früher hat mein erstes PC auch knapp 4000 DM gekostet Aber das war Anfang der 2000er und jetzt 22 Jahre später sollte normale Consumer Hardware nicht so viel kosten. Das ist hier alles keine Spitzentechnologie…. Sondern Zeug zum Zocken. Zumindest ist das meine Meinung, auch wenn man ne 4090 zum arbeiten nutzen kann.
 
  • Gefällt mir
Reaktionen: KAOZNAKE und BorstiNumberOne
Cerebral_Amoebe schrieb:
Der Yamaha CD-Brenner hat mich damals 800DM gekostet, kann man sich nicht mehr vorstellen.
Hehe 1000 für meinen ... ich weiß nicht mal wer was für einer er war? TEAC? Pioneer? Keine Ahnung, 50er Spindel gabs noch dazu für die 1000. Und 600 für die Voodoo2 + 300 oder 400 für die Matrox. Und ein Jahr später direkt noch ne neue Matrox marvel g400 für ... ich glaube so knapp 600 Mark.
Weil das rumspielen mit dem Videoschnitt interessant war.
Auf jeden Fall gabs damals viel zum Basteln für viel Geld. dabei hatte ich nicht mal ein Dual-Socket System um noch mehr Geld zu verblasen. Ach, die Zeit war schon schön, dot com Blase löst grüßen.

Heute hat man stattdessen eine Grafikkarte für 4-8 Jahre und nicht nur 6 Monate. ;-)
 
Ich werde das Gefühl nicht los, dass Nvidia wegfallenden Umsatz aus dem Bereich Mining auf Gamer umwälzt.
Allein dieses veranlasst mich, zurückhaltend gegenüber der 40er Serie zu bleiben.
Dennoch bleibt die Performance der 4090 respektabel. 2000€ für eine einzelne Komponente ist und bleibt aber einfach absurd.
 
  • Gefällt mir
Reaktionen: 7oNine, NDschambar, Stuffz und 2 andere
  • Gefällt mir
Reaktionen: DevPandi
Nick.Bo schrieb:
Das ist hier alles keine Spitzentechnologie…. Sondern Zeug zum Zocken. Zumindest ist das meine Meinung, auch wenn man ne 4090 zum arbeiten nutzen kann.
Das ist der Trugschluss, die 4090 benutz eben einen Chip der genau das ist: Spitzentechnologie. Sowas gabs früher maximal wenn man sich die SGI auf der Uni zum Quake spielen geschnappt hat, aber eben nicht für Consumer.
Jetzt bieten man halt die gleichen Chips im Consumer Design für viel Geld im Enthusiasten Segment an, genauso so beschnitten das nicht zu viele Menschen auf die Idee kommen könnten sowas statt einer Profi-Karte zu kaufen.
 
  • Gefällt mir
Reaktionen: Magnifico
Matrox Mystique, später G400 und Voodoo2 hatte ich auch.
Bei Nvidia und ATI hat man bei 2D Augenkrebs bekommen :D
 
  • Gefällt mir
Reaktionen: Apocalypse
SavageSkull schrieb:
Da vermisse ich aber die damalige Speerspitze mit 2,8-3Ghz. Die Preisreduzierung, die du verlinkt hast, betrifft ja die bereits älteren und langsameren CPUs.
Ein Athlon XP 2800+ steht nicht auf der Liste.
Den gab es da noch nicht. Der Athlon XP 2800+ mit 2 GHz erschien am 10.2.2003.
 
Ich denke, der Eindruck ist auch desalb so stark, weil uns daran gewöhnt hatten, dass sich Hardwarepreise trotz steigender Leistung in den letzten Jahrzenten unterm Strich eigentlich nur in eine Richtung bewegt hatten, nämlich nach unten - bzw. bei gleichbleibenden Preisen wenigstens ein Zuwachs an Leistung da war.
Seit einigen Jahren nun treffen hier mehrere Faktoren (z.B. Mining-Blase, Corona, teurere Halbleiter-Prozesse) aufeinander, die diese "Gesetzmäßigkeit" durcheinander gebracht haben.

Vielleicht wollen nVidia/AMD/Intel zudem was ähnliches versuchen, was vor Ihnen z.B. auch Kamera-Hersteller getan haben - weg vom Massenmarkt, der aus Gründen (bei den Kameras die für viele Leute ausreichenden Smartphone-Kameras) kollabiert, hin zum Premium-Segment für Enthusiasten.
 
  • Gefällt mir
Reaktionen: Apocalypse
Ich bin gut und gerne bereit zwischen 2.000 und 3.000 Euro für einen guten Gaming PC auszugeben, wenn dieser dann auch seine 5 Jahre ohne große Probleme mitmacht. Das sind 50 Euro die man monatlich anspart und alle 5 Jahre dann heraus haut. Zwischendrin kann man das Ding ja auch steuerlich geltend machen (sofern man das für die Arbeit etc. braucht) und / oder das Ersparte dann in ein Fond-Topf werfen, damit noch etwas Rendite abfällt. Da kommt man am Ende der 5 Jahre noch einigermaßen mit einem blauen Auge davon.

Ich weiß aber nicht ob ich die kommenden Runden noch weiter mitmache oder auf XBOX inklusive Gamepass umsattel. Immerhin kommt man hier deutlich besser bei weg, wenn man auf das Finanzielle schaut. Aktuell sehe ich die Entwicklung mit großen Stirnrunzlern an - der PC schafft sich selbst ab...
 
hübie schrieb:
Aktuell sehe ich die Entwicklung mit großen Stirnrunzlern an - der PC schafft sich selbst ab...
Das wurde schon zu oft gedacht!
 
.
El Zoido schrieb:
Vielleicht wollen nVidia/AMD/Intel zudem was ähnliches versuchen, was vor Ihnen z.B. auch Kamera-Hersteller getan haben - weg vom Massenmarkt, der aus Gründen (bei den Kameras die für viele Leute ausreichenden Smartphone-Kameras) kollabiert, hin zum Premium-Segment für Enthusiasten.
Eher nicht.

1. Das Geschäftsmodell von nvidia/amd/Intel funktioniert nicht bei kleinen Stückzahlen. Dafür sind die Entwicklungskosten viel zu hoch.

2. Die Hersteller von Kameras haben sich aus dem Massenmarkt zurück gezogen weil die verkaufszahlen weggebrochen sind. Statt ner kompakt knipse hat heute jeder ein Smartphone mit Kamera.

3. Schau dir mal das Steam Survey an. Alle Premium Karten zusammen gerechnet erreichen gerade mal einen niedrigen einstelligen Marktanteil. Quasi niemand kauft eine 3090 oder 4090 zum zocken. Die GTX 1060 hat einen höheren Marktanteil als alle xx80/90 zusammen.

4. Der Eindruck das diese Karten irgendwie relevant sind, entsteht lediglich dadurch das sehr viel über diese Halo Produkte in Foren gequatscht wird. Die meisten Leute, die Beiträge zur 4090 schreiben, werden diese Karte niemals kaufen.
 
  • Gefällt mir
Reaktionen: JMP $FCE2 und Cordesh
ArrakisSand schrieb:
Die RTX4090 ist ja bereits bei Erscheinen mit ihren altbackenen Displayport 1.4 und PCIe 4 Anschlüssen wieder veraltet, da frage ich mich wer für den alten Schrott noch 2000€ - 3000€ aus dem Fenster werfen will.
Da sollte man lieber auf Navi 31 warten der hat voraussichtlich Displayport 2.1 und PCIe 5.
.
Was redest du da von veraltet also bitte
Displayport 1.4 kann doch alle Auflösungen beteit stellen die man braucht
Pcie 4.0 reicht mehr als dicke aus das is man lange nicht am Limit....

Erst Informieren bevor man so einen Blödsinn schreibt und behauptet.....

Pcie 5.0 brauchen wir als consumer noch lange nicht
 
Thepunisher2403 schrieb:
Displayport 1.4 kann doch alle Auflösungen beteit stellen die man braucht
Jaja. Das konnte DP1.1 auch schon (sind dann zwar 4K mit 24Hz, aber hey, geht, wird bereitgestellt, Checkliste abgehackt, ne?).

NVidia hat schon bei meiner Graka DSC nicht implementiert (weil, hey, in DP 1.4 war das Ding nur optional, also egal, ne?), daher gehen 144Hz mit 4K nicht mit einem Kabel. Geile Leistung, NieWidea, wir bringen einen Chip in 2018 auf den Markt, der "optionale" Features aus dem in 2016 verabschiedeten Standard weg lässt.
 
Thepunisher2403 schrieb:
Was redest du da von veraltet also bitte
Displayport 1.4 kann doch alle Auflösungen....
Über PCI-E 5.0 lässt sich wohl diskutieren.....auch wenn man trotzdem keine alte Schnittstelle verbaut wenn schon eine neue verabschiedet wurde.
Aber DP 1.4, gerade mit steigenden Hardware-Leistungen, ist Schrott. Das da kein 2.0/2.1 genommen wurde ist bei den Preisen geradezu lächerlich.

Dazu kommen die krüppligen Speicherinterfaces inklusive mal wieder VRAM auf extra Sparflamme (naja eine 4080 mit 12GB wurde ja wenigstens zurück gezogen, aber selbst bei einer 4070 wäre das zu wenig).
Als Krönung noch das völlig absurde Fail-Design mit einem 2kg - 2,5kg Kühler auf der GPU.......so wie sie sich jetzt präsentieren, sind die 4000er Karten Müll......und hoffentlich ändert sich das noch, irgendwie (sonst kommt eh direkt der Refresh).
 
Stuffz schrieb:
Jaja. Das konnte DP1.1 auch schon (sind dann zwar 4K mit 24Hz, aber hey, geht, wird bereitgestellt, Checkliste abgehackt, ne?).
Eben ging es doch noch um DP 1.4 und du bringst als Beispiel, dass der veraltet ist, eine Limitierung von DP 1.1?

Mit DP 1.4 geht bis 4K120Hz oder alternativ 8K60Hz und entsprechende Monitore dürften bei den Wenigsten auf dem Schreibtisch stehen. Auch dürfte selbst die 4090 bei aktuellen und kommenden Spielen nicht in der Lage sein, in 4K entsprechend viele Bilder an den Monitor zu liefern. Ansonsten hat die 4090 ja noch 1x HDMI 2.1a, womit 4K144Hz geht und mit DSC sogar 4K240Hz oder 8K120Hz möglich wären.
 
Magnifico schrieb:
Eher nicht.

1. Das Geschäftsmodell von nvidia/amd/Intel funktioniert nicht bei kleinen Stückzahlen. Dafür sind die Entwicklungskosten viel zu hoch.


3. Schau dir mal das Steam Survey an. Alle Premium Karten zusammen gerechnet erreichen gerade mal einen niedrigen einstelligen Marktanteil. Quasi niemand kauft eine 3090 oder 4090 zum zocken. Die GTX 1060 hat einen höheren Marktanteil als alle xx80/90 zusammen.

Beide haben allerdings Synergie-Effekte mit anderen Firmenbereiche. Beide haben GPUs für Rechenzentren und wissenschaftliche Anwendungen. AMD hat zudem die iGPUs und Konsolen, nVidia hat GeForce Now, das sicherlich nicht mit AMD-GPUs befeuert wird. Und es heißt ja nicht, dass sie nur noch ein paar hundert X090 Ti Super+ verkaufen, sondern einfach, dass die günstigen Einsteiger/Mittelklasse-GPUs vielleicht verschwinden.

Das eine Karte wie die 1060 sich so groß verkauft, liegt doch eben auch gerade daran, dass sie (zusätzlich dazu, dass nVidia draufsteht), lange Zeit teils deutlich unter 300€ zu haben war und eine gute Performance für fullHD-Zocker bot.
Im aktuellen Aufgebot sind solche Karten eigentlich nicht mehr wirklich vorhanden (die RX 6600 kommt jetzt nach langer Zeit langsam in den Bereich), das ist doch gerade auch teil des Problems.
 
Zuletzt bearbeitet:
Zurück
Oben