Das ist keine wirkliche Leserfrage, aber vielleicht trotzdem ein Gedanke wert.
Mir fällt in anderen Beiträgen immer wieder stark auf, dass die Leute richtig haten, wenn „nur“ 8% mehr Leistung bei einer CPU am Ende des Tages steht.
Korrigiert mich wenn ich einen Gedankenfehler habe, aber real Betrachtet sind das doch richtig grosse Summen.
Wenn wir jetzt ab 2000 die CPUs betrachten und der Leistungssprung einer reihe (sagen wir jetzt mal immer das Topmodell) immer im Schnitt bei 10% lag. Ist es ja wie beim Zinses Zins. Ich meine alle 2 Jahre eine neue CPU Heneration. Das wären jetzt 12 Generationen. Sagen wir das die CPU von AMD im Jahr 2000 , ein Leistungsscore von 1.000 Punkte hatte, dann hat die CPU im Jahr 2002 1.100 Punkte geschafft. Also ein Plus von 100 Punkten zum Vorherigen Prozessor.
Spring wir jetzt auf die Generation des Jahres 2022, dann wäre diese Punktescore bereits bei 2.853 Punkten Gesamtleistung.
Der Sprung die 2024 Generationen wäre dann mit 10% volle 285 Punkte auf 3183 Punkte.
Ich habe das Gefühl, dass die Leute durch die % Angaben das Gefühl verloren haben wieviel besser die Hardware wirklich wurde.
Den Umgekehrten effekt sehen wir bei Bankkonten. Da denken die meisten, dass 1,5% Zinsen voll viel wären, aber verstehen nicht, dass sie eigentlich durch die Inflation Geld verlieren.
Wie gesagt. Vielleicht betrachte ich das falsch, aber für mich ist den Leuten gar nicht klar was hinter 20%, 30% oder gar 50% geforderter mehrleistung wirklich steckt.
Vielleicht
@Vitche oder
@Jan könnte das Thema ein eigener Beitrag Wert sein. Das Problem gibt es ja auch bei Grafikkarten.
Vielleicht passt mein Gedanke aber auch nicht zum FPS Geist dieser Zeit. I dont know. Ich finde nämliche auch 60FPS noch toll zum Spielen.