Quit6975 schrieb:
Und bei WQHD und 4k machts eh null Unterschied ob 3D-Cache oder nicht
czmaddin schrieb:
kannste das mal kurz erklären?
Er meint damit, dass ab "realistischen" Auflösungen und Detaileinstellungen selbst deutlich schwächere Prozzis im Limit der fettestens Grafikkarte hängen. Die ewige Diskussion wie CPUs getestet werden sollen, schwingt da mit rein.
Radio Eriwan meldet dazu, dass das im Prinzip richtig ist, aber leider doch zu pauschalisiert. Zunächst einmal müsste der Kommentar lauten:
... machts aktuell eh null Unterschied...
Denn schon das nächste GPU-Flagschiff kann den entscheidenden Schritt machen. Zum anderen sind Benchmarks wirklich äußerst kurze Abbildungen des Spielegeschehens. Niemand weiß ob es in den Spielen Abseits der Benchmark Stellen gibt, an denen die CPU kurzzeitig deutlich mehr gefordert wird, als im Durchschnitt. Das nennt man Lastspitzen und Enthusiastenprodukte sollen genau auch in solchen Situationen möglichst liefern. Dann kann es sein, dass man mit 3D Cache nichts merkt (Leistungsreserven), man aber ohne Cache oder mit einem generell schwächeren Prozessor ins Straucheln kommt.
Autovergleiche werden hier gehasst wie die Pest, trifft es diesmal halt vielleicht ganz gut. Auf dem platten Land schaffen 100PS und 200PS Autos auf der Autobahn 200km/h, aber auf der A7 in Hessen schafft es nur der Wagen mit 200PS, die 200km/h auch an Steigungen zu halten, während der 100PS Autofahrer damit leben muss, dass er kurzzeitig mal auf 160 km/h fällt.
Oder nimm den HiFi-Bereich, wo man gerne Leistungen so um 150 Watt nimmt, obwohl man schon mit 10 Watt Lautstärken erreicht, die Nachbarn auf die Barrikaden treibt. Der Rest ist für den Moment, wo die Musik dem Verstärker besonders viel Leistung abverlangt. Ein 150 Watt-Verstärker kann das dann noch sauber wiedergeben, während der 50 Watt-Verstärker da abkackt und häßlichen verzerrten Lärm produziert.