CPU hunger der spiele in den letzten Jahren

ronny_kruse

Lt. Junior Grade
Registriert
Sep. 2014
Beiträge
468
hab mich gerade so ein bisschen durch die benchmarks hier geklickt und hab festgestellt, dass ein Phenom II X4 965, der laut geizhals.de zur markteinführung im Januar 2010 (also vor ziemlich genau 5 Jahren) 160 € gekostet hat, heute nur um ~35% weniger FPS liefert, als ein aktueller core i5 zum gleichen Preis, und das selbst bei einer herabgesetzten auflösung auf 640x480, um ein limitieren der grafikkarte auszuschlissen. gerade in einem solchen szenario sollte der unterschied doch gerade besonders hoch ausfallen. beide haben 4 kerne, 4 threads und 6MB l3 cache. freilich ist der neue core i5 um welten sparsamer und in der disziplin "anwendungen" fällt der unterschied deutlich höher aus, aber gerade mal 35% in 5 jahren sind doch sehr wenig fortschritt.

da stellt sich doch die frage, woran das liegt? an den spielen, die ja faktisch nur noch konsolenports waren? dann könnte sich ja mit der neuen generation an spielkonsolen besserung einstellen. oder doch das faktische intel-monopol, denn seitdem hat AMD ja nun nicht mehr wirklich in dem bereich geliefert. vermutlich so eine eine mischung aus beidem. bin mal gespannt ob jetzt, da die PS4 und XBOX One ja mit nem 8kerner ausgestattet sind der kernhunger auch bei den pc-games wächst. andererseits hat sich das bei der ps3 (die ja auch glaub ich nen 8kerner hatte) und der xbox 360 (mit einem 3 kerner, der zur markteinführung der xbox 360 aber auch über dem pc-"level" was kerne angeht lag) wohl im nachhinein betrachtet auch nicht so wirklich durchgeschlagen.

naja just my 2 cents, discuss ;)
 
so isset ronny
 
Zuletzt bearbeitet:
das hat nix mit den Konsolen zu tun.
Intel kann gemächlich tun
denen reichen 5% Mehrleistung und 20% Stromersparnis pro neuer Generation.
So können se sich mehr auf den Mobilen Bereich Konzentrieren, da schwimmen denen ja gerade die Felle weg.
AMD kommts gerade recht, dann können die noch mithalten.

Marktwirtschaft, nix weiter.
 
Zuletzt bearbeitet:
Nun ja, seit vielen Jahren verschiebt sich die Last von der CPU in Spielen zur GPU. Wer etwas älteren Jahrgangs ist, der wird sich noch erinnern wie das früher war. Das bedeutet natürlich, dass auch eine ältere CPU durchaus noch mehr als ausreichend ist. Natürlich gibt es ein paar Ausnahmen, aber im Großen und Ganzen ist es so.

Und an den erhöhten Bedarf an vielen CPU Cores durch die CPUs der aktuellen Konsolen glaub ich noch nicht so richtig, aber da lass ich mich gerne eines besseren belehren. Ich glaube, dass das so oder so kommen wird, irgendwann, und die Konsolen das jetzt vielleicht etwas vorantreiben, aber nicht sofort in diese Richtung kippen lassen. Die Konsolen haben diese CPUs ja auch nicht nur wegen dem aktuellen Bedarf, sondern für die Zukunft, da die Hardware länger halten muss.
Wenn man aktuelle CPUs stark auslasten würde, für ein Spiel, dann bekäme man da in 98% der Fälle eine Menge an Rechenleistung, mit der man nichts anfangen könnte.

Die Thematik Intel vs. AMD sehe ich daher als völlig irrelevant. Die CPUs sind meistens sowieso schnell genug und keineswegs ausgelastet. Wenn sich Intel jetzt nicht länger zurücklehnt und wieder schnellere CPUs bringt, im Vergleich zu den Vorgängern, dann würde das genau nichts ändern, weil die Softwareentwicklung ja heute schon nichts mit der Leistung anfangen kann.
 
Zuletzt bearbeitet:
Was hier bisher nicht betrachtet wurde: Die Leistung pro Watt - die ist signifikant gestiegen.
Die Leistung kann sich pro Jahr natürlich nicht Sprunghaft verändern, jedoch kamen mit jeder Generation auch neue Features hinzu von denen Spiele vielleicht jetzt nicht direkt profitieren.
 
florian. schrieb:
Intel kann gemächlich tun
AMD kommts gerade recht, dann können die noch mithalten.

Naja ich glaube ja nicht das Intel mit absicht nur so geringe verbesserungen macht. Die können es einfach nicht besser.
Wo kann denn AMD noch mithalten? Die sehen von Intel doch schon seit jahren nur noch die Rücklichter. Das wird sich auch denk ich mal nicht mehr ändern. AMD hat doch angeblich den kampf schon lange aufgegeben.

Mein Phenom II X6 schafft es bei Farcry 1 nicht mal in den 2 Stelligen Fps bereich zu kommen wenn Schatten aktiv ist. :lol:
 
dann tuts mir leid,
selbst der htpc mit a4 @2ghz bzw. igp @ 480mhz schafft fc1 max out @720p einwandfrei,
unter wine
:lol:
 
Hallo zusammen,

@ ronny_kruse

Es ist ganz einfach. Die Spiele sind mittlerweile bis auf wenige Ausnahmen eher GPU-lastig. Was früher mal mehr als anders war. Wie ein Vorredner mehr als treffend anmerkte. Und das ist die Hauptursache.

@ Nureinnickname!

Von ca. dem Jahr 2000 an war AMD bei den CPU führend. Da war es genau entgegen gesetzt zu Heute. Bis 2006, als Intel die Core-Familie rausbrachte, was nichts anderes war, als im Prinzip das Design der Mobil-CPU`s auf den Desktop zu bringen. Intel konnte damals nicht mehr anders. Seitdem ist Intel Technologisch vorne.

Das wird sich erst wieder Ändern bzw. AMD wird da erst wieder eine Chance haben, wenn sie ein Neues CPU-Design fertigen. Und das wird bis 2016 auf jeden Fall nicht Passieren.

So long....
 
Man muss die Ergebnisse von CB auch ein wenig relativieren. Getestet werden AAA Spiele, die durch die Grafikpracht eher mit der Grafikkarte skalieren. Hinter den Spielen steckt ein großes Budget und Optimierungen sind damit sicherlich leichter.

Edit:
Gerade erst gesehen. CB gibt ja auch minimum FPS in den Einzelbewertungen an. Da ist der Unterschied schon um einiges größer.
 
Zuletzt bearbeitet:
das problem ist, hast du ne schnelle cpu, bedeutet das zwangslaeufig nicht das man auch mehr fps bekommt , andersrum hast du eine zu schwache cpu ist es nahezu ( gibt ausnahmen) so das die selbst die potenteste grafikkarte nicht die leistung bringt die du haben solltest.

fazit:highend cpu kein garant fuer viel fps , aber cpu power notwendig wenn du eine entsprechende highendkarte im vollen leistungsspektrum nutzen willst. HiSN hat da genug tests gemacht, schaus dir mal an
 
Zurück
Oben