Test CPU-Skalierung in Spielen im Test: 6, 8 oder 10 CPU-Kerne schlagen 4 schnelle

Blueeye_x schrieb:
Warum ist in den Tests kein i5 6600 oder i5 7600 dabei ? Sondern nur der alte i5 aus der 2. Generation ? Den hat doch kaum noch einer.

Das wage ich nebenbei bemerkt auch zu bezweifeln. Du darfst beim "Durchschnitts-Gamer" ja nicht unbedingt von den Signaturen im CB-Forum ausgehen.
Vermutlich stellen 6XXXer und 7XXXer-Systeme einen noch recht geringen Anteil in Gamer-Systemen dar. Vielleicht hat einer die Muße das zu googleln, Steam-Stats oder so. Aber ich würde mich wundern, wenn es anders wäre.

​@Post vor mir: Verdammt, da war einer schneller ;)
 
*hust* Ich nutze seit weit über fünf Jahren meinen 2600K. Gerade weil Aufrüsten bislang nicht wirklich gelohnt hat, wegen Kosten-Nutzen. Ryzen könnte das ändern.
 
Man stelle sich einen Reporter vor: "Herr Kasparaw, sie wurden ja heute wieder von der neuen Stockfish 8 64-bit Engine Schach Matt gesetzt, können sie uns noch sagen in wie viel FPS das in Full HD wie 720p war?"

Der stopft einem die Figuren doch glatt ins Maul, das interessiert die Welt der Strategiespieler nicht wirklich. Auch hier würde doch nur die Rundenzeit interessieren welche die KI gebraucht hat!

Man sollte mindestens immer ein gutes Schachcomputerprogramm mit in die Spiele-Benchmarks mit aufnehmen, das bringt den eigenen CPU-Benchmark nämlich vielleicht sogar schon mit, ist aber auch repräsentativ für andere Strategiespiele!
 
Wäre es nicht auch sehr wichtig zu messen wie sehr die Prozessoren ausgelastet sind? Mein Gedanke ist, dass wenn das GPU-Limit durch die Titan (weitgehend) verhindert werden kann, sich ja schon heute zeigen würde wie groß der Unterschied ist. Wenn schon heute beide im CPU-Limit laufen könnte man ja auch schon ne Antwort auf die Frage geben ob sich ein 8 Kerner für Gamer lohnt. Oder denke ich falsch? :P
 
Danke CB für den Test. Schön zu sehen das mittlerweile mehrere Kerne auch unterstützt werden.

Wollen wir hoffen, dass die Spielentwickler in Zukunft Mehrkernnutzung mehr ausbauen und somit kommende und vor allem auch vorhandene CPUs von Spieler endlich sinnvoll genutzt werden.
In 2017 sollte man eigentlich auch gehen das 99,9% der Spiele das können sollten, was leider nicht der Fall ist.
 
Skycrumb schrieb:
das jetzt schon krasse Spekulation. besonders weil es doch schon nen Foto gibt mit einem auf 5,1 GHz übertakteten Ryzen mit ~1,8V.

ich erwarte IPC gleich auf mit Intel und Volt auch in dem Bereich. Zudem laut den threads in HL der 7700K 4,8GHz bei 1,25-1,3V macht und nicht 1,35V stock, wo hast du das her? :confused_alt:
Du hast recht, voreingestellten VCore von Kaby war 1,3V. Allerdings gibt Intel an, nicht über 1,35V zu gehen, außer man möchte seine CPU schnell altern sehen.

Nen Kaby schafft auch nur bis 5GHz den Spannung einigermaßen im Rahmen zu halten. "goldene" 7700K geschaffen bei 5,1 GHz 1.37V. Dann hast du aber schon Glück gehabt in der Lotterie. Nach 5GHz geht's sehr schnell in den Harten Bereich. Der VCore "Verbrauch" steigt danach sehr steil an.
Bei dem Ryzen könnte es sich noch um ein Sample handeln. Dazu wurden am Anfang Samples des 1700 rumgeschickt(also Qualitativ nicht die Monster) Die Samples des 7700k übrigens waren auch nur bei 3,6Ghz und Turbo 4,2GHz.

Die VCore Spannung lassen schon Rückschlüsse auf den Verbrauch zu und anders herum auch. Deshalb bringt undervoltagen auch viel für den Verbrauch. Gerade weil sich die Architekturen von Intel und AMD sehr gleichen. Die x99 CPUs von Intel laufen auch mit deutlich niedrigeren Spannungen. Mein 5820k macht auch 4,4 GHz bei 1,2V mit. Wenn ich dem 1,3V gebe, wie dem Kaby, bekomme ich den auch in ähnliche Höhen.
 
Also das verlinkte Video zu CS GO und 300,400,500 FPS .. sorry Leute

Das ganze Video kommt einen schon sehr unprofessionell rüber ... schon allein das mit dem Widescreen .. das ist doch nur der Fall wenn das blöde Game diese Auflösung nicht gescheit unterstützt.
Andere Games zeigen mehr von der Map und strecken nicht alles.

für mich persönlich geht eigentlich nur - synchron & nativ zum Monitor, bin wohl sowieso zu alt für mehr AIMING SKILL .. wobei ich zugeben muss das der gute Mann im Video auch nicht der schnellste war.

Es wurde hier bereits genannt - es gibt sehr viele Faktoren.

Maus mit hoher Abtastrate, ein kompatibles Pad für die Maus. Manche Boards haben auch ein extra USB Anschluss für die Maus.
Ein Monitor mit 240 Hz, schnell Graka, ein sehr schnelle Reaktionsvermögen sowie optimale Hand-Augen-Koordination.

Ab einem gewissen Alter bekommt man auch ganz schnell auf den Sack.
 
Danke für den aktuellen Test.

Ich frage mich, ob ihr euch die Kritik der User zum letzten CPU Bench zu Herzen genommen habt oder ob es von Anfang an so geplant war :D
 
Thanok schrieb:
ich erspare mir jetzt mal dir Präzedenzfälle vorzulegen in denen die Nummer 1 keine 100% hatte- das gab es oft genug, auch wenn du es nicht wahrhaben willst.
Berechtigt ist lediglich die Frage weshalb man es manchmal auf 100% anpasst und manchmal nicht.

Interssant, gestern sagtest du du suchst welche raus, wäre kein Problem ich sol dir nur Zeit bis morgen geben.
Heute sagst du du sparst dir, diese vorzulegen.

Wie gesagt die ich habe gestern alle möglichen tests durchgesehen. Bei allen war entweder der oberste bei 100% auch wenn er nicht in allen einzeltests der beste war, siehe mein Beispiel. Oder bei Tests in denen es um ein einzelnes Produkt geht, wird dieses mit 100% festgesetzt und die Sachen darüber haben dann über 100%
 
Zuletzt bearbeitet:
bensel32 schrieb:
Die FPS sind bei einem CPU-Test eher Nebensache.

StefVR schrieb:
Ich mag einfach die CB Tests nicht besonders sorry. Wirklich interessant sind nur die min fps und die bitte noch um Ausreißer bereinigt, das zaehlt fuer das Spielerlebnis und sonst nichts. Gamersnexus zB sind da viel weiter... wenn eine CPU 200 fps faehrt im Schnitt aber alle paar sek auf 30 geht ist die viel schlechter als CPU b die im Schnitt 150 fps faehrt aber nie unter 60 geht um es in extremen auszudrücken ...

Da bin ich ganz bei Euch und rezitiere mich mal selbst:

EchoeZ schrieb:
Anhang anzeigen 608953

Hm. Ich seh' da gleichwertig hohe Werte bei den AvgFPS, obwohl der Ryzen deutlich weinger Maxfps und etwas niedrigere MinFps aufweisst. Ein Frameverlaufsdiagramm würde zeigen, daß die AMD CPU weniger oft im niedrigeren Bereich unterwegs ist, wie die Intel CPU seltener im Bereich der MaxFps.
Was nützt ein langer Balken, wenn dieser Wert eher selten erreicht wird?
Bei PCGH werden nur AvgFps und MinFps gezeigt...Denkt hier mal die grünen Balken weg, wie sieht's dann aus?



Skycrumb schrieb:
das jetzt schon krasse Spekulation. besonders weil es doch schon nen Foto gibt mit einem auf 5,1 GHz übertakteten Ryzen mit ~1,8V.

ich erwarte IPC gleich auf mit Intel und Volt auch in dem Bereich. Zudem laut den threads in HL der 7700K 4,8GHz bei 1,25-1,3V macht und nicht 1,35V stock, wo hast du das her? :confused_alt:

sasparilla schrieb:
das ist auch so eine sache. Es wird einfach von der vcore spannung direkt auf die Leistungsaufnahme geschlossen. das ist käse.

Ganz genau. Die Spannung alleine sagt rein garnichts aus.
Beispiel: 2 absolut gleichschnelle Chips unterschiedlicher Hersteller haben eine maximale Leistungsaufnahme von 150W.
Chip 1: 150W= 1,0 Volt und 150A
Chip 2: 150W= 1.5 Volt und 100A

Jetzt bitte ich Dich @Skycrumb mir zu erklären, warum Chip 2 schlechter sein soll!


edit: Der einzige Grund wo man von einer höheren Spannung auf einen schlechteren Chip schliessen kann, ist wenn man 2 identische Chips eines Herstellers hat, wo der erste 5GHz mit 1,5 Volt erreicht, und der zweite Chip die 5GHz nur mit 1,6V packt. Da ist Chip 2 schlechter
 
Zuletzt bearbeitet:
eQ^ schrieb:
Sehr interessant, man sollte aber bedenken, dass die meisten Spiele eben GPU-limitiert sind.
Du darfst aber die Nutzungszeit eines Rechners bei der Argumentation nicht außer Acht lassen. Exkl. der GPU kann ein (Gaming-) Rechner heutzutage problemlos 4-5 Jahre (oder länger, mein 3930K@4,3GHz ist jetzt im 6ten Jahr) im Einsatz bleiben. Wenn man jetzt zb. alle 18-24 Monate die GPU aufrüstet, dann wird mit jedem GPU-Upgrade auch die Leistung der CPU wichtiger. An der GPU-Limitierung der meisten Spiele ändert das nichts, aber an den Ansprüchen die die neuen GPUs an die ("alte") CPU stellen.

Beim PC-Kauf bzw. der Kaufberatung wird mMn viel zu oft auf den aktuellen Zustand geschaut. Dabei werden die wenigsten User über die gesamte Laufzeit ihres PCs Spiele und Anwendungen darauf laufen lassen, die älter sind als ihre Hardware. Ergo ist es essentiell wichtig, bei der Kaufentscheidung die potentielle Entwicklung der Software für die nächsten X Jahre (X= angestrebte Laufzeit des PCs) vorherzusagen. Und da das sehr schwierig ist, kann es bzgl. CPU (und zb. auch RAM- bzw VRAM-Menge) durchaus sinnvoll sein, auf ein Modell zu setzen, was aktuell mehr als nur "ausreichend" ist, auch wenn das den PC-Kauf dann vielleicht um 10% im Preis steigen läßt.

Dazu kommt, das fast alle nur auf FPS-Balken schauen. Viel wichtiger für das Spielerlebnis ist aber die Kontinuität der Bildausgabe. Siehe Frametimes, Ruckler/Mikroruckler. Hier hat der CPU-Cache ebenfalls einen großen Einfluß. Auch auf die allgemeine Leistung wirkt der Cache sich mitunter sehr stark aus. Siehe zb. Benchmarks von Intel-CPUs mit 128MB Cache, die rechnen teilweise ihre bis zu 1GHz schneller getakteten jüngeren Geschwister in Grund und Boden.

Das ein Hexa- oder Octa-Core nicht nur mehr Kerne, sondern auch doppelt bis drei mal so viel Cache hat (oder zb. beim Sockel 2011 auch die doppelte RAM-Bandbreite), das wird aber in der Regel einfach ignoriert. Dabei haben diese Komponenten auch dann einen Einfluß auf die Performance, wenn die Anwendung nicht mehr als 4 Kerne nutzt. Das ist auch der Grund, warum zb. ein 5 Jahre alter (ggf. übertakteter) 3930K in einigen Spielen zwar niedrigere FPS haben, aber trotzdem ein flüssigeres/runderes Spielerlebnis bieten kann (weniger Ruckler/MR), als ein neuere und höher taktender Quad-Core.

Und zuletzt das Thema HT. Viele User denken, wenn ein Quad-Core 4C/8T hat, dann ist die Leistung bei einer Anwendung die 5-8 Threads nutzt auch nicht schlechter, als bei einer CPU mit 6 oder 8 echten Kernen (6C/12T bzw. 8C/16T). Das ist aber ein Trugschluss. Das mag bei manchen Anwendungen (die an virtuelle Kerne bzw HT angepasst sind) durchaus hinkommen, ist aber in der Regel falsch, da ein echter Kern ca. 70-80% mehr Leistung bietet, als ein virtueller Kern.
xdave78 schrieb:
normalerweise ist der Blick nach vorn gerichtet wenn man sich neue Hardware kauft.
Tja, bei vielen User ist er das leider nicht.
Caramelito schrieb:
In 2-3 Jahren schon hat meine nächste GPU locker die Leistung der Titan
Genau das bedenken viele nicht beim Kauf/Bau eines neuen PCs, oder bei der Kaufberatung. Da wird bzgl. CPU immer mit "reicht noch" argumentiert. Zu den Zeiten der Single-Core über Dual-Core bis zu Quad-Core war das noch nicht so "falsch" wie heute, da diese Schritte in relativ kurzer Zeit passierten (2-3 Jahre), und der "Aufrüst-Zyklus" kürzer war. Wer aber, wie "wir", seinen PC exkl. GPU gerne die nächsten 4-5+ Jahre behalten möchte, der sollte natürlich auch ein Stück weit (dem Budget angepasst) berücksichtigen, welche Ansprüche die nächste und ggf. übernächste GPU an seine CPU stellen wird.

Genau deswegen rollen sich mir bei der "reicht noch" Argumentation auch immer die Fußnägel hoch. Ab einem gewissen Budget ist "reicht noch" ein ganz schlechtes Argument bzgl. CPU-Auswahl bzw. -Empfehlung.
highwind01 schrieb:
...das ganze wird mit einer am Endkundenmarkt vollkommen irrelevanten Grafikkarte kombiniert und dann bei der letzte-Jahrhundert-Auflösung 720p gebencht!
Genau solche User meine ich. Die einfach nicht verstehen (wollen/können?), das man für das oben beschriebene genau so CPUs testen muß. Einen Octa-Core mit einem Spiel zu testen, das nur 4 Kerne nutzt, und dann am besten noch mit einer GTX970 (und vielleicht noch in 2-4K), das erlaubt absolut 0 Rückschlüsse auf die potentielle Leistung einer CPU. Da spielt es auch keine Rolle wer heute welches Game spielt.
 
Zuletzt bearbeitet:
INU.ID schrieb:
+1

Genau solche User meine ich. Die einfach nicht verstehen (wollen/können?), das man für das oben beschriebene genau so CPUs testen muß. Einen Octa-Core mit einem Spiel zu testen, das nur 4 Kerne nutzt, und dann am besten noch mit einer GTX970 (und vielleicht noch in 2-4K), das erlaubt absolut 0 Rückschlüsse auf die potentielle Leistung einer CPU. Da spielt es auch keine Rolle wer heute welches Game spielt.
Deswegen wäre es gut, in einen CPU (Spiele-)Test auch mal ne Mittelklassegrafikarte für die weniger Fundierten UND auch OC (incl. schnellerem RAM für Sandy z.B.) für die Enthusiasten zu benchen. Wird ja eigentlich auch gemacht, nur leider nicht immer.
 
@EchoeZ: Der Grund warum das nicht gut wäre wurde doch jetzt schon genannt.
Was bringt dir ein solcher Test außer dem Ergebnis, dass jede CPU im Testfeld mit einer GTX 970 60fps schafft?
Auf der Basis weißt du nichts über die Unterschiede der Leistungen wenn du dir später eine neue Karte holst.


Wohingegen du für das was du wissen willst ja einfach gucken kannst was eine 970 in Spiel X erreicht und dann im CPU Benchmark sehen wieviel die CPU schafft. Die CPU sollte Mal wenigstens 50% mehr FPS schaffen als die GPU, ansonsten wird es bei der nächsten oder spätestens bei der übernächsten GPU Generation, sprich in 1-2 jahren nicht mehr ausreichen
 
Zuletzt bearbeitet:
Fast schon bestürzend, dass vor diesem "Benchmark für Ryzen" die Welt auf CB noch eine Scheibe war.
Die alten Benchmarks waren mittlerweile asbach uralt und vollkommen unbrauchbar. :(

Ab 2.3. werden dann die Ryzen-Balken dazu noch eingeblendet und fertig ist die schöne neue Welt! :D
 
Wie sieht's denn mit höheren Auflösungen aus ?
Full HD wird doch immer weniger gespielt, mit der Zeit.
Und wenn die Auswahl extra aktuell und zukunftsfähiger sein soll und nicht nur ein Rückblick in die Vergangenheit(aktuell zock ich nicht mal mehr in Full HD auf meinem Notebook, was schon WQHD hat), sollten doch die Auflösungen auch langsam mal nach oben angepasst werden, oder nicht ?

Is ja schön und gut, wenn man sieht, wie es in 720p, oder 1080p theoretisch sein würde.
Aber wenn man dann in WQHD, UWQHD, oder UHD, bzw. noch höher zockt, sagen diese Tests doch einfach gar nichts aus.

Is ja toll, wenn man die GPU Beschränkung für den CPU Test eliminiert, doch praktisch ist das doch Quatsch, da die GPU Beschränkung in der Realität doch nun einmal da ist.

Macht ja keinen Sinn, wenn man sich an theoretischen 720/1080 Tests orientiert und dann in echt in WQHD, UWQHD, oder UHD ganz andere Ergebnisse hat, wie man echt zockt.

Was ich meine währen z.B. realistische Tests.
Evtl. ein Test in Full HD mit GTX 970, ein Test in WQHD mit GTX 1070, ein Test in UWQHD mit GTX 1080 und einer in UHD mit Titan.

Ein Echtes Bild, wie man zocken würde, wäre auch nett.

Halt zusätzlich zu den theoretischen.

Glaub kaum, dass 720p jetzt aktuell die gängige Auflösung ist.
 
Zuletzt bearbeitet:
ChrisMK72 schrieb:
Wie sieht's denn mit höheren Auflösungen aus ?
Da rücken die CPUs immer näher zusammen weil die Grafikkarte limitiert. Wenn du hohe Auflösungen sehen willst dann schau dir Grafikkartentests an, da will man schließlich dass die Karte ans Limit kommt.
Wenn man reine CPU-Leistung vergleichen will kann die Auflösung nicht niedrig genug sein.
 
Wie soll man denn die CPU Leistung herausfinden wenn man bei hohen Auflösungen im GPU Limit läuft?
Was bringt mir die Aussage, dass bei WQHD, UWQHD, oder UHD egal ob Intel oder AMD wir 70 FPS erreichen, Die GPU auf 100% läuft aber die CPU sich langweilt.

Der Verbrauch wird nicht so schlecht sein, weil ja mit einer NVidia GPU getestet wird. :p
 
D708 schrieb:
Nen Kaby schafft auch nur bis 5GHz den Spannung einigermaßen im Rahmen zu halten. "goldene" 7700K geschaffen bei 5,1 GHz 1.37V. Dann hast du aber schon Glück gehabt in der Lotterie.

Es gab im Luxx auch schon einige 7700k die 5 GHz bei 1,2V gemacht haben, 1,37 V für 5,1 sind sicherlich nicht "goldene" 7700k's...
 

Ähnliche Themen

  • Artikel Artikel
2
Antworten
35
Aufrufe
5.513
Zurück
Oben