Test CPU-Skalierung in Spielen im Test: 6, 8 oder 10 CPU-Kerne schlagen 4 schnelle

Fänd's halt interessant, ab welcher Auflösung und welcher GPU die CPU immer unwichtiger wird.

Is man mit ner 1080 so gut aufgestellt, dass da mein 3570k z.B. schon sehr limitiert ?
Braucht man mit ner 1070 überhaupt ne bessere CPU, weil die eh egal is, da die GPU immer ab WQHD der limitierende Faktor ist ?

So etwas in der Art hätt' ich auch interessant gefunden.

Die Tests zu 720p/1080p brauch ich mir halt gar nicht ansehen, da ich so eh nicht mehr zocke.
Gut zu wissen, was ne nagelneue super CPU könnte, aber was bringt's, wenn ne 1070 im Rechner steckt und man in WQHD zocken will ?

Da is der Preisunterschied der CPUs halt manchmal enorm, um noch 2-4 FPS mehr raus zu kriegen.
Lohnt das ?
 
Der Ansatz von Chris ist für eine realistische Einschätzung schon nicht schlecht. Wenn es um den reinen Vergleich der CPUs geht, geht das natürlich nicht, weil dann viele im GPU-Limit hängen und nicht mehr vergleichbar sind.

Am besten wäre es also, noch mehr Auflösungen zu testen, damit für jeden was dabei ist. Aber bitte erst, wenn Ryzen draußen ist. :)

Andererseits findet man bestimmt auch einige GPU Tests im Netz. Und wenn da bestimmte CPUs, die der eigenen ähnlich oder unterlegen sind, nicht mehr ausgelastet werden, weiß man quasi auch Bescheid.
 
Zuletzt bearbeitet:
Genau das wird doch bei Grafikkartentests gemacht :freak:
 
EchoeZ schrieb:
Ganz genau. Die Spannung alleine sagt rein garnichts aus.
Beispiel: 2 absolut gleichschnelle Chips unterschiedlicher Hersteller haben eine maximale Leistungsaufnahme von 150W.
Chip 1: 150W= 1,0 Volt und 15A
Chip 2: 150W= 1.5 Volt und 10A

Jetzt bitte ich Dich @Skycrumb mir zu erklären, warum Chip 2 schlechter sein soll!
Nur das wir hier nicht von Ohmschrn Verbrauchern sprechen. Deine Annahme stimmt nur bei Ohmschen Verbrauchern. Die Tranistoren können nur mit einer bestimmten Spannung angesteuert werden. Diese hängt von Packdichte und die Qualität des Wafers ab.
 
Thanok schrieb:
Genau das wird doch bei Grafikkartentests gemacht :freak:

https://www.computerbase.de/artikel...hnitt_benchmarks_in_2560__1440_und_1920__1080

Also ich seh' hier keinen Test von verschiedenen CPUs mit verschiedenen Kernen/Threads.
Normal wird bei GPU Tests doch zwecks Vergleichbarkeit immer die gleiche CPU verwendet ?

(edit: z.B. so: https://www.computerbase.de/artikel...86/#abschnitt_das_neue_und_moderne_testsystem )

Kapier' jetzt nicht, wie Du das meinst.
 
Zuletzt bearbeitet:
Edward Newgate schrieb:
.......

Ich frage mich, ob ihr euch die Kritik der User zum letzten CPU Bench zu Herzen genommen habt oder ob es von Anfang an so geplant war :D
Eine gute Frage! Im Grunde ist auch noch nicht sicher, wie weit CB sich der Kritik angenommen hat. Das wissen wir erst, wenn wir auch die Benchmarksequenzen kennen. Ist aber schonmal ein guter Vorgeschmack:)
 
ChrisMK72 schrieb:
Die Tests zu 720p/1080p brauch ich mir halt gar nicht ansehen, da ich so eh nicht mehr zocke.
Gut zu wissen, was ne nagelneue super CPU könnte, aber was bringt's, wenn ne 1070 im Rechner steckt und man in WQHD zocken will ?

Bei den Tests kannst du aber auch höhere Auflösungen ableiten

Beispiel Anno 2205:
Ein 6900K schafft in 720p 130fps, in 1080p nur noch 125fps
höhere Auflösungen gehen eigentlich fast komplett zu Lasten der GPU, der 6900K könnte also auch in 1080p und theoretisch auch in 4K 130fps schaffen, die Titan X limitiert aber hier.

Ein i7-4770K schafft sowohl in 720p als auch in 1080p 86fps. Das bedeutet die Grafikkarte könnte mehr, aber egal ob 720p oder 4K, die CPU wird das Limit von 86fps halten.

Du müsstest also vergleichen, wie viel fps eine TitanX in 4K schafft und dann sehen, wie viel fps die jeweilige CPU in 720p schafft.
Der Wert muss dann über dem der GPU liegen, bei einer Planung von bis zu 5 Jahren am besten so weit, dass man auch mit einer 100% stärkeren GPU in Zukunft nicht durch die CPU limitiert wird.
 
Zuletzt bearbeitet:
D708 schrieb:
Nur das wir hier nicht von Ohmschrn Verbrauchern sprechen. Deine Annahme stimmt nur bei Ohmschen Verbrauchern. Die Tranistoren können nur mit einer bestimmten Spannung angesteuert werden. Diese hängt von Packdichte und die Qualität des Wafers ab.
Eine Spule, bzw Drossel des Spannungswandler ist immernoch unter Gleichspannung, auch wenn man von (Takt-)Frequenzen spricht fallen Dinge wie Blinstrom raus. Also ohmscher Verbraucher ;)

@Taxxor
Hab mich vllt unklar ausgedrückt, natürlich vertete ich die Meinung, wenn man ein Teil testet, darf nichts anderes limitieren. Das hättre hier aber keine ausschlaggebende Änderung gebracht.
Ich schrieb 'auch' eine Mittelklassegrafikkarte, nicht nur...
Wenn ich z.B. meine RX470 für 3-4 Jahre behalten möchte zeigt mit ein Test mit dieser, ob sich ein jetiges Aufrüsten für mich lohnt. Ich kann mir natürlich selbst ableiten, aber weniger Informierte eher nicht. Die denken (mutmaßlich) anhand des aktuellen Tests
"Ohh, wenn ich nun einen Ryzen 7 1800X (oder anderen 8-Kerner) kaufe, habe ich wahnsinnig mehr Fps.."
 
Zuletzt bearbeitet:
@EchoeZ: naja ich würde auch den weniger Informierten Leuten zutrauen, dass sie sich dazu die GPU Benchmarks ansehen und wie schon gesagt dafür sorgen, dass die FPS die die CPU erreichen könnte weit über dem liegen, was die aktuelle GPU kann.

Dass immer das schwächste Glied limitiert, sollte ja für alle klar sein.

Wenn man eine RX470 für 3-4 Jahre behalten möchte, reicht es ja aus, zu wissen, ob die geplante CPU genau so viel schafft wie die RX470, es sei denn, man plant, die neue CPU auch nach den 3-4 Jahren noch weiter zu nutzen, dann muss sie stärker sein.
 
Zuletzt bearbeitet:
@EchoeZ
Das siehst Du doch jetzt schon mit Deiner RX470. Wenn die RX470 Heute 100% ausgelastet ist, dann bringt Dir eine schneller CPU auch nicht mehr FPS, weil die GPU limitiert.
Ist Deine CPU voll ausgelastet und die RX470 langweilt sich, dann profitierst Du von Ryzen.
Warum müssen andere das für Dich herausfinden? Kommt ja auch sehr viel darauf an, was Du spielst und in welcher Auflösung.
 
ChrisMK72 schrieb:
Also ich seh' hier keinen Test von verschiedenen CPUs mit verschiedenen Kernen/Threads.

https://www.computerbase.de/artikel/grafikkarten/geforce-gtx-1080-test.54881/seite-8

Da wird bewusst eine alte CPU verwendet um zu zeigen ob eine alte CPU mit weniger Threads die Karten limitiert oder eben nicht. Tests mit zig CPU und GPU Kombinationen sehe ich persönlich nicht als sinnvoll an da ohnehin entweder GPU oder CPU limitiert - wieso soll ich dann 5 Grafikkarten mit einer CPU testen die bei der langsamsten schon limitiert?
Ich persönlich sehe halt keinen Sinn darin zig Setups zu testen nur um zu sehen dass sich das Limit irgendwann verlagert. Da sehe ich doch lieber wann das Limit bei der CPU und wann bei der GPU auftritt und kann mir den Rest denken.
 
Eben. Ein bisschen Eigenrecherche darf man ja schon erwarten, vor Allem weil die gewünschten Tests sehr viel aufwändiger ausfallen würden, nur um dem Nutzer 5-10 Minuten zu ersparen, sich einen CPU und einen GPU Test getrennt anzusehen.
Das es ab und zu mal gemacht wird, ist natürlich schön, aber zum Standard braucht es nicht werden.
 
immortuos schrieb:
Nein, denn die Turbos die du genannt hast beziehen sich immer nur auf einen Kern, GTA ist keine Singlecoresoftware. Ryzen taktet also deutlich niedriger als du hier berechnet hast, es ist alles eine Frage des OCs. Wenn Ryzen sich auf 4 GHz auf allen Cores takten kann (was ja nicht einmal beim 1800X @stock der Fall ist) könnte das anders aussehen, falls nicht hast du natürlich trotzdem Recht :)

Bei 7700K habe ich die Werte aus der Grafik entnommen. Der lief dann auch nicht auf vollem Takt. Bei 15% weniger beim 4790K bezog ich mich auch auf Stock. Dieser boostet dann alle Kerne auf 4,2GHz. Und die Ryzen-CPUs laufen dann nur auf rund 3,8GHz und ich muss da Leistung wegrechnen?

Ich bin langsam am Punkt, wo mir der 4790K zu schlecht wird. Mit meinen normalen Einstellungen habe ich Stellen, wo die FPS auf 45 runtergehen, wenn man bei GTA5 am Walk of Fame rumfährt oder 100-200m über der Stadt fliegt. Das ist dann schon ätzend, wenn man sonst 70 oder so hat und es absackt. Und bei meine Autorenn-Einstellungen stelle ich die CPU-Fresser Sichtweite und hochauflösende Schatten runter. Dennoch kann ich in Rennen dann bei diversen Strecken nicht durchgehend 100FPS halten und erst recht nicht 120. Wenn ich mir so die Auslastung ansehe, muss GTA5 doch umgerechnet 5 Kerne nutzen, kann jedoch HT nicht in Leistung umsetzen. Das habe ich getestet. Aber da Ryzen dann vermutlich minimal schlechter als der 4790K in GTA5 ist, ist entweder der Takt zu niedrig mit gleicher IPC wie Haswell oder das Spiel kann nichts mit mehr als 4 echten Kernen anfangen. Das wäre richtig erbärmlich von R*. Das ist jetzt die Frage, ob CPUs mit 6 Kernen von Intel was bringen, zum Beispiel Xeon E5-1680 V4 und I7 6800K. Zumindest haben die eine bessere IPC als Haswell und können höher boosten, weil ggf. nicht alle Kerne benutzt werden.
 
Zuletzt bearbeitet:
highwind01 schrieb:
...Stattdessen wird die verschwindend geringe Anzahl an Spielen "ge-cherry-picked", die wirklich mal von mehr als 4 Kernen profitieren ... vollkommen irrelevanten Grafikkarte kombiniert und dann bei der letzte-Jahrhundert-Auflösung 720p gebencht!

Hast du die CB-Einleitung gelesen?

Aber die Spiele und Treiber im Parcours sind zwei Jahre alt. Die Grafikkarte ist nicht mehr die schnellste. Der Parcours gehört zum Start von Ryzen überholt.

In Vorbereitung auf AMD Ryzen hat ComputerBase genau das getan und zur Beurteilung der Spiele-Leistung eines Prozessors zahlreiche neue Spiele, aktuelle Treiber und eine neue Grafikkarte herangezogen: Die Nvidia Titan X. Das GPU-Limit wird damit so weit es geht hinausgezögert. Gleichzeitig wurde das Testfeld um die für Ryzen 7 relevante Konkurrenz erweitert. Die bisher nicht in der Prozessor-Rangliste vertretenen CPUs Core i7-6900K (8 Kerne + Hyper-Threading) sowie Core i7-6850K (6 Kerne + Hyper-Threading) und AMDs bisher schnellste CPU, der FX-9590 mit 220 Watt TDP, wurden erstmals getestet.

Geh mit der Zeit oder du gehst mit der Zeit.
Und genau das hat CB getan!
Es wurde einfach ein neues Test Szenario gesucht, welches die Performance mit neuen Engines ermittelt um einen modernen neuen Testparcours zu bekommen.
Eine "letzte-Jahrhundert-Auflösung" eignet sich einfach sehr gut, um die wahre CPU Leistung zu messen, weil man nichts ins GPU-Limit rennt. (Was mit Titan X noch weiter nach hinten geschoben wurde)
Zukünftige Mainstream Grafikkarten werden irgendwann die heutige Leistung einer Titan X erreichen und dann wirst du deinen Ryzen 8-Kerner noch immer im PC haben.

Ich finde es gut, dass der Test angepasst wurde!
 
EchoeZ schrieb:
Eine Spule, bzw Drossel des Spannungswandler ist immernoch unter Gleichspannung, auch wenn man von (Takt-)Frequenzen spricht fallen Dinge wie Blinstrom raus. Also ohmscher Verbraucher ;)
Ein Ohmischer Verbraucher hat nichts mit der Spannungsversorgung zutun. Ein Ohmischer Verbraucher verhält sich unabhängig der Stromart. Ohmsche Verbraucher sind Verbraucher , die sich wie gleichbleibende Widerstände verhalten. Ein Transistor verhält sich nicht wie ein Widerstand sondern ist ein leistungsverbraucher.
Die höher Spannung in einer CPU braucht man auch nicht, weil die Leistungsaufnahme sich erhöht sondern damit die Transistoren noch angesteuert werden können, bei erhöhtem Takt.
Bei einem Takt von >5GHz braucht die Transistoren einen größeren Potenzialunterschied, damit sie ihren Schaltzustand ändern. Da liegt eben der Knackpunkt von Silizium. Klar kann die Transistoren verstärken aber dann stimmt die Packdichte nicht mehr und wir sind wieder bei CPUs so groß wie Häuser.

Der Elektrische Widerstand der CPU verändert sich durch die lastzustände. Ohmische Verbraucher ändern ihren Widerstand nicht( genau hier ist der Knackpunkt, es gibt keine Ohmischen verbraucher)
 
Zuletzt bearbeitet:
@D708: Ein Heizdraht ist ja auch nichts anderes, als ein ohmscher Verbraucher, haben wir zumindest so gelernt.
Ohmsche Verbraucher sind alle Verbraucher, bei denen keine Blindströme fließen.
Aber auch Ein Heizdraht ändert bei Wärme doch seinen Widerstand oder etwa nicht?
Deswegen gibt es doch Widerstandstabellen für Leitungen je nach entsprechender Umgebungstemperatur.
 
Zuletzt bearbeitet:
Ich habe bei solchen Artikeln immer so ein kleines Déjà-vu :D

Da bin ich vor einigen Jahren mal richtig fies nieder gemacht worden, als es darum ging, sich nun einen Q6600 als Pseudo-Vierkerner oder einen zu diesem Zeitpunkt ähnlich teuren Dual-Core E8400 zu kaufen. Der ja so viel besser wäre, weil ja Takt und so... Blabla.

Ich hatte mir dann trotzdem den Q6600 (G0) gekauft, auf bis zu 3,7 GHz übertaktet, war lange Zeit glücklich damit und konnte Dinge tun, die mit dem E8400 nicht oder nur eingeschränkt gingen. Man argumentierte damals auch mit Spielen, lustigerweise. Nur ist es so, dass die erneut wieder als Argument missbrauchten "alten Spiele" auch auf langsameren Kernen noch ausreichend laufen und man wirklich kaum Unterschiede merkt.

Den Q6600 konnte ich später mit deutlich geringerem Wertverlust auch wieder verkaufen. Wer zuletzt lacht und so :)
 
Zuletzt bearbeitet:
Ganz genau. Die Spannung alleine sagt rein garnichts aus.
Beispiel: 2 absolut gleichschnelle Chips unterschiedlicher Hersteller haben eine maximale Leistungsaufnahme von 150W.
Chip 1: 150W= 1,0 Volt und 15A
Chip 2: 150W= 1.5 Volt und 10A

Jetzt bitte ich Dich @Skycrumb mir zu erklären, warum Chip 2 schlechter sein soll

D708 schrieb:
Nur das wir hier nicht von Ohmschrn Verbrauchern sprechen. Deine Annahme stimmt nur bei Ohmschen Verbrauchern. Die Tranistoren können nur mit einer bestimmten Spannung angesteuert werden. Diese hängt von Packdichte und die Qualität des Wafers ab.

Das ist richtig und 1.0V und 15A sowie 1.5V und 10A ergeben auch keine 150W, sondern jeweils nur 15W ^^. Außerdem kommen auch noch weitere Systemspannungen (z.B. für RAM-Anbindung) im Prozessor vor.
 
oldmanhunting schrieb:
@EchoeZ...
Warum müssen andere das für Dich herausfinden? Kommt ja auch sehr viel darauf an, was Du spielst und in welcher Auflösung.
Für mich ja nicht, aber andere, selbst eingefleischte Foristen, erkennen z.B. nicht warum mit einer Titan in 720P getestet wird.
Dann gibt es ausserhalb des Forums mit Sicherheit auch Leser, die eben nicht erkennen daß bei einer Mittelklasse-Grafikkarte mit langer Nutzungszeit eine schnellere CPU kaum Vorteile beim Spielen bringt.

Falls Du das nicht verstehst ist es auch nicht schlimm. Ich werde oft missverstanden weil ich zum einen die Leute verstehe, die sagen i3/FX6 reicht aber auch die Ich-brauch-8C/16T@4GHz+. Ich reagiere eigentlich nur auf diejenigen, die mit Unverständnis kontern.
Wie "8Kerne sind überflüssig", oder "ein i3 ist zum Spielen untauglich". Beides falsch! ;)
Ergänzung ()

Krissiii schrieb:
Das ist richtig und 1.0V und 15A sowie 1.5V und 10A ergeben auch keine 150W, sondern jeweils nur 15W ^^. Außerdem kommen auch noch weitere Systemspannungen (z.B. für RAM-Anbindung) im Prozessor vor.
Aaaahrg.. erwicht! Touche ;)
..werds mal gleich editieren.
Das es Keine ohnschen Verbraucher sind ist aber falsch.


Das einzige was in einem PC Blindleistung erzeugt und msn die ohmschen Gesetze nicht anwenden kann, ist
die AC Seite (Trafospulen) des Netzteils. Hintern Gleichrichter gibt es das nicht mehr und es gelten ohmsche Gesetze!
 
Zuletzt bearbeitet:

Ähnliche Themen

  • Artikel Artikel
2
Antworten
35
Aufrufe
5.513
Zurück
Oben