Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

Chillaholic schrieb:
nachjustieren und 5Ghz laufen wohl nicht mehr stabil.

Was ich noch vergessen habe zu erwähnen, am Ende zählt natürlich auch die Leistungsaufnahme welche mit steigender Spannung halt steigt. Bin mal gespannt wann die ersten mit instabilen CPUs hier im Forum anzutreffen sind bei denen Stock nicht mehr geht.
 
PhoenixMDA schrieb:
Na lade mal das CB Savesgame und wussel mal so richtig über die Map mit schnell drehen zoomen etc. ;)
Von wuseln hat niemand was gesagt, ich teste so wie die anderen auch^^
Hab leider knapp verloren^^
720p Max, AA off
CX_2020-05-20_21-30-40_Anno 1800_.png


Hab übrigens gerade noch mal meinen Bench geschaut, den ich beim Kauf des 3700X gemacht hab, da hatte ich 57.3fps in 1440p "Sehr Hoch", hat sich also gut gehalten und zeigt auch, dass es über die Auflösungen hinweg konstant ist^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: howdid, Esenel und Mcr-King
Ned Flanders schrieb:
Ok, das ist witzig, weil genau die, die immer nach 720p schreien die gleichen sind, die sagen das selbst in WQHD die CPU noch limitiert.

:freak:

Bei dieser Logik bin ich halt einfach raus....sry
Naja, die 720p Tests kann man als maximalen Wert betrachten. Nehmen wir an die CPU schafft dort 90 FPS in diesem einen Spiel. In 5 Jahren kaufst du dir vielleicht eine neue top GPU, hast mittlerweile einen 4k 165Hz Monitor und möchtest das alte Spiel wieder zocken. Obwohl deine GPU locker 200 FPS in 4k schaffen würde, kommst du trotzdem nicht über 90 bis 95 FPS. Wenn SLI gut supportet wird bekommst du den Effekt ggf. schon jetzt bei aktuellen Titeln und nicht erst in 5 Jahren. Eine andere Argumentation wäre, du kannst deine CPU länger nutzen und wärst weniger genötigt in absehbarer Zeit wieder aufzurüsten.
 
  • Gefällt mir
Reaktionen: Der Paule, KlaraElfer, .Sentinel. und eine weitere Person
DriveByFM schrieb:
Ein neuer Gaming King ist geboren aber zu welch ein Preis. :D

Naja zumindest kann man wieder 1000 Watt Netzteile wieder gut verkaufen. 😉 😅

Danke Intel für nix neues. 😉
 
Mcr-King schrieb:
Danke Intel für nix neues. 😉

Nah, ganz stimmt es ja nicht. Man bekommt halt 10 Kerne, aber für Gaming tat es auch der 9900k und den würde ich immoment auch präferieren. Die 2 Kerne mehr bringen zu selten was aktuell.
 
Taxxor schrieb:
Von wuseln hat niemand was gesagt, ich teste so wie die anderen auch^^
Hab leider knapp verloren^^
720p Max, AA off
Anhang anzeigen 921599
Das ist trotzdem schon sehr gut, kannst mir glauben, ich hab´s mal auf die Spitze getrieben, ich halte immer über 60FPS im absoluten Extremfall, aber mit was für OC Einstellungen, wenn ein gut übertakteter AMD da immer über 45FPS schafft, würde ich so ca. schätzen im Extremfall, ist das mehr als gut.
Aber mehr wird da nicht drin sein.
 
Fazit: solange man keine aktuelle Ti Grafikkarte hat um wirklich das letzte bisschen Leistung rauszuquetschen, brauch man die eh nicht...
 
  • Gefällt mir
Reaktionen: Mcr-King
Ned Flanders schrieb:
Ne, das siehst du schon richtig, und das gilt auch nur für diese eine getestete Game Engine. Beim nächsten Game kann das natürlich ganz anders aussehen, zumal du bei neueren Games auch eher wieder in einem neuen GPU limit hängen würdest, auch wenn du eine neue GraKa kaufst.

Das ist kein real existierender und extrapolierbarer Masstab der sich beliebig auf die Zukunft übertragen lässt.

Die Leute machen es sich immer strikt einfach und sagen eine GPU testet ja auch keiner im CPU limit. Fair enough, aber eine 2080Ti + 9900k wird halt häufig in 4K und WQHD eingesetzt. Das ist ein reales Szenario. Das gleiche Gespann wird aber wohl in den aller seltenseten Fällen in 720p eingesetzt. Das ist ein synthetisches Szenario.

Deswegen ist der Erkenntnisgewinn bei Szenario 1 für die Zielgruppe von CB eben hoch und bei Szenario 2 eher gering abseits technischer Detailverliebtheit. Das ganze hat aber eben auch nachteile für den technisch wenig versierten kaufinteressenten, weil es suggeriert das CPUs stark unterschiedliche Performance für ihre Games bieten, dies aber real kaum tun.... zumindest nicht in dem Ausmaß. Daher bin ich Anhänger halbwegs realer Tests und eine 2080Ti in 1080p ist jetzt auch nicht der ultra bottleneck, sonst würde wir ja hier nicht die durchaus passable Gameingleistung der 10900k sehen.

Da brauch ich ehrlich gesagt keinen extra Grafen der die Balken nochmal 5% auseinander zieht. Wo ist da der Mehrwert ausser für Berufsbenchmarker.

Schön geschrieben , ist auch einleuchtend.
Da bin ich schon deiner meinung.
Ich find es ja eigentlich ganz gut wenn man die Tests immer ein bischen erweitert und halt durch die Bank mit 720p, 1080p, 4k Testet.
Klar es ist mehr aufwand keine Frage.
 
alles in allem ganz ok denke ich. Die Leistung passt. Selbst bei Multicore ist der 10900K mit 2 Kernen weniger nur ca. 10% hinter dem 3900 und ca. 37% hinter dem 3950 (der aber auch 60% mehr Kerne hat.)
Selbst der Stromverbrauch ist im normalen Nutzungsbereich in Ordnung. Wenn es dann auch Volllast/volle CPulast geht, wird es viel, aber das ist jetzt auch nicht das täglich Szenarium.
Wenn die Preise mal runter gehen würden, wären die Teile nicht uninteressant. Realistisch wären eher 10600K 200-250Eur, 10700K 300-350 Eur, 10900K 400-450 Eur. So sind sie aber einfach zu teuer
 
Dandy2k5 schrieb:
Ich find es ja eigentlich ganz gut wenn man die Tests immer ein bischen erweitert und halt durch die Bank mit 720p, 1080p, 4k Testet.
Klar es ist mehr aufwand keine Frage.
Und du hast keinerlei zusätzlichen Informationsgewinn durch die zusätzlichen 1080p und 4K Tests, da, wie schön in meinem Anno1800 beispiel zu sehen ist, der CPU die Auflösung egal ist und du nur schauen musst, was deine jeweilige GPU in deiner Auflösung schafft.
Schafft sie mehr als die CPU in 720p ist der CPU Wert deine FPS, schafft sie weniger, ist der GPU Wert deine FPS.
 
  • Gefällt mir
Reaktionen: Esenel, .Sentinel. und Dandy2k5
Ned Flanders schrieb:
Die 720p Beführworter stellen ganz gern einfach mal Behauptungen auf die so auch nicht überprüfbar sind.

Sodala- Ich denke ich hab jetzt was gefunden, was für jeden prüfbar reproduzierbare Ergebnisse liefert und auch entsprechend wichtige Kennzahlen "fälschungssicher" darstellt.

Beim Superposition Benchmark ist es möglich nach Lust und Laune auch Custom Resolutions zu erstellen.
Das brauchen wir, um die These, dass die CPU unabhängig der Auflösung der GPU liefert und rein die GPU das einschränkende Moment ist, zu beweisen.

Hier die Messreihe:
640x520
1590002733732.jpeg


800x600
1590002767213.jpeg


1280x720
1590002784626.jpeg


1600x900
1590002803658.jpeg


1920x1080
1590002833441.jpeg


2560x1600
1590002870857.jpeg


2880x1800
1590002893042.jpeg


3840x2160
1590002909451.jpeg

Betrachten wir nun den AVG- Wert der Messungen:
640x520 = 275FPS
800x600 = 275FPS
1280x720 = 266FPS
1600x900 = 265FPS
1920x1080 = 266FPS

2560x1600 = 253FPS
2880x1800 = 227FPS
3840x2160 = 167FPS

Die Superposition Engine spiegelt dabei eine moderne Renderengine wider, die die typischen Workloads inkl. allerlei Shader- Spielereien simuliert.

Während des Benches werden die Kennzahlen wie Polycount, dynamische Lichter etc. angezeigt, jeder kann also, wenn er will, tiefer einsteigen und weiteranalysieren.

Was wir beobachten können ist, dass die CPU so lange AUFLÖSUNGSUNABHÄNGIG die gleiche Leistung schiebt, bis zu dem Punkt an dem das GPU- Limit einsetzt (ab 95% GPU- Last im Fall dieser Engine),

Ab da fallen die Werte dann mit steigender Auflösung rapide ab.

Hätte ich nun eine stärkere Karte, als die 2080TI, würden die 95% entsprechend später erreicht und die CPU AUFLÖSUNGSUNABHÄNGIG in etwa 266FPS auch beispielsweise in 2560x1600 und höher liefern.

Ich hoffe, dass das jetzt für alle nachvollziehbar aufgeschlüsselt ist.
Ist alles Quick und Dirty- Nur jeweils ein Run. Geringe Schwankungen ignorieren.
Nix auf Benchmark getrimmt. Tausend Sachen im Hintergrund auf, aber ich denke, dass die Tendenz mehr als eindeutig zu erkennen ist.

Vielleicht ist dann endlich mal schluss mit dem Märchen, dass man CPUs im GPU Limit testen muss, weil das "praxistauglicher" sei.

Nein- Es enthält einem wichtige Informationen vor, wie die CPU mit einer stärkeren/zukünftigen Grafikkarte harmoniert.

Nachtrag für diejenigen, die argumentieren, dass das ein Benchmark sei, der mit Spielen nichts zu tun hätte.

Selbes Spielchen mit Shadow of the Tomb Raider

Messreihe:
800x600
1590008602807.jpeg


1024x768
1590008622111.jpeg


1920x1080
1590008648382.jpeg

Ergebnis:
800x600 = 232 FPS
1024x768 = 231 FPS
1920x1080 = 231 FPS

Wieder - Die Auflösung, wenn nicht von der Grafikkarte limitiert, hat NICHTS an der maximalen Framezahl, die die CPU zur Verfügung stellen kann geändert.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Coeckchen, LukS, adAstra und 17 andere
Taxxor schrieb:
Und du hast keinerlei zusätzlichen Informationsgewinn durch die zusätzlichen 1080p und 4K Tests, da, wie schön in meinem Anno1800 beispiel zu sehen ist, der CPU die Auflösung egal ist und du nur schauen musst, was deine jeweilige GPU in deiner Auflösung schafft.
Schafft sie mehr als die CPU in 720p ist der CPU Wert deine FPS, schafft sie weniger, ist der GPU Wert deine FPS.
Ja klar in Anno stimme ich dir zu aber wir Zocken ja nicht nur Anno. ;P
 
matty2580 schrieb:
Ich habe jetzt 13 Seiten Kommentare beim Test von PCGH gelesen, und glaube nicht dass sich am Test viel ändern wird. Die Redaktion will sich noch einmal 1-2 Spiele ansehen. Den ausführlichen Test gibt es sowieso erst später im Heft.
Also man muss sich ja nur mal Wolfenstein ansehen um zu sehen dass da was überhaupt nicht stimmen kann, und Igors Werte passen da sehr viel besser zu den Werten der anderen Seiten
Anmerkung 2020-05-20 214113.png


Anmerkung 2020-05-20 214148.png


Außerdem: Wenn deiner Meinung Nach AMD mit Zen3 bei der Gamingleistung mithalten können soll, dann müssten sie den Ergebnissen von PCGH zufolge ja locker 30% auf Zen2 drauflegen^^
 
  • Gefällt mir
Reaktionen: LukS, Neronomicon, Celinna und 3 andere
Chillaholic schrieb:
Bei PCGH hat sich der Fehlerteufel eingeschlichen, Heise, IgorsLab und Co haben ähnliche Ergebnisse wie CB.
Ich glaube nicht das sich am Fazit von PCGH viel ändern wird. Nachdem ich 13 Seiten Kommentare durchgelesen habe, war die Redaktion bei PCGH nur bereit sich noch einmal 1-2 Spiele anzusehen. Den ausführlichen Test gibt es sowieso nur in der nächsten Print bei PCGH.

Damit hat unterm Strich Intel doch noch einmal einen größeren Sprung geschafft, was bei der alten Architektur und schlechterer Fertigung durchaus beeindruckend ist.

Das macht es dann richtig spannend auf AMDs Zen 3 zu warten.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King und unspektakulaer
Dandy2k5 schrieb:
Ja klar in Anno stimme ich dir zu aber wir Zocken ja nicht nur Anno. ;P
Was anderes kann ich mit meiner GPU schlecht testen ohne in 1440p im GPU Limit zu landen^^
Bei anderen Spielen verhält es sich nicht anders und wenn, dann sprechen wir über Unterschiede im niedrigen einstelligen Prozentbereich
 
Du hast in Game´s auch bei WQHD stellen wo man im CPU Limit landet, das ist aber meist nur kurzzeitig und bei den meisten wahrscheinlich um die 100FPS rum, also derzeit nicht so von belangen.

Bis auf einige Ausnahmen reichen die aktuellen CPU´s von Intel und AMD auch ohne OC aus ohne den Spielspaß zu trüben, wenn man keine krassen Ansprüche hat.

Woran es mehr mangelt ist echt Graka Leistung.
 
ZeroZerp schrieb:
Betrachten wir nun den AVG- Wert der Messungen:
640x520 = 275FPS
800x600 = 275FPS
1280x720 = 266FPS
1600x900 = 265FPS
1920x1080 = 266FPS
Was man hier gut sieht: Die Auflösung ist egal solange das Seitenverhältnis beibehalten wird.

800x600 ist ja 12:9, der Bildausschnitt ist also kleiner als bei 16:9, somit sind auch die FPS etwas höher.
 
  • Gefällt mir
Reaktionen: LukS, Der Paule, Esenel und 3 andere
Ned Flanders schrieb:
Ok, das ist witzig, weil genau die, die immer nach 720p schreien die gleichen sind, die sagen das selbst in WQHD die CPU noch limitiert.
Ist halt in einer Reihe Spiel der Fall....und auch nicht unbedingt bei angenehmen FPS, sondern in einem Bereich, der unangenehm ist, oder sich zumindest träge und verbesserungswürdig spielt.

Und man muss halt immer gucken wo im Spiel man guckt....Nur weil es in einer gezeigten Szene GPU limitiert ist, und flüssig läuft, muss das nicht für alle Bereiche des Spiels gelten.

Cities Skylines....am Anfang noch gut, fällt eine ausgebaute Stadt gerne auf 40-50FPS und mit ruckeligen Frametimes.

Anno 1800 wurde ja schon angesprochen....Mein 2700X geht da bei meinem ältesten Spielstand bei großen Städten teils unter 40 FPS....obwohl ich die Sichtweite etwas runtergenommen habe und den Wuselfaktor auf niedrig gestellt habe....außerdem hilft mehr als 16GB Ram bei den Wechseln zwischen den Karten.

Selbst ein Shadow of the Tomb Raider hat sehr CPU intensive Szenen wie dieses Fischerdorf, wo man recht häufig hinkommt....mit DX12 sind da teilweise alle 8 Kerne ausgelastet und mit DX11 habe ich unter 30 FPS.

AC Origins fällt in den großen Städten unter 50 FPS.

Planet Zoo hat bei einem kleinen Zoo eventuell noch um die 50-60 FPS, aber so ein Vorzeigezoo aus den Steam Workshop hat bei mir eher 16 FPS....mit Stottern, dass auch mal ne halbe Sekunde dauern kann.

Hitman 2 fällt teilweise unter 60 FPS wegen einem CPU limit.

Und das sind jetzt nur neuere Spiele....von alten Spielen fange ich gar nicht erst an....Und ich spiele alle diese Spiele auf 1440p mit meiner Radeon VII....und ich optimiere mir auch die Settings, um eine gute Optik zu haben....

....du bist doch schon lange dabei....wie kann es sein, dass dir noch nie aufgefallen ist, wie viele Spiele CPU/Ram bedingte Performanceprobleme haben? ...die Auflösung ist dabei ja auch eigentlich egal....ein Spiel das bei 40 FPS im CPU limit ist, stelle ich ja nicht auf 4K, um dann bei noch schlechteren 30 FPS im GPU limit zu sein.:freak:
 
  • Gefällt mir
Reaktionen: LukS, Stuntmp02, Esenel und 2 andere
Zurück
Oben