Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

Rockstar85 schrieb:
Zerozerp.
Sorry aber pcgh hat keine validen Daten geliefert. Igor, Golem, Heise und hier zeigen was anderes.
Das was du machst ist Cherry Picking und das hat du nicht nötig, dachte ich.

zB: https://www.igorslab.de/intel-core-...echen-des-letzten-14-nm-boliden-seiner-art/2/

https://www.gamersnexus.net/hwreviews/3587-intel-core-i9-10900k-cpu-review-benchmarks

Das stimmt also was nicht mit pcgh
? Die bestätigen die Werte im Großen und Ganzen?

LG
Zero
 
  • Gefällt mir
Reaktionen: latexdoll
Die Leistungsaufnahme mal außer Acht gelassen, ist es schon beeindruckend was Intel noch aus der Skylake-Architektur und dem 14-nm-Prozess herausgeholt hat.

Man muss natürlich kein Prophet sein um zu wissen, dass das für Zen 3 mit 15 bis 20 Prozent IPC und 100 bis 200 MHz mehr Takt nicht mehr reichen wird, aber Zen 3 vs. Rocket Lake-S dürfte richtig spannend werden.

AMD hat die modernere Architektur mit der höheren IPC, Intel noch immer deutlich mehr Takt.

Für Anwendungen egal ob Mainstream oder HEDT ist AMD mittlerweile deutlich attraktiver, in Sachen Gaming kann man abhängig vom Szenario durchaus zu Intel greifen.

Abseits von AMD vs. Intel ist es schon beeindruckend wie viel CPU man mittlerweile fürs Geld bekommt.

Ich freue mich schon auf die nächsten Duelle.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: DannyA4, Hatch, ayyildiz und 26 andere
cleric.de schrieb:
du meinst eher, dass je geringer die auflösung, desto größer werden die unterschiede. gleichzeitig steigen aber auch die frameraten dermaßen an, dass selbst 20% unterschied völlig irrelevant werden. weil -> es reicht immer.

Ob du das GPU Limit durch mehr GPU leistung oder durch weniger Auflösung eliminierst ist ziemlich egal. Das Ergebnis ist das gleiche. Und die Schlussfolgerung das Ryzen und Intel bei schnellerer CPU dichter beisammen liegen bleibt bei beiden Annahmen falsch.

Ob die FPS irrelevant werden kommt auf das Spiel drauf an. Wenn ich mir z.b. den Anno 1800 Test in 720p bei PCGH anschaue, dann bewegen wir uns da bei fast allen CPUs im Bereich von unter 60 FPS.

Ob jetzt 500 oder 600 fps in CS ist ziemlich egal, ob 50 oder 65 FPS in Anno.... das ist für viele durchaus ein relevanter FPS Bereich.

cleric.de schrieb:
der rest sind esotherische benchmark-diskussionen, die selten was mit dem alltäglichen erleben beim spielen zu tun haben, zumindest bei 99,x% der gamer.

In Zeiten von 144FPS bei Mittelklasse Displays durchaus relevant. Auch nutzen viele die CPU mit abstand länger als die Grafikkarte. In 720p siehst du auch, was eine stärkere Grafikkarte zukünftig bewirk.

Ansonsten kannst du dir CPU Tests auch sparen, wenn du sie im partiellen GPU Limit testest. Bei Grafikkartentests setzt man ja auch möglichst Starke CPUs ein. Die könnte man auch mit einem Pentium oder Athlon testen und dann feststellen, dass plötzlich viele Grafikkarten gleich schnell sind.

Supermax2004 schrieb:
Ich sehe z.B. bei Hardwareluxx bei Metro in 1080p Minimalfps beim Intel 81 und beim 3900x nur 64. Bei Division 154 zu 111. Wieso sind die Unterschiede so extrem? Manchmal kaum Unterschied und dann genießen die Spiele den höheren Takt so sehr?

Unterschiedliche Seiten nutzen unterschiedliche Testszenen. Es gibt in Spielen CPU intensivere Szenen. Daher können im gleichen Spiel unterschiedliche Ergebnisse aufgezeigt werden.
 
  • Gefällt mir
Reaktionen: latexdoll
Moderner Elektroschrott.

ineffizient und (somit) stromhungrig genau das brauchen wir in diesen Zeiten.
 
  • Gefällt mir
Reaktionen: LamaMitHut und DerMond
Ich finde selbst die 4-7% mehr Leistung (Spielen FullHD) vom 9900k zum 10900k so marginal, dass man sich den Aufwand fast hätte schenken können. Aus Gamer Sicht wäre es nur für den gleichen Preis ein sinnvoller Ersatz, sofern man von einer deutlich älteren CPU käme.
Dabei würde man immer noch auf eine alte Plattform setzen, ohne PCIe 4.0 und wenigen Lanes etc.

PS: Es wurde beschrieben, dass es Ram mit 4000Mhz und CL15 für kleinen Aufpreis gibt? Das kommt mir etwas unrealistisch vor? (Kenne mich da nicht so aus, aber sind das nicht schnell mal 2-3x so teure Preise anstatt für CL19 bei 4000er?!)
 
Hello

zum Test: THX ohne Worte
zu den Kommentaren: @ CB evtl. wäre eine Alterprüfung zum Registrieren nicht schlecht?

Gruss Flou
 
  • Gefällt mir
Reaktionen: MarcsMax, iceshield, karl_laschnikow und eine weitere Person
ZeroZerp schrieb:
? Die bestätigen die Werte im Großen und Ganzen?

LG
Zero
20%?
Wo denn? Ich sag's noch Mal, lass das Cherry picken. Volker hat den Comet Lake und stark bevorzugt. Ich warte nicht, wenn ich Anwendungen Wechsle.

Die paar Prozent zwischen 9900ks und 10900k könnte man schon fast als messbar aber nicht spürbar abschreiben. Messfehler fände ich auch treffend.

Wenn du gesagt hättest, in wenigen Anwendungen, dann hätte keiner was zu meckern, weil eben Cherry Picking. Overall ist Comet Lake wirklich eine Komödie
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, ThePlayer und miro98
Tonks schrieb:
@ZeroZerp
Warum hast du denn The Witcher 3 und Total War Kingdoms explizit ausgelassen bei den Screenshots? Weil der 9900K(S) da besser als der 10900K liegt? Und bei Total War sogar unter dem 3900X wenn man nach Frametimes sortiert.
Weil es dort keine signifikanten Unterschiede gibt. Lies mal mein Post durch und wovon dort die Rede ist.
Ich stelle heraus, dass es mich wundert, dass der Prozessor entgegen meiner Erwartung in gewissen Szenarien doch noch so viel Performance rausholen kann.

LG
Zero
 
  • Gefällt mir
Reaktionen: latexdoll und Shoryuken94
Supermax2004 schrieb:
Ich sehe z.B. bei Hardwareluxx bei Metro in 1080p Minimalfps beim Intel 81 und beim 3900x nur 64. Bei Division 154 zu 111. Wieso sind die Unterschiede so extrem? Manchmal kaum Unterschied und dann genießen die Spiele den höheren Takt so sehr? Zwar sind die Unterschiede bei 1440p geringer, aber immernoch sehr deutlich. Erst bei 4k dann vielleicht kaum noch spürbar. Aber diese großen Unterschiede hin und wieder stimmen mich nachdenklich. 3900x oder 10900k, wie soll man sich entscheiden, wenn Anwendungen und Spiele ähnlich wichtig sind und der Stromdurst sekundär ist? Ja am besten mindestens ein halbes Jahr warten....top.
Bei Hardwareluxx wird der 10900k 80 Grad warm bei Aushebelung des Limits, aber da gehts um Cinebench.
Lässt sich natürlich nicht verallgemeinern.

Aber Intels Nachteil ist auch Intels großer Vorteil. Die Architektur ist sehr alt und die Änderungen über die Jahre waren gering. Gleichzeitig gab es keinerlei Konkurrenz für Intel und sie waren entsprechend marktbeherrschend (sind sie immer noch).

Das heißt fast alles wurde mehr oder weniger auf Intel optimiert. Und das macht sich auch heute noch bemerkbar. Gerade bei Spiele-Engines, deren Ursprung in der Hochphase der Skylake-Architektur entwickelt wurden. Und dieses Wissen verschwindet ja nicht.

Teilweise ist das vermutlich auch heute noch so, da Intel nachwievor einen sehr hohen Marktanteil hat.

Über den Daumen kann man das mit dem typischen Konsolenzyklus vergleichen. Je mehr Entwickler über den Umgang mit einer Konsolenarchitektur lernen, desto besser lassen sich Spiele optimieren. Deshalb wird der höchte Optimierungsgrad normalerweise dann auch am Ende des Lebenszyklus einer Konsole erreicht.
 
  • Gefällt mir
Reaktionen: danyundsahne und .Dome
Schon interessant aus Intel 14nm herauskitzeln konnte. Aber der 10900k (und wahrscheinlich auch alle anderen Comet-Lake Prozessoren) ist nichts für mich. Übertakten ist nicht mein Ding und ein Windkraftwerk besitze ich leider auch nicht. Aber es gibt bestimmt eine Käuferschicht für die Serie (und das sollen sie auch). Da bleibe ich bei AMD - mal sehen was Zen3 bringt.
 
Stanzlinger schrieb:
Läßt man die Fakten außen vor, bleibt es weiterhin ein Intel und mir (und auch vielen Kunden) damit auch gerne 150€ Aufpreis wert.

Also im Endeffekt ohne wirklichen Sinn kaufen?
 
  • Gefällt mir
Reaktionen: DannyA4, Kolibrie, ThePlayer und 13 andere
ZeroStrat schrieb:
Bei PCGH ist der 10900K teilweise über 20% schneller als der 9900KS. Hier bei CB 3%... :freak:
CPU Tests hier bei CB sind dann erstmal bis auf weiteres uninteressant für mich.

PCGH hat den 9900K mit hartem 95 Watt Limit getestet 9900KS mit 127 Watt , somit zieht der 10900K auf und davon, die Computerbase Benchmarks kommen abgesehen von den paar Fehlern schon ungefähr hin, da irrst du dich. Nimmt man die 3 Spiele mit den komischen Werten raus, ergibt sich ein glaubhaftes Bild.
 
  • Gefällt mir
Reaktionen: wertzuiop123, ThePlayer, CableGuy82 und 2 andere
Nur am Takt rumgeschraubt, sonst nix? Keine einzige Neuerung? Alte Bugs beibehalten?
 
  • Gefällt mir
Reaktionen: DannyA4, Tapion3388 und Öcher Tivoli
@Volker
Habt ihr noch die Zeit herauszuarbeiten wie viel Zugewinn es allein durch den RAM von 2666 auf 2933 gibt.

Sollte ja den Gros der Leistung darstellen, oder?
 
  • Gefällt mir
Reaktionen: LukS und Jan
ZeroZerp schrieb:
Weil es dort keine signifikanten Unterschiede gibt. Lies mal mein Post durch und wovon dort die Rede ist.
Ich stelle heraus, dass es mich wundert, dass der Prozessor entgegen meiner Erwartung in gewissen Szenarien doch noch so viel Performance rausholen kann.

LG
Zero

Gut, wenn du jetzt genau nur diese Spiele zockst dann macht das auch Sinn. Ich wollte nur darauf hinweisen das man es nicht so schnell verallgemeinern kann, da nicht alle Spiele besser werden und es hier auch einen Selektionsbias geben kann.
 
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroStrat schrieb:
Bei PCGH ist der 10900K teilweise über 20% schneller als der 9900KS. Hier bei CB 3%... :freak:

CPU Tests hier bei CB sind dann erstmal bis auf weiteres uninteressant für mich.
Bin erstaunt, dass man die PCGH-Benchmarks überhaupt für voll nimmt. Deren Werte in Anno 1800 sind schon so absurd, dass der ganze Test dadurch völlig unglaubwürdig wird.
 
  • Gefällt mir
Reaktionen: wertzuiop123, Hardwarious, DannyA4 und 2 andere
Mein Puddeling schrieb:
Eben nicht, da Spiele weit unter den Verbrauchswerten von Cinebench und Co. liegen.
5GHz sind beim 9900K in Spielen auch kein Problem und die Temeperaturen bleiben völlig im grünen Bereich.
Es hat nur jeder die Prime 95 AVX Sau bei dem´Thema durch's Dorf getrieben.

Das ist nicht ganz richtig.

Es gibt nämlich auch tatsächlich Fälle, wo eine CPU in Prime viele Stunden stabil ist, aber in bestimmten Spielen (evtl. weil dort eben auch AVX genutzt wird) nach kurzer Zeit abstürzt.

Auch hat die Stabilität von CPU X bei Takt Y nicht nur was mit Temperatur zu tun. Wenn die Chipgüte nicht gegeben ist, wird es zwangsläufig auf die Dauer irgendwann instabil (egal, wie viel oder wie wenig Temperatur). Das kann man bis zu einem gewissen Grad mit mehr Spannung ausgleichen. Aber irgendwann eben nicht mehr. Da wird die CPU dann gegrillt.
 
  • Gefällt mir
Reaktionen: Zitterrochen, latexdoll und .Sentinel.
KlaraElfer schrieb:
In Spielen benötigt so ein 10900K offenbar weniger Energie als ein 3950x, leider wird das hier nicht gemessen.
Du machst den Fehler und setzt Prime 95 mit Spielen gleich. Leider liegt das nicht nur am Leser, sondern auch am Test selbst, dass da falsche Rückschlüsse gezogen werden.
Dass der 3950x relativ viel aus der Steckdose nuckelt, bei egal was, ist aufgrund seiner 16Kerne und deren Taktung nicht wirklich überraschend.
Überraschend hingegen sind Einschätzungen, dass es sich bei dem 3950x um eine Daddel-CPU handeln soll, mit der man auch mal (versehentlich?) ein wenig seriös arbeiten kann, anstelle dass es der Missing Link zu Threadripper sein soll, mit dem man aber auch noch zocken kann, ohne dafür Opas Goldzähne zur Pfandleihe zu tragen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, DannyA4, Blediator16 und 17 andere
Ich fahr gerade nach Zuerich hoffe das Digitec heute noch in paar raushaut. Loop ist gereinigt und ready. Werde dann schauen was da mit 4133 mhz cl17/16 drin ist. Hatte eigentlich weniger erwartet, freue mich jetzt aber schon sehr, vor allem mit dem ht einzeln abschalten usw. Der 2.5g Ethernet Controller ist für mich auch interessant da Swisscom wohl 10gbit dieses Jahr bringt und der lan Port 2.5 macht. Maximus Formula ist bereits absolbereit.
 
Zurück
Oben