Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

Lübke schrieb:
(wenn der preis sich auf 3600-niveau einpendelt)
Wobei das auch schon das Problem beim kompletten Rechner mit dem i5 10600K sein dürfte.
Möchte man ihn ausreizen und sei es nur durch etwas RAM OC, wird er mit den Z Boards endgültig teuer, während der 170€ Ryzen 5 3600 im alten B450 Board für etwa 100€ steckt (und demnächst im ähnlich günstigen B550 Board mit PCIe 4.0 Unterstützung, falls man es braucht oder will).
 
  • Gefällt mir
Reaktionen: Matthias80, Celinna, Col.Maybourne und eine weitere Person
PS828 schrieb:
Ist eben alles eine Frage der Anwendung ^^

Eben! Wer sowas regelmäßig macht, der kommt um einen 3950X oder ähnlichen CPUs nicht herum, wer hingegen vielleicht zwei mal im Jahr seine Urlaubsvideos schneidet, für den ist die Mehrleistung an dieser Stelle eher irrelevant.
 
  • Gefällt mir
Reaktionen: yummycandy und PS828
Danke für den tollen Test🙂

Test schrieb:
Der Core i5-10600K entspricht zu 95 Prozent dem Core i7-8700K
Ist die IPC des 10600K besser geworden?
Denn beim Spieletest, bei den Frametimes unter 1920x1080, ist der 10600K 6% (125/182 W LT) bzw 8% vor dem 8700K.
Am 100MHz höheren Turbotakt wird es wohl nicht liegen, oder?

MfG
 
Der Paule schrieb:
Stimmt, ich mach das jetzt auch einmal. Es ist ist nötig darüber zu diskutieren. Wer wissen möchte, wie eine CPU bzgl. Gaming performt, MUSS die GPU aus der Rechnung nehmen und dafür sind 720p nun einmal derzeit am geeignetsten.
Darum halte ich auch einen Mix aus theoretischen Benchmarks (wo ich 720p low definitiv zuordne) und Real-World (1080p/1440p/2160p) für sinnvoll.
So wie es bei PCGH läuft hast du etliche ahnungslose Leute in den Foren, denen du im Nachhinein verklickern musst, dass die neue Super-CPU gar nicht 20% flotter ist wenn sie darauf jetzt den neusten 4K-Hype-Sh*t zocken.

Anandtech zB macht es da besser.
 
  • Gefällt mir
Reaktionen: Matthias80
Das Benchen in 720p sollte Intel höchstselbst doch ein schmerzhafter Dorn im Auge sein. Wo bleibt hierbei denn die 'real world performance'?

Langsam sollten sich die üblichen Verdächtigen mal entscheiden mit welchem Maß sie messen möchten.
 
  • Gefällt mir
Reaktionen: CableGuy82, miro98 und karl_laschnikow
DavidG schrieb:
Damit dürfte der Intel i9 10900K immer noch eine sehr gute CPU sein, die für die meisten User, nämlich alle, die auf die Leistungsaufnahme achten und nicht die ganze Zeit die CPU unter Volllast betreiben sowie alle, die ab und an mal spielen, die erste Wahl sein.
Also gerade diejenigen, die auf die Leistungsaufnahme achten und spielen, werden mit AMD besser fahren^^

Klar man kann immer wieder schreiben, dass AMD mehr verbraucht und nur bei Vollast etwas effizienter ist, man kann sich aber auch Daten anschauen, die mit professionellem Equipment erhoben wurden:
05-Power-Consumption.jpg
 
  • Gefällt mir
Reaktionen: _Cassini_, CableGuy82, Hardwarious und 14 andere
Der Paule schrieb:
Das ist ein Trugschluss. Als Spieler interessiert mich bei CPU Tests die CPU Leistung beim bzw. vor dem CPU Kauf, also das was jetzt geht, auch im Hinblick auf zukünftige GPUs. Sonst kaufst Du ggfs. falsch wenn die NexGen GPUs anrücken. Da kann der Mehrwert kurz bis mittelfristig schon einmal mehrere hundert Euro betragen.
Du kannst aber nicht einfach nen 720p Test mit nem 1080p Test vergleichen und dann sagen "Hier stimmt bei CB was nicht!", wenn das halt zwei komplett verschiedene Szenarien sind (Was einige gemcht haben). 4K ist grundsätzlich nicht besonders sinnvoll, denke darauf kann man sich einigen, da sind ja alle Systeme im GPU-Limit. 1080p ist wohl immer noch die am meisten verbreitete Auflösung und wohl die realistischste Variante wenn man tatsächliche Ergebnisse aktueller Titel haben will.
 
  • Gefällt mir
Reaktionen: CableGuy82 und hongkongfui
BlackhandTV schrieb:
80W ist doch nen Witz, mein Strommessgerät lügt doch nicht, und die Software komischer auch noch am lügen, niemals!
Das Strommessgerät misst ja auch an der Steckdose. Mit Wandlerverlusten und allen Komponenten sind die Verbrauchswerte kein Wunder. Mein 8600K @5,2 GHz hat damals in PUBG nicht mehr als 120-130W gezogen.
 
Esenel schrieb:
Puh du fragst Sachen.
Du kommst höher im Takt.
Aber Latenzvorteil nur durch 2 DIMM Sockets? KA.

@snakeeyes
@PhoenixMDA

Wisst ihr da was?
Ich glaub es geht da weniger um Latenz sondern um die "Termination der Slots", weswegen 2 Sockel etwas im Vorteil sein können was die max. Frequenz angeht.
 
  • Gefällt mir
Reaktionen: yummycandy und Esenel
ProximaCentauri schrieb:
Danke für den tollen Test🙂


Ist die IPC des 10600K besser geworden?
Denn beim Spieletest, bei den Frametimes unter 1920x1080, ist der 10600K 6% (125/182 W LT) bzw 8% vor dem 8700K.
Am 100MHz höheren Turbotakt wird es wohl nicht liegen, oder?

MfG

Das wird hauptsächlich am 200 MHZ höheren All Core Turbo liegen, denn moderne Spiele boosten den All Core, der Single Core Turbo ist bei so allen hier auf CB getestetn Spielen völlig unintressant.
 
immortuos schrieb:
Das Strommessgerät misst ja auch an der Steckdose. Mit Wandlerverlusten und allen Komponenten sind die Verbrauchswerte kein Wunder. Mein 8600K @5,2 GHz hat damals in PUBG nicht mehr als 120-130W gezogen.
hm ok, aber CapFrameX zeigt halt beim Stromverbrauh der CPU ~260W max. an und bei 3950X ~106w max.
 
@DonL_ Die 2933MHz RAM werden ihr übriges dazu beisteuern.
 
  • Gefällt mir
Reaktionen: DonL_
Die Test im Netz sind zwar schön und gut aber bei solchen CPu ist mehr die Anwendugsleistung wichtiger als games
games sind simple immer zuerst Singlcore was an directx liegt und danach erst multicore ausgelegt
Vulkan istd a was anders hat aber potenzial das OS zum absturz zu bringen.

Schade ist das kein test mal die fps pro Sekunde bei h264 und hevc in 576p/406p 720p 1080p 2160p
Mit crf 20-23
tune no latency
macht
Das könnte man als cumunity test ausweiten vergleiche eigene hardware unter den settings
Ergebnisse dann per Tabelle als ip cicle und als instuction per (ip) clock.

Dann fehlt die multithread test mehrere vm Parallel
batch export von bild Konvertierung
Bild Nachbearbeitung= render
Eigenes erstelltes blender Bild render vergleich lässt sich prima als downlaod anbieten für eigene vergleich

So nungut
beachtlich das der r7 3700x in cb15 mal locker 48% schneller im singlecore Leistung vs 5th gen intel cpu bei 3,6ghz ist.
Und der 10th gen intel cpu über 65%
in games mit einer high end gpu durchaus bemerkbar/titan rtx rtx2080ti
Für normale Nutzer reicht hier völlig der r5 3600 oder eben mit deutlich mehr Strombedarf der ci5 10600k
man kommt bei 200€ karten sowieso zuerst in gpu limit (1080p)
Und mit 400€ gpu ist man auch noch nicht im cpu limit (1440p)
zwar gibt es vereinzelt noch games die partout auf einen core verharren aber diese sind primär api limitiert als von der cpu.

Fazit.
Die neue intel gen lohnt nicht in Anwendungen kaum schneller und in games nur auf high end gpu Sinnvoll
 
viva la brechstange!

krank was der 10900K unter volllast schluckt. da muss man bei der wahl des MBs echt aufpassen. andererseits keine überraschung. ich bin mal gespannt wo die kleineren CPUs bezüglich preis und leistung dann landen.

sehr interessant zu erfahren was für ne wissenschaft hinter dem turbo steckt:freak: die TDP verkommt mit Comet Lake endgültig zur lachnummer.

was ich erschreckend finde ist wie viel der 10600K bei CB R20 schluckt. 115W sind 20W mehr als mein alter 5820K da frisst. ja, der 10600K taktet dabei deutlich höher, aber er ist auch bald 6 jahre neuer:freak: und ein 3700X mit 33% mehr kernen/threads und entsprechend mehr leistung kommt da mit 90W aus.
 
ProximaCentauri schrieb:
Am 100MHz höheren Turbotakt wird es wohl nicht liegen, oder?
Doch muss es, mir fällt da auch nix ein.
 
Taxxor schrieb:
Also gerade diejenigen, die auf die Leistungsaufnahme achten und spielen, werden mit AMD besser fahren^^

Klar man kann immer wieder schreiben, dass AMD mehr verbraucht und nur bei Vollast etwas effizienter ist, man kann sich aber auch Daten anschauen, die mit professionellem Equipment erhoben wurden:
Anhang anzeigen 921474

Vielen Dank dafür. Das hätte ich so nicht erwartet. In Teillastanwendungeszenarien ist Intel damit weiterhin effizienter, in Spielen verbraucht Intel aber mehr. Trotzdem darf nicht vergessen werden, dass Intel in Spielen auch erheblich schneller unterwegs ist.
 
Zurück
Oben