Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

BlackhandTV schrieb:
also der 10900k ist enttäuschend, schade das PUBG niccht getested wurde, ich hab mit meinen 3950x mit 3600cl14 im Gegensaztz zum 8086k @5.1GHz allcore 3866mhz cl15 ram, ein flüssigeres gameplay in PUBG @comp settings, also bleib ich wohl beim 3950x weil er einfach VIEL VIEL weniger Strom braucht! (100w in PUBG im gegensatz zu ~300w)

mit CapFrameX hab ich auch mehrfach genauer nachgemessen, Framestimes sind etwa gleich und FPS auch.

Beim Gaming braucht kein Intel 300 Watt. Eher 100 Watt.
 
  • Gefällt mir
Reaktionen: Rais3n
Wie schon vermutet eine Bench CPU. Das hier ist ja teilweise erschreckend ein richtiger Blender:

4.JPG


Und ehrlich gesagt bin ich überrascht, dass CB hier den best Case genommen hat:

"Mit PL2 und PL1 bei ausreichend zeitlichem Abstand zwischen den Benchmarks, um Tau auszuschöpfen."

Ich hätte erwartet man heizt die CPU vor wie bei Grafikkarten auch um zu sehen wie sich die CPU unter Dauerlast verhält aber damit gutiert man sogar noch die BenchCPU. Das mag bei Spielen keine Rolle spielen aber für Anwednungen wird hier das Bild massiv zugunsten Intel verfälscht. Das ist entäuschend.
 
  • Gefällt mir
Reaktionen: electronish, Protogonos, GUN2504 und 26 andere
iGameKudan schrieb:
Ja, AMD ist billiger, aber für wen rein die (Spiele-)Leistung im Fokus steht...
Der kauft sich eine vernünftige Grafikkarte. Dann sind die Unterschiede zwischen AMD und Intel vernachlässigbar. Wer dann also noch Intel kauft, bitteschön.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EyBananaJoe, Gaspedal, Unnu und 25 andere
So gut die Reisen als Gesamtpaket auch sind, wer hauptsächlich zocken will, kommt nicht an Intel vorbei. 10700k mit 3733er CL14er RAMund ab geht die Post. Da gibt's nichts zu diskutieren. Intel ist und bleibt einfach eine Macht.
Wer mir nicht glaubt, soll mal in 1280x720 zocken und gucken wie seine GPU ausgelastet wird!
 
  • Gefällt mir
Reaktionen: Hardwarious, krsp13, latexdoll und 3 andere
ZeroStrat schrieb:
Bei PCGH ist der 10900K teilweise über 20% schneller als der 9900KS. Hier bei CB 3%... :freak:

CPU Tests hier bei CB sind dann erstmal bis auf weiteres uninteressant für mich.

Sry aber das ist fernab jeder Realität. Jeder richtige Test zeigt dir geringe einstellige Prozente Vorsprung vom 9900KS auf 10900K, angefangen über alle andere deutschen Medien wie auch gern hier zitiert Igor: https://www.igorslab.de/intel-core-...echen-des-letzten-14-nm-boliden-seiner-art/2/ Luxx, Golem usw alle gleich, international setzt es sich komplett so fort

Aber klar, eine Seite rückt mit so etwas raus und ist die einzig richtige - das passt in eingien Fan-Augen sicherlich. 20 bis 30 Prozent .. niemals, einfach mal realistisch überlegen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EyBananaJoe, SVΞN, Baquilero und 130 andere
Also ich sag mal so, Intel lohnt sich wirklich nur im Spielbereich, und wenn man 1440p oder gar 4k nutzt ist der Unterschied absolut nicht mehr spürbar vorhanden. Das riecht jetzt nach dem 3900x, ich glaub den 10900k kann ich dann nicht nehmen. Ich weiß aber weiterhin nicht, wie hoch der 10900 wirklich taktet und wie warm er dann wird. Prime interessiert wenig.
 
  • Gefällt mir
Reaktionen: Buchstabe_A
Ich sehe gerade keine Leistungsaufnahme für Spiele, auf welcher Seite stehen die?

Und warum wird hier wieder in 1080p gebencht? Es war im letzten Ghost Recon Test bereits evident, dass man in dieser Auflösung ins GPU Limit laufen kann. Ist denn keiner an Ergebnissen interessiert, die die CPU statt die GPU betreffen?

Zum Prime Test: Wie schnell rechnen die CPUs da? Einfach einen Stromverbrauch ohne gleichzeitig die Leistung anzugeben ist leider relativ wertlos.

Zudem: Wurden die CPUs wirklich mit ~1,5V Kernspannung betrieben? Mir wurde immer gesagt, beim OC sollte man höchstens bis 1,35V gehen.

Ansonsten ein sehr informativer Test, nur die Teile sollte man noch ergänzen. Denn die Zielgruppe wird sich eher weniger mit Cinebench beschäftigen als mit Spielen.
 
10 hoch getaktete Cores (+HT) in der Mainstream-Plattform. Unter anderen Umständen hätten die meisten Intel dabei wohl den alten Fertigungsprozess und den daraus resultierenden Verbrauch verzeihen können... wenn es nur nicht AMD gäbe, die inzwischen zeigen dass es mit moderner Technologie statt Brechstange viel besser geht. 😉
 
  • Gefällt mir
Reaktionen: Nureinnickname!, Protogonos, DannyA4 und 9 andere
Dai6oro schrieb:
Ich hätte erwartet man heizt die CPU vor wie bei Grafikkarten auch um zu sehen wie sich die CPU unter Dauerlast verhält aber damit gutiert man sogar noch die BenchCPU. Das mag bei Spielen keine Rolle spielen aber für Anwednungen wird hier das Bild massiv zugunsten Intel verfälscht. Das ist entäuschend.

Als ob du in deinem Anwendungsszenario zu Hause Dauerlast hättest.
Ist doch völlig legitim die Trägheit auszunutzen und am Anfang voll zu boosten. Ist in Notebooks nicht anders, ich halte das für eine Eigenschaft des Produkts, mit all seinen Nachteilen.
Die CPU ist als Renderschubse jedenfalls nichts, da holt man den 3900x, der dazu noch etwas sparsamer ist und bisschen flotter. Bei Gaming wirds schon interessanter, da lacht mich der 10600K an.

Volker schrieb:
Aber klar, eine Seite rückt raus und ist die einzig richtige. 20 bis 30 Prozent .. das ich nicht lache eh. Klar verbiegen wir die Fakten können wir sie super darstellen

Ein kurzer Blick über die Messwerte reicht schon um zu sagen, dass etwas nicht stimmt, da hat er leider völlig recht. Letztes mal war der 9900K zu langsam, was ihr selbst nicht bemerkt habt (obwohl 7% Abweichung) und erst durch meinen Hinweis nachetestet wurde.
Mehrere Spiele hängen in irgendwelchen Limits, nur nicht die der CPU/RAM, das ist nicht so dolle.^^

Und die Effizienz misst man garantiert nicht mit Prime 95.;) Verstehe ehrlichgesagt nicht, wieso das überhaupt Bestandteil des Tests ist.
Wenn dann müsste man hier die Leistungswerte angeben. Dort ist ein 10900K, jedenfalls >50% schneller als ein 3900x oder 3950x. Dass der 10900K in allen Anwendungen >200 Watt zieht, halte ich für ein Gerücht, mein 10900K kommt laut DHL am Samstag, dann kann man sich ein eigenes Bild machen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: simosh, ayyildiz, latexdoll und 3 andere
OneShot schrieb:
Mich erinnert das an die AMD Bulldozer Zeit als man nichts hatte und mit Biegen und Brechen mehr MHZ rausholen musste weil man sonst nichts zu bieten hatte.

Der Vergleich hinkt. Bulldozer hat extrem viel Strom verbraucht und war dabei sehr langsam. Die Intels verbrauchen viel Strom, sind dafür aber auch schnelle CPUs. Das ist schon ein bedeutender Unterschied. Ob einem die Mehrleistung den Mehrverbrauch wert ist, ist eine andere Sache.

cleric.de schrieb:
der kauft sich eine vernünftige grafikkarte. dann sind die unterschiede zwischen amd und intel vernachlässigbar. wer dann also noch intel kauft, bitteschön.

Je stärker die Grafikkarte ist, umso größer ist der Unterschied. Genau das simulieren ja die 720p Tests. Genau der Gegenteil ist der Fall. Pack eine GTX1030 rein und auf wundersame Weise werden beide CPUs gleich schnell sein, weil die Grafikkarte limitiert.
 
  • Gefällt mir
Reaktionen: ayyildiz, Flyerdommo, latexdoll und 6 andere
Danke @Volker für die ausführlichen Tests und die tolle Erklärung zu den Power-States - so firm war ich da nicht.

Ich muss sagen, dass ich von der P/L enttäuscht bin: Als Alternative zum 3600 ist der 10600K wieder viel zu teuer für die ~10 % mehr Leistung. Der 10600 wird sich dagegen wohl nur unwesentlich vom Ryzen absetzten können und dabei immernoch ein gutes Stück mehr kosten.
 
KlaraElfer schrieb:
In Spielen benötigt so ein 10900K offenbar weniger Energie als ein 3950x, leider wird das hier nicht gemessen.
Du machst den Fehler und setzt Prime 95 mit Spielen gleich. Leider liegt das nicht nur am Leser, sondern auch am Test selbst, dass da falsche Rückschlüsse gezogen werden.

Zum Glück gibts dich in diesem Forum, der jeden hier kostenlos aufklärt, wie was wann und wo zu interpretieren ist. ❤
 
  • Gefällt mir
Reaktionen: EyBananaJoe, DannyA4, Tapion3388 und 20 andere
Singler schrieb:
Was ist am Begriff "Takt" missverständlich?
In der Tabelle steht links halt nicht Takt sondern FPS.
 
  • Gefällt mir
Reaktionen: TouchGameplay, PerAstraAdDeum, or2k und 3 andere
Soweit so normal würde ich sagen.

Für alles außer gaming uninteressant, teuer, langsam, ineffizient.

Immerhin schicke gaming CPUs. Der große auf Höhe des 9900KS zu (glaube ich) weniger Geld.

Aber wer nicht auf den letzten frame guckt den braucht das nicht interessieren.

Es ist einfach völlige Stagnation, mehr lässt sich dazu nicht sagen
 
  • Gefällt mir
Reaktionen: ThePlayer, Öcher Tivoli und corvus
Leistung und GHz Überlegenheit um jeden Preis?
Sorry aber Preis Leistung und Leistung je Watt sollte stimmen. Hab mir jetzt nicht jedes Diagramm angesehen ehrlicherweise aber ich glaub das wird nie dargestellt.

Da muss ich hier die Community loben bei denen sich viele damit beschäftigen die Systeme dann am Sweetspot zu betreiben und nicht auf max Leistung und Verbrauch.

Ich denk irgendwann wird auch die Energieeffizienz mit A-D oder so bewertet werden wenn der Wahnsinn so weiter geht.
 
  • Gefällt mir
Reaktionen: EyBananaJoe, electronish, _Cassini_ und 42 andere
Also irgendwie nicht wirklich überraschend:
Wer intensiv Multimediaanwendungen oder andere stark Multicore optimierte Anwendungen nutzt (Rendern, Videoschnitt etc.) ist mit AMD klar besser dran.
Wer diese Anwendungen nicht nutzt, der ist mit Intel besser dran auf Grund der Single Core Leistung. Allerdings ist bei Single Core der Unterschied generell schon so gering, dass es relativ egal ist.
 
  • Gefällt mir
Reaktionen: Flyerdommo
Es ist kein Debakel geworden. Der Dank gebührt den Mainboardherstellern, die Übertaktern das Handwerk gelegt haben.
 
  • Gefällt mir
Reaktionen: TouchGameplay, Fritzler, MarcelGX und eine weitere Person
Ich denke mit Zen 3 wird AMD dann an Intel vorbei ziehen auch wenns nur minimal im einstelligen Bereich sein wird.
 
  • Gefällt mir
Reaktionen: Peacemaker1337, miro98, Celinna und eine weitere Person
Zurück
Oben