Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

Respekt, da haben sie echt noch das Maximum rausgeholt und somit stehen sie auch imo zurecht meist ganz oben. Natürlich muss man sich die Teile nicht kaufen, würde ich persönlich wohl auch nur, wenn sie billiger als AMD wären.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Willi-Fi schrieb:
Beim Gaming braucht kein Intel 300 Watt. Eher 100 Watt.
das stimmt doch gar nicht! siehe: (ich hab ja selbst auCh nachgemessen, desto ich meinen Intel übertakte desto mehr Strom zieht er, ist doch ganz normal!)
1589984175606.png
 
  • Gefällt mir
Reaktionen: Rockstar85
@Volker:
Wer vor zwei Jahren beim 8700K zugeschlagen hat, kann sich heute noch mehr als glücklich schätzen.
Danke, tue ich. ;)
Tut hoffentlich noch paar Jährchen seinen Dienst bei mir und wird durch die Konsolen nicht "versaut".
Danke für den Test.
 
  • Gefällt mir
Reaktionen: SVΞN und Volker
Banned schrieb:
Das ist nicht ganz richtig.

Es gibt nämlich auch tatsächlich Fälle, wo eine CPU in Prime viele Stunden stabil ist, aber in bestimmten Spielen (evtl. weil dort eben auch AVX genutzt wird) nach kurzer Zeit abstürzt.
Oft sind das Lastwechselszenarien, die dann den Prozessor aus der Bahn werfen...

LG
Zero
 
  • Gefällt mir
Reaktionen: SVΞN, Brian.Griffin und Banned
BlackhandTV schrieb:
das stimmt doch gar nicht! siehe:
Prime95 ist eine Anwendung gemacht um unrealistische Hitze und Verbrauch zu produzieren mit AVX, kein Spiel, auch wenn viele das immer noch glauben! :rolleyes:
 
  • Gefällt mir
Reaktionen: DannyA4, scryed, Oneplusfan und eine weitere Person
  • Gefällt mir
Reaktionen: GERmaximus, Hunder, DannyA4 und 2 andere
DavidG schrieb:
Da der i9 10900K in Anwendungen deutlich den i9 9900KS schlägt, handelt es sich um einen guten All Around Prozessor, der für die allermeisten Käufer die beste Wahl sein dürfte.

Gute Arbeit, Intel!

Der 3950x ist in Spiele quasi genauso schnell wie der 10900k, just saying
 
  • Gefällt mir
Reaktionen: Peacemaker1337, Brian.Griffin und Rockstar85
Wenn die PCGH- Ergebnisse nun das Maß der Dinge sind: Wie erklärt sich, dass der 10600K im Schnitt 20 % in Spielen schneller ist als der 8700K? Das kommt mir etwas arg viel vor für den etwas höheren Takt
 
  • Gefällt mir
Reaktionen: GERmaximus, DannyA4, ThePlayer und 7 andere
@Volker
Test "Keine Temperaturexplosion" schrieb:
Die 14-nm-Fertigung ist demnach noch einmal verbessert worden und Intel hat das Binning optimiert.
Das ist so doch gar nicht feststellbar? Viel eher greifen doch hier die ganzen (anderen) Maßnahmen, die Intel getroffen hat: dünnerer Die, höherer Kupferanteil im Heatspreader und größere Die-Fläche über die die Temperatur besser an den Spreader übertragen werden kann.
 
  • Gefällt mir
Reaktionen: GERmaximus
@Banned Deswegen testet man auch mit prime95 in einer Version mit AVX. Version 26.6 kann man eigentlich nur noch zur Konfiguration des AVX-Offsets gebrauchen, um vielleicht nochmal 200MHz mehr Takt in Workloads ohne AVX zu erreichen...

Ich finde das immer wahnsinnig lächerlich wie in vielen Signaturen mit hohen Taktraten bei unrealistisch geringen Spannungen angegeben wird...
 
Banned schrieb:
Es gibt nämlich auch tatsächlich Fälle, wo eine CPU in Prime viele Stunden stabil ist, aber in bestimmten Spielen (evtl. weil dort eben auch AVX genutzt wird) nach kurzer Zeit abstürzt.
+1
Ich hatte die letzten Jahre (i5 5675C, i5 6600k, i7 7700k, i5 8600k, R7 1700, R5 2600, R5 3600) keine einzige CPU, bei der es anders war, CPU intensive Games brauchen immer mindestens 1-2 Spannungsstufen mehr als Prime um wirklich stabil zu sein.
Liegt vermutlich an den vielen Lastwechseln in Games, bei Prime steigen die Worker ja auch gerne beim Wechsel der Tests aus.
 
  • Gefällt mir
Reaktionen: Zitterrochen, karl_laschnikow und Jake Grafton
Berserkerbase schrieb:
Wenn all die Tricks, die Intel jetzt anwendet, um an der Macht zu bleiben in die nächste Generation mit niedrigen Strukturbreiten einfließen, könnte es nochmal richtig interessant für uns werden.
Ich sehe da eigentlich wenige Tricks. Es wird ein Skylake in 14nm³ im Takt gespreizt und mit mehr Kernen versehen. So weit ich informiert bin wird der Nachfolger auf Sockel 1200 jedoch maximal 8 Kerne erhalten und eben genau nicht so hoch takten - Verzeihung - boosten können.

cleric.de schrieb:
der kauft sich eine vernünftige grafikkarte. dann sind die unterschiede zwischen amd und intel vernachlässigbar.
Grafikkarten wechselt man für gewöhnlich häufiger als die Plattform. Mit der Strategie stellt man allenfalls sicher, dass man in X Jahren alles auf eimal tauschen muss, weil die CPU nicht wechselbar ist und aus dem letzten Loch pfeift. Reserve beim Prozessor kann sich lohnen.
Noch liegt die Leistungssteigerung bei Grafikkarten deutlich höher als bei Prozessoren.

zeedy schrieb:
10700k mit 3733er CL14er RAMund ab geht die Post. Da gibt's nichts zu diskutieren. Intel ist und bleibt einfach eine Macht.
Wer mir nicht glaubt, soll mal in 1280x720 zocken und gucken wie seine GPU ausgelastet wird!
Beide Plattformen sollen noch einmal einen Nachfolger erhalten. Da bin ich mir allerdings gar nicht so sicher, wer dann vorne liegen wird. Wer nicht gerade zum i9 10900k greift, konnte die Leistung halt schon vorher bekommen.

Supermax2004 schrieb:
Also ich sag mal so, Intel lohnt sich wirklich nur im Spielbereich, und wenn man 1440p oder gar 4k nutzt ist der Unterschied absolut nicht mehr spürbar vorhanden.
Es gibt so machen Spiele die in WQHD oder 4k im Prozessorlimit sind. In anderen Spielen ist man zumindest phasenweise einmal im Prozessorlimit. Wie immer eine Frage der Software :)

Herdware schrieb:
10 hoch getaktete Cores (+HT) in der Mainstream-Plattform. Unter anderen Umständen hätten die meisten Intel dabei wohl den alten Fertigungsprozess und den daraus resultierenden Verbrauch verzeihen können... wenn es nur nicht AMD gäbe, die inzwischen zeigen dass es mit moderner Technologie statt Brechstange viel besser geht. 😉
Ich möchte mir gar nicht ausmalen, wo AMD zurzeit stände, wenn bei Intel bei Intels Fertigung nichts schief gelaufen wäre. Es sind tolle Produkte, aber diese Wirkung ist stark relational zur Stagnation Intels.

KlaraElfer schrieb:
Dass der 10900K in allen Anwendungen >200 Watt zieht, halte ich für ein Gerücht, mein 10900K kommt laut DHL am Samstag, dann kann man sich ein eigenes Bild machen.
Es scheint dir ein sehr großes Anliegen zu sein. Mach uns doch mal ein paar Verbrauchstests in Spielen :)

PS828 schrieb:
Für alles außer gaming uninteressant, teuer, langsam, ineffizient.
Ich sehe den i9 10900k hier 10% hinter dem viel gelobten Ryzen 9 3900x in Anwendungen. Die eigentlich Frage ist wohl eher, ob Intel das nur im Springt, oder auch beim Marathon kann.

Obreien schrieb:
Sorry aber Preis Leistung und Leistung je Watt sollte stimmen.
Brute-Force und exponentielle Preise für Highend gibts doch schon immer. Nvidia kann das ebenfalls gut.

andr_gin schrieb:
Wer diese Anwendungen nicht nutzt, der ist mit Intel besser dran auf Grund der Single Core Leistung. Allerdings ist bei Single Core der Unterschied generell schon so gering, dass es relativ egal ist.
AMD ist keineswegs schlechter, jedoch fehlen einige 100MHertzen. Dieser Vorsprung ist in vielerlei Hinsicht teuer erkauft.

deo schrieb:
Es ist kein Debakel geworden. Der Dank gebührt den Mainboardherstellern, die Übertaktern das Handwerk gelegt haben.
Ich finde OC beim Prozessor ist schon seit i7 4790k, 7700k und Co. längst Geschichte.

cleric.de schrieb:
du meinst eher, dass je geringer die auflösung, desto größer werden die unterschiede. gleichzeitig steigen aber auch die frameraten dermaßen an, dass selbst 20% unterschied völlig irrelevant werden. weil -> es reicht immer.
Anno1800, Arma, WoW-Raids und StarCraft befinden sich durchaus in Frame-Bereichen, wo es relevant werden kann.

ZeroZerp schrieb:
Erstaunlich- Ich frage mich, was die an der CPU gedreht haben, dass sie sich im Gaming dann doch so weit absetzt. Nicht auszudenken, wenn man da noch mit schnellem RAM nachhilft.

Hätte nicht gedacht, dass sich das Ding dann doch signifikant absetzen kann.

Knapp 50% auf AMD in Anno1800 ist wirklich sehr heftig. Und das mit dem Ram. Muss man mal schauen, ob sich das reproduzieren lässt.

Meleager schrieb:
Kunden den 10900k empfehlen wird so wirklich schwer.
Da muss man schon wirklicher Enthusiast sein, um sich den zu rechtfertigen.
In den Kaufberatungen gibt es genug Wallet-Warrior, welche nur Intel wollen. Sie werden sich mit Details auseinander setzen müssen, wenn sie die Leistung aus den Benchmarks auf der Straße sehen möchten. Darin liegt eher meine Sorge.
 
  • Gefällt mir
Reaktionen: CableGuy82, Brian.Griffin, karl_laschnikow und 2 andere
Chillaholic schrieb:
Prime95 ist eine Anwendung gemacht um unrealistische Hitze und Vrbrauch zu produzieren mit AVX, kein Spiel, auch wenn viele das immer noch glauben! :rolleyes:

Aber CB nimmt es um die Effizienz zu messen.^^
Nunja, hab mich schon schlechter amüsiert, abgesehen von den Spielebenchmarks in 1080p und UHD:D und den Prime "Effizienzmessungen" ein guter Test.
 
  • Gefällt mir
Reaktionen: PPPP und Shoryuken94
Chillaholic schrieb:
Prime95 ist eine Anwendung gemacht um unrealistische Hitze und Verbrauch zu produzieren mit AVX, kein Spiel, auch wenn viele das immer noch glauben!

PUBG nutzt AVX !

Ich hab es selbst nachgemessen!

Taxxor schrieb:
Igor hats zum Glück gemessen
https://www.igorslab.de/wp-content/uploads/2020/05/05-Power-Consumption.png

ein 10900K braucht im FHD Gaming knapp 80W und damit ca 30% mehr als ein 3900X

Igor bester Mann (er weiß das FPS nicht das wichtigste sind usw. aber darum gehts ja grad nicht), aber ich habs selbst mit CapFrameX nachgemessen der 8086k braucht rund 260W in PUBG !
 
  • Gefällt mir
Reaktionen: Col. Jessep und Rockstar85
BlackhandTV schrieb:
PUBG nutzt AVX !

Ich hab es selbst nachgemessen!
Möglich, aber es handelt sich hier um Prime95 und nicht um PUBG und Prime95 ist kein Spiel.
 
  • Gefällt mir
Reaktionen: PPPP
Zwirbelkatz schrieb:
Es scheint dir ein sehr großes Anliegen zu sein. Mach uns doch mal ein paar Verbrauchstests in Spielen :)

Warum eigentlich nicht, der 3900x PC kommt von Rage hoffentlich wieder.^^

BlackhandTV schrieb:
aber ich habs selbst mit CapFrameX nachgemessen der 8086k braucht rund 260W in PUBG !

Ach was 360 Watt, nebenbei muss nur noch Prime 95 im "Hintergrund" laufen.
 
  • Gefällt mir
Reaktionen: PPPP und BlackhandTV
Gibt es eigentlich irgendwo News zu den bekannten Sicherheitslecks?

Wurden die gefixt??
 
  • Gefällt mir
Reaktionen: Tapion3388 und Jake Grafton
BlackhandTV schrieb:
Igor beste Mann, aber ich habs selbst mit CapFrameX nachgemessen der 8086k braucht rund 260W in PUBG !
Das wäre ja mehr als ein 10900K in Prime95 zieht, klingt sehr unglaubwürdig.

Die Sensorwerte von CX würde ich im übrigen nie über in HW nachgemessene Werte stellen^^
 
  • Gefällt mir
Reaktionen: PPPP, howdid und Shoryuken94
Zurück
Oben