Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

Wadenbeisser schrieb:
Eine angebliche 125W CPU die für die letzten MHz mal eben gute 300W verbrät.

Ach was, die CPU ist abseits von der sinnfreien Prime 95 Übung in der Praxis nicht wirklich viel ineffizienter als die AMD Konkurrenz, aber es war mir klar, dass du dich am maximal möglichen Peakverbrauch aufhängen wirst. Die 20 bis 30 Watt bei Gaming und 50 bis 60 Watt bei Anwendungen können Vega Liebhaber doch sicher verschmerzen. Man kann die CPU doch undervolten bzw. in der TDP begrenzen, oder nicht? ;) Wie effizient das dann mit 125 Wtt Linit ist, sieht man bei der PCGH.
 
  • Gefällt mir
Reaktionen: squadric, Buggi85 und USB-Kabeljau
Dai6oro schrieb:
Wenn es mit einem 360er Radiator nicht möglich ist die CPU only! zu kühlen, dann läuft wirklich was falsch. Meine GPU verbraucht unter Dauerlast und OC keine 380 Watt. OC ist damit wirklich für die Tonne weil die Hürde so extrem hoch geworden ist. Kein Vergleich zu früher wo das alles mit Luft noch möglich war.

Dir ist aber bewusst dass dies AVX2 Dauerlast war.
Diese hält ein Ryzen auch nicht bei 4.3GHz?
 
  • Gefällt mir
Reaktionen: borizb, howdid, KlaraElfer und eine weitere Person
Ich muss nicht alles mit AMD vergleichen um zu erkennen, dass das wahnwitzig ist 250Watt+ nur durch die CPU zu jagen. Wie gesagt früher konnte man noch mit Luft OCen heute brauch ich ne Custom Wakü oder einen Chiller dafür. Ist halt der falsche Weg.
 
USB-Kabeljau schrieb:
Ich war allerdings bislang der Auffassung, dass ein Prozessor, der einen bestimmten Takt auf einem Kern im Boost erreichen kann, den selben Takt auch All-Core OHNE Spannungserhöhung erreichen kann, solange nicht Power Limit oder Temperatur limitieren.

Nope, das eine impliziert das andere nicht.
 
DavidG schrieb:
Weiß man eigentlich schon, wie hoch Rocket Lake takten wird? Theoretisch müssten doch 5,5-5,7 GHz drin sein.

Die CPU wird schon über die Kotzgrenze betrieben, ist ne gute Frage aber ich denke das sowas mit "normalen" Mittel sehr schwer zu erreichen sein wird.
 
howdid schrieb:
Nö ich mags wenn mein apex mit 200+ fps butterweich ohne tearing läuft und alles so matschig wie möglich aussieht das ich die Gegner schneller spotten kann um sie ins Nirvana zu befördern. Gibt sogar extra eine Communitys dafür ala blurbusters
Und das machst du in 4K/UHD? Denn darum ging es ja in der Diskussion:
Taxxor schrieb:
Und man muss es nicht immer, aber in 4K wird man eben sehr viel häufiger im GPU Limit sein, als in 1080p und damit wird die CPU unwichtiger, je häufiger man im GPU Limit ist
Scrush schrieb:
was daran liegt dass du ne gurken gpu und/oder ultra settings nutzt.
Man kann eine 2080ti wohl kaum als "Gurken GPU" bezeichnen, weil die trotzdem in 4K/UHD limitiert.

Du kannst aufgrund deiner Präferenzen nicht pauschal davon ausgehen das jeder so denkt
In meinem posting war von meiner Präferenz die Rede, erkennbar an den Wörtern "ich" und "mich", sowei den von mir präferierten Spielen, während Scrush pauschal die Dummheit respektive "Armut" der anderen Gamer anprangert. Jeder kann und soll seine Hardware so einstellen, wie er das für richtig hält und für mich ist es eben nicht richtig, eine 2080ti zu kastrieren, damit ich ins CPU Limit komme. Ich bleibe dabei: das ist absurd, ich möchte meine Grafikkarte so gut wie möglich ausnutzen.
 
  • Gefällt mir
Reaktionen: Hardwarious und Celinna
DavidG schrieb:
Finde ich nicht: man stellt die beste Spiele CPU und bei Anwendungen ist man fast auf Niveau des 3900X. Das sieht sehr gut aus.☺
Nicht falsch verstehen, ich habe hier 2 AMD Rechner stehen (FX 6100 und A12 9800) und würde wegen der billigeren Preise wieder zu AMD greifen, aber Intel hat hier ganze Arbeit geleistet, was gut ist, weil AMD jetzt die Preise weiter ordentlich wird senken müssen.

Hast du akute "Zahlenprobleme" oder eine komplette Matheschwäche?
Der 3900X ist in Anwendungen 13% schneller und in Spielen 13% langsammer bezogen auf den 10900k (125/250), aber dafür 150€ billiger!
Und AMD hat beim 3900X der sich verkauft wie warme Semmeln überhaupt keinen Grund die Preise zu senken. Und AMD entwickelt bestimmt nicht ihre CPUs, das ihr von der blauen Fraktion billiger einkaufen könnt, wenn sie offensichtlich das bessere Produkt haben. Der 3900X hat in 10 Monaten die absoluten Verkaufszahlen des 9900k (19 Monate am Markt) bei Mindfactory übertroffen. Sprich AMD konnte in 10 Monaten mehr 3900X bei Mindfactory verkaufen, als Intel i9 9900k in 19 Monaten.
 
  • Gefällt mir
Reaktionen: eXe777, znarfw, eyedexe und 4 andere
gut das ich einen Ci9-9900k habe,.. die paar % mehr leistung für hohen Stromverbrauch,....
 
Dai6oro schrieb:
Ich muss nicht alles mit AMD vergleichen um zu erkennen, dass das wahnwitzig ist 250Watt+ nur durch die CPU zu jagen. Wie gesagt früher konnte man noch mit Luft OCen heute brauch ich ne Custom Wakü oder einen Chiller dafür. Ist halt der falsche Weg.

Du kannst doch die automatischen Limits lassen?
Du musst doch nicht auf 5.2GHz Allcore übertakten?

Verstehe nicht warum du so nen Abriss über ein OC Ergebnis machst?
 
  • Gefällt mir
Reaktionen: squadric
OldZocKerGuy schrieb:
Die CPU wird schon über die Kotzgrenze betrieben, ist ne gute Frage aber ich denke das sowas mit "normalen" Mittel sehr schwer zu erreichen sein wird.

Das ist komplette Fantasie eines blauen Fanboys!
Hat sich mal jemand ernsthaft gefragt warum Raketen Lake wieder nur mit 8 Kernen kommt in 14nm, anstatt der jetzt vorhandenen 10 Skylake Kernen?! Die Cove Kerne sind aufgebohrt und auch AVX 512 fähig, sprich sie werden für ihre Mehrleistung in 14nm, auch mehr Strom verballern und würden als 10 Kerne jegliche Mainstreamboards wohl stromversorgungstechnisch sprengen. Dazu ist Raketen Lake ein Backport der für 10nm designed wurde und jetzt auf 14nm portiert wird. Wenn sie Glück haben können sie die Taktraten halten, eher rechne ich bei bei Raketen Lake mit 5 GHZ, danach wird der Stromhunger wahrscheinlich viel zu groß sein.
 
  • Gefällt mir
Reaktionen: Aduasen
Nixdorf schrieb:
Bei sauber konfiguriertem PL1/PL2/Tau regelt der 10900K aber nach kurzer Zeit auf 125W runter und verliert dabei nur im lange laufenden Blender-Benchmark mehr als 3% Performance.
Naja, das kannst du dann auch übersetzen nach "verliert nur deutlich an Performance in lang laufenden Aufgaben, wie ein längeres Blender-Rendering, etc"

Um kurze Spitzen abzufangen ist das sicher super, für längere Aufgaben die auch auslasten hat die CPU halt entweder keine Ausdauer, oder 200 bis 300W anliegen. Das kann man sich dann auch aussuchen.
 
DonL_ schrieb:
Hast du akute "Zahlenprobleme" oder eine komplette Matheschwäche?
Man muss doch nur die Fakten ausblenden ;)
 
FormatC schrieb:
Ich denke mal, hier wird Vieles auch an den Boards liegen, die so unterschiedlich ausfallen, das man eigentlich komplett blöd werden könnte. Von einer BIOS Revision auf die aktuellste (MSI) war plötzlich per Default alles auf genau 215 Watt am VRM gedeckelt (AVX mal außen vor). Supero lässt laufen, Asus zieht den Stecker. ASRock ist alles kackegal und Biostar ist widerlich limitiert (ok, bei den Komponenten wohl auch besser so). Sucht Euch was aus, da liegen locker mal 5% und mehr an finaler Performance dazwischen. Ich finde den Kompromiss, den MSI da gemacht hat, noch mit am fairsten, auch wenn man gut kühlen sollte. Rechnet man das mal auf die Flächen der jeweiligen Hotspots um, hat man bei dem Intel in etwa die gleiche Wärmestromdichte wie bei den Ryzen 9. Und dass die sich gut kühlen ließen, ist eine Legende. [IMG]https://extreme.pcgameshardware.de/images/smilies/biggrin1.gif[/IMG]

Viele werden sich gefragt haben, warum ich mit Chiller getestet habe. Bei unter 55°C am Package hatte ich gar kein zeitlich begrenztes Limit mehr, auf keinem der Bretter. Die Animation mit meinem Roboter braucht in Blender ohne Optix, also nur mit der CPU Tage. Ich habe das Experiment allerdings nach 3 Stunden beendet. Keine Einbrüche, immerhin. Der 10900K ist aus meiner Sicht ein PR-Stunt, um die Krone zu behalten. 10700K und 10600K sind viel interessanter und im Fußhupenbereich würde ich gern mal 3300X vs. 10100 sehen. DAS ist nämlich auch massenkompatibel. [IMG]https://extreme.pcgameshardware.de/images/smilies/smiley.gif[/IMG]

Es ist doof, dass man den 10900k auf einem separaten Board testen musste, was am Ende wohl auch zu diesen Differenzen geführt hat. Ich hatte auch am Anfang fast 15% Unterschied, die sich nur über die jeweilige Leistungsaufnahme definieren ließen. Mit dem letzten BIOS von MSI war dann der 10900K zwar auf dem Unify noch vorn, aber nur noch recht knapp vor den 9900K(S) auf dem Godlike. Deshalb nehme ich auch sehr gern die unterschiedlichen Bretter von nur einem Hersteller, weil deren Philosophie am besten zusammenpasst. Ob das dann Spec-konform ist, sei mal dahingestellt. [IMG]https://extreme.pcgameshardware.de/images/smilies/biggrin1.gif[/IMG]
https://extreme.pcgameshardware.de/...e-mit-10-kernen-und-5-3-ghz-post10320354.html
Raff schrieb:
Stock ist nicht gleich Stock (wie im Wald [IMG]https://extreme.pcgameshardware.de/images/smilies/zwinker4.gif[/IMG]). Soweit ich das verstanden habe, hängt die "Realität" nicht nur vom Hersteller und dessen Interpretation der Spezifikation ab, sondern auch vom konkreten Board und wohl auch noch der Firmware. Daher die großen Unterschiede zwischen den Tests. Jetzt mal abgesehen davon, dass PCGH immer im CPU-Limit testet und daher tendenziell die größten Unterschiede dokumentiert.

MfG
Raff
https://extreme.pcgameshardware.de/...e-mit-10-kernen-und-5-3-ghz-post10320570.html
PCGH_Dave schrieb:
Ich möchte hier mal einiges klarstellen, da es doch einige Unstimmigkeiten gibt. Zuerst das wichtigste, die Ergebnisse: Ja, ich gebe zu, dass manche Daten in in den Benchmarks leicht veraltet sind. Das sind der Zeitarmut bei PCGH geschuldet (Raff weist desöfteren darauf hin). Dadurch kann es passieren, dass bestimmte CPUs im Verhältnis zu anderen Tests etwas weiter auseinander liegen, als sie eigentlich sollten. Wir sind natürlich bemüht, die Werte möglichst aktuell zu halten, aber das ist in Zeiten von Always-Online-Service-Games noch nie so schwierig wie heute gewesen. Ich gebe zu, dass ich das unterschätzt habe. Es gab diverse Stichproben, mit kleineren Abweichungen (welche im Test-Alltag normal sind), doch keine davon waren alarmierend. Ihr könnt euch sicher sein, dass euer Feedback in den neuen Test-Parcours einfließen wird. Comet Lake-S, also 10900K und 10600K, waren nämlich die beiden letzten CPUs, welche es in den alten Index geschafft haben. Die kommenden zwei Monate werde ich damit verbringen, einen neuen Test-Parcours aufzubauen, eine neue Testmethodik anzuwenden und dafür Sorge tragen, dass es "absurde" Abweichungen einzelner Ergebnisse nicht mehr geben wird.

Zu den Abweichungen zu anderen Testern und zum 9900K: Ein paar User haben es ja bereits erklärt. Das hängt vor allem mit unsere aktuellen Testmethodik zusammen, welche ein striktes TDP-Lock für die CPUs vorsieht. Das macht niemand anders so. Damit ändert sich tatsächlich mehr, als man glauben mag. Der zweite Punkt betrifft den Arbeitsspeicher, welchen wir beispielsweise im Fall des 9900K mit DDR4-2666 betreiben. Ein 9900K mit dem Speicher und nur noch 95 Watt TDP reißt einfach keine Bäume aus. Ein 10900K aber, mit schnelleren Speicher und höherer TDP, trickst damit ganz geschickt unsere Testmethodik aus, nämlich insofern, dass die CPU gar nicht davon betroffen ist. Der Unlocked 10900K ist ja auch in den Benchmarks und der ist nicht merklich schneller als der locked 10900K. Beim 9900K fallen diese Unterschiede viel gravierender aus.

Meine Wenigkeit befindet sich nach diesem Post dann auch erstmal im Urlaub, den mir trotz aller Widrigkeiten, betreffend dieses Tests, verdient habe. Das war nämlich viel Arbeit und ich benötige jetzt mal eine Auszeit von CPUs, TDP-Locks und unzähligen Daten, Werten und Zahlen. Auf bald [IMG]https://extreme.pcgameshardware.de/images/smilies/smiley.gif[/IMG]
https://extreme.pcgameshardware.de/...e-mit-10-kernen-und-5-3-ghz-post10320408.html

Damit ist eigentlich klar das sich am PCGH Test nichts mehr ändern wird.

Wie die Unterschiede entstanden sind haben Dave und Raff noch einmal erklärt, und selbst Igor kann es nachvollziehen.
 
  • Gefällt mir
Reaktionen: Rockstar85
HerrRossi schrieb:
Und das machst du in 4K/UHD? Denn darum ging es ja in der Diskussion:


Man kann eine 2080ti wohl kaum als "Gurken GPU" bezeichnen, weil die trotzdem in 4K/UHD limitiert.


In meinem posting war von meiner Präferenz die Rede, erkennbar an den Wörtern "ich" und "mich", sowei den von mir präferierten Spielen, während Scrush pauschal die Dummheit respektive "Armut" der anderen Gamer anprangert. Jeder kann und soll seine Hardware so einstellen, wie er das für richtig hält und für mich ist es eben nicht richtig, eine 2080ti zu kastrieren, damit ich ins CPU Limit komme. Ich bleibe dabei: das ist absurd, ich möchte meine Grafikkarte so gut wie möglich ausnutzen.
settings runter.
ich schreib ja gurken gpu und/oder ultra settings


ich prangere keine armut an und auch keine dummheit.

ich drösel das nur auf und differenziere gpu und cpu.

und ja wenn die graka limitiert, ist sie faktisch der flaschenhals und demnach zu langsam bzw die gurke. ob die jetzt 2080ti heist oder anders, ist doch latte.
 
alteseisen schrieb:
Ich werde den Eindruck nicht los, das man den Prozessor kurzzeitig erlaubt die Papierdaten zu generieren um dann ganz schnell einzudrosseln und de facto diese Daten sperrt um nicht abzurauchen. den 10900 auf allen Kernen mit 5GHz zum Laufen zu bekommen wird eine harte Nuss.
Das MSI Tomahawk bringt ihn direct out of the box auf 4.9ghz all.core und hat nochmal nen Schalter für OC, da biste dann schon bei 5.1ghz all-core. Bequemer geht es eigentlich nicht, ähnlich wie bei Ryzen.

Siehe Hardware Unboxed Review. Bei anderen Boards sind es halt 4.3 ghz default, 4.9ghz mit MCE. Scheint auf jeden Fall kein Drama zu sein.
 
HerrRossi schrieb:
Jeder kann und soll seine Hardware so einstellen, wie er das für richtig hält und für mich ist es eben nicht richtig, eine 2080ti zu kastrieren, damit ich ins CPU Limit komme. Ich bleibe dabei: das ist absurd, ich möchte meine Grafikkarte so gut wie möglich ausnutzen.

verbietet dir doch keiner und auch ich nicht.

was aber nicht geht ist die leistung einer cpu in frage zu stellen wenn man seine always ultra mentalität auf die allgemeinheit umlegt und die cpu dann für überflüssig erklärt.

du bist in dem fall ja selbst verantwortlich dafür dass du die leistung der cpu beschränkst.

und in 3440x1440 120 oder 144hz wird eine 2080S/ti eng, auch in deutlich gelockerten settings.
 

Anhänge

  • GTA5_2020_05_20_20_34_12_042.jpg
    GTA5_2020_05_20_20_34_12_042.jpg
    3,8 MB · Aufrufe: 346
Jake Grafton schrieb:
Wie jetzt? Also ich finde eine AMD CPU bläst mehr Wärme in mein Zimmer als selbst ein 10900k tun würde, denn meine CPU arbeitet eher selten voll am Limit, während sie die meiste Zeit im Idle ist, oder sehr nahe dran.
600€ CPU mit idle Kompetenzen. Die Auswirkungen von Delta 20w möchte ich mal umgerechnet in Raumtemperatur sehen.

Wenn Comet Lake in Anwendungen so schnell wäre wie Ryzen und wenn Comet Lake PCI-Express-4.0 könnte, würde die Plattform höchstwahrscheinlich genauso viel brauchen. Kann sie aber nicht. Im Gegenteil, man braucht mehr Leistung für längere Zeit, wenn wirklich etwas erledigt werden soll.

Wenn der Nachfolger auf Sockel1200 PCI-E-4.0 kann und dann noch immer so einen schlanken Fuß serviert, ziehe ich gerne meinen Hut.
 
Bei dem Leistungsverbrauch sollte man etwas vorsichtig sein, denn langsam sickert duch das es auch mit dem verwendeten Mainboard und dem Bios zusammenhängt. Die Mainboardhersteller steuern hier offensichtlich alle etwas anders, das erklärt dann auch ein wenig die abweichenden Benchmarktestergebnisse. Was die Preise der neuen CPU's angeht kehrt aber Ernüchterung ein, gut aktuell sind das Einführungspreise, da geht vielleicht noch ein wenig, aber trotzdem wird sich nichts daran ändern das Intel für seinen Namen leider einen deftigen Aufschlag will. Das ist für mich das wirklich enttäuschende, denn alle haben erwartet das Intel seine Preispolitik korrigiert, aber dem ist nicht so. So bleibt AMD weiter der klare Preis/Leistungssieger und bei der Auswahl auf der AM4-Plattform kann sich jeder aussuchen wieviel/wenig im ausreicht. Igor's Lab hat einen sehr informativen Bericht gemacht so wie immer. Was ich aber nicht praxisnah bei dem Bericht fand ist das er einen Chiller verwendete um die CPU auf konstant 20°C zu halten. Klar so kann man grundsätzliche Unterschiede besser erkennen, aber wer betreibt seinen Rechner schon konstant mit einem Chiller ? Extra noch eine Eiswürfelmaschine anschaffen um die CPU zu betreiben ? Mit steigender Temperatur steigt auch die Stromaufnahme obwohl die Rechenleistung die selbe ist. Die CPU's sind nicht schlecht aber letztlich leider wieder mal viel zu teuer im Vergleich zu AMD.
 
Scrush schrieb:
und ja wenn die graka limitiert, ist sie faktisch der flaschenhals und demnach zu langsam bzw die gurke. ob die jetzt 2080ti heist oder anders, ist doch latte.
Dass die graka limitiert ist doch das Ziel, niemand möchte in einem CPU Limit spielen, da die Frametimes dort so gut wie immer Mist sind.

Was manche noch nutzenn sind limiter um die GPU last bei 94-95% zu halten damit der Input lag geringer ist, aber auch da muss die CPU auf jeden Fall mehr meisten können als die GPU.

Eine Komponente wird immer der Flaschenhals sein, geht ja gar nicht anders. Und das sollte immer die GPU sein.
Ob sie dann faktisch zu langsam ist hängt nicht davon ab ob sie limitiert oder nicht, sondern bei wie viel fps sie limitiert
 
  • Gefällt mir
Reaktionen: Celinna, eyedexe und HerrRossi
Dai6oro schrieb:
Ich muss nicht alles mit AMD vergleichen um zu erkennen, dass das wahnwitzig ist 250Watt+ nur durch die CPU zu jagen.

Dann setz dir im Bios doch ein AVX Offset bzw eine TDP Grenze, dann hast du auch keine 250 Watt Verbrauch, solltest du wieder eine Runde Prime 95 zocken.

Wahnwitzig ist es schon diese Leistungsaufnahme durchzulassen, allerdings tritt das wo wann und wie auf? Eigentlich bei niemandem. Verstehe nicht wieso es so schwer ist diese Transferleistung zu leisten. Igors Lab, PCGH, Hardware Unboxed haben den Verbrauch in untersch. Szenarien ermittelt und es dem Leser ganz einfach gemacht.

Ganz davon abgesehen, dass der 10900K in Prime bei weitem die schnellste CPU ist, heißt auf 125 Watt limitiert, zieht der den 3900X mit nur ~ 4GHz von den Werten her um >50% ab, selbst mit den 250Watt auf 4,9 GHZ ist das Ding nicht sonderlich ineffizient.

Zero Zerp kann die Prime Leistungswerte sicher nochmal raussuchen, damit man das Ganze auch einschätzen kann.
 
  • Gefällt mir
Reaktionen: squadric und Esenel
Zurück
Oben