Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

@Esenel
haben Boards mit 2 DIMM Sockeln eigentlich noch den Latenzvorteil? Da fÀllt mir das Black von EVGA ein.
 
  • GefĂ€llt mir
Reaktionen: BlackhandTV
Immer dieser 720p Benchmark-Blödsinn. Klar kann ich verstehen das man die CPU gerne isoliert von der GPU betrachten möchte. Aber daran kann man doch keine Leistungsbewertung fĂŒrs Gaming ableiten. Gerade Gaming ist GPU dominiert und bestenfalls sollte man die Leistung im Verbund von GPU und CPU sehen, keinesfalls die CPU einzeln. Keiner wird ne 500 Euro CPU zum zocken mit ner GTX 1050ti kombinieren oder in 720p mit 400 FPS zocken. Finde ich gut das CB hier auf 1080p setzt und sogar 4K Ergebnis beilegt. Die sind nĂ€mlich wirklich interessant und da gibts dann so gut wie keinen Unterschied mehr zwischen den CPUs. Bis GPUs so leistungsfĂ€hig sind das ich in 4K einen spĂŒrbaren Unterschied zwischen einem 10900k und einem 3700x merke, sind die CPUs sowieso obsolet.
 
  • GefĂ€llt mir
Reaktionen: _Cassini_, ThePlayer, danyundsahne und 8 andere
eRacoon schrieb:
Mit Games wirst du in keinerlei TDP Limits laufen da hier die Leistungsaufnahme weiterhin bei 60-100W bleiben wird wie auch schon bei der Gen9.
Ein Game was Gestern nur 80W aus einem 9900k gezogen hat, wird nicht heute plötzlich 200W brauchen. ;)
Logisch.
Meinte auch dann mit angepasster hardware. Also kĂŒhlung. Eben nicht die Atom bomben Lösung. Vielleicht will ich mir die CPU gönnen... Aber keine super custum loop WasserkĂŒhlung in dem Extra großen GehĂ€use das der Mist auch ja passt.

Können wir uns darauf verstÀndigen?

Mfg
 
Zwirbelkatz schrieb:
Dann ist der Rußpartikelfilter voll? Danke fĂŒr den Hinweis. :)
HÀtte ich mir denken können.
Jep einmal durchblasen oder wie ich es gerne mache mit unauffÀlligen Methoden die Sache mit der Leistung und Temperatur umgehen :D

_20200519_123957.JPG


/r AyyMD :daumen:

Aber ich muss Intel wirklich loben wie sie dank des dĂŒnneren Die einer kernschmelze entkommen sind. Die ingenieure Bei Intel wissen schon was sie tun, auch wenns mal nicht alles rund lĂ€uft.

Und das meine ich wirklich ernst. Respekt an die Jungs bei Intel!
 
  • GefĂ€llt mir
Reaktionen: HiveTyrant, CableGuy82, Brian.Griffin und 2 andere
Supermax2004 schrieb:
Also ich sag mal so, Intel lohnt sich wirklich nur im Spielbereich, und wenn man 1440p oder gar 4k nutzt ist der Unterschied absolut nicht mehr spĂŒrbar vorhanden.
Das ist vielleicht jetzt der Fall, sieht aber mit der nĂ€chsten und ĂŒbernĂ€chsten Grafikkarten-Generation ganz anders aus. Die meisten Gamer tauschen die Grafikkarte wesentlich hĂ€ufiger als den Unterbau mit Mainboard , CPU und RAM.

Wenn das GPU Limit wegfÀllt, treten die Unterschiede viel deutlicher zu Tage. Mit jeder neuen Generation Grafikkarten werden die Ryzen CPUs immer schwÀcher in Spielen dastehen im Vergleich zu den aktuellen und letzten Intel-Generationen.

Mein 4790k (OC) werkelt jetzt seit fast 5 Jahren und brauch sich in Spielen hinter keinem Ryzen verstecken,
solange muss auch mein neuer 10700k durchhalten.

Deswegen sollte auch generell in 720p gebencht werden, so wie das vernĂŒnftige Seiten auch machen.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: PPPP und .Sentinel.
User6990 schrieb:
Oder halt auch nicht, mit der Schublade hat man schließlich immer Gamechanger assoziiert.
Die Assoziation muss aber lang her sein. Ich verbinde eher damit, dass Intel-Fanboys bei jedem Release von einer neuen Ryzen Gen auf die Schublade von Intel verwiesen. Nach dem Motto Intel packt bald den Hammer raus und zerstört AMDs Rebellen Aufstand.
 
yummycandy schrieb:
@Esenel
haben Boards mit 2 DIMM Sockeln eigentlich noch den Latenzvorteil? Da fÀllt mir das Black von EVGA ein.

Puh du fragst Sachen.
Du kommst höher im Takt.
Aber Latenzvorteil nur durch 2 DIMM Sockets? KA.

@snakeeyes
@PhoenixMDA

Wisst ihr da was?
 
  • GefĂ€llt mir
Reaktionen: Infi88 und yummycandy
ZeroStrat schrieb:
Siehe die Spannungen, was @ZeroZerp gepostet hat. Die CPU war stÀndig kurz vor der Kernschmelze, wenn das zutrifft. Ich bin raus hier. Das ist einfach nicht das, was ich mir unter einem richtigen CPU Tests vorstelle.

Seit den Ryzen 3000 Tests bei PCGH gehörst du dort zu den scharfen Kritikern und hast mehrmals behauptet die Ergebnisse dĂŒrften dort fĂŒr die Intels insbesondere 9900K, nicht stimmen, jetzt fallen die Ergebnisse bei CB anders aus oder der Unterschied zwischen PCGH und CB ist grĂ¶ĂŸer, als du gedacht hast, war er damals auch (die 720p Tests haben nicht den von dir gewĂŒnschten Abstand zwischen Intel und AMD gezeigt) und nun macht CB angeblich Fehler und du bĂŒgelst mit einer grenzenlosen Arroganz hier den Test ab.
Wenn dir in Deutschland die verschiedenen Tests der renomierten Seiten nicht zusagen, schlage ich vor du machst deinen eigenen Kanal auf.
 
  • GefĂ€llt mir
Reaktionen: Porty47, wertzuiop123, ThePlayer und 18 andere
BlackhandTV schrieb:
mein 8086k lÀuft ja auch auf 5,1GHz allcore, kannste mir ruhig glauben, einfach mal selber nachmessen!



80W ist doch nen Witz, mein StrommessgerĂ€t lĂŒgt doch nicht, und die Software komischer auch noch am lĂŒgen, niemals!

Jeder weiß das ein 8086k/8700 ĂŒbertaktet Strom zieht wie nen Weltmeister!

Mist du an der Steckdose?
 
Hier zeigt der Vergleich zum 2,5 Jahre alten Core i7-8700K mit fast Àhnlicher Leistung einen Vorteil von fast zehn Grad Celsius. Und das, obwohl der 8700K weniger verbraucht. Die 14-nm-Fertigung ist demnach noch einmal verbessert worden und Intel hat das Binning optimiert.

Wohl eher Zahnpasta WLP gegen gelöteten Heatspreader ausgetauscht. Mein 8700k ist ohne Zahnpasta 18°C kĂŒhler.
Hier muss man Intel wirklich nicht noch Lorbeeren in den Hintern schieben.
 
  • GefĂ€llt mir
Reaktionen: DannyA4 und Starkstrom
DavidG schrieb:
Danke sehr, das erklĂ€rt zumindest die Unterschiede. Damit dĂŒrfte der Intel i9 10900K immer noch eine sehr gute CPU sein, die fĂŒr die meisten User, nĂ€mlcih alle, die auf die Leistungsaufnahme achten und nicht die ganze Zeit die CPU unter Volllast betreiben sowie alle, die ab und an mal spielen, die erste Wahl sein, aber AMD wird nicht vollstĂ€ndig deklassiert.
AMD bessere Wahl bek Preis Leistung sagen leider alle, PCGH hat sich mit dem Artikel fĂŒr mich komplett ins Aus geschossen. Man muss nun den ganzen Test anzweifeln leider.
 
  • GefĂ€llt mir
Reaktionen: DannyA4, Brian.Griffin und Öcher Tivoli
Shoryuken94 schrieb:
In Zeiten von 144FPS bei Mittelklasse Displays durchaus relevant.
Ja, ich kenne nur kaum jemanden mit solchen Displays. Und ich rede hier von ganz normalen 0815-Gamern.

Da kannst du dann natĂŒrlich auch gerne die angekĂŒndigten 360Hz-Monitore heranziehen. Nur je mehr Kriterien du definierst, desto spitzer - also kleiner - wird deine Zielgruppe. Ja, fĂŒr irgendwen mögen die Unterschiede beim Gaming noch relevant sein, nur diese Gruppe wird bei der Leistung aktueller CPUs halt immer kleiner. FĂŒr alle anderen reicht es eben immer. ;)
 
  • GefĂ€llt mir
Reaktionen: ThePlayer, Brian.Griffin und v_ossi
Taxxor schrieb:
Weiter unten siehst du beim OC Abschnitt auch das Zitat


Also 100W verbraucht er Stock, jetzt bleibt die Frage, wie Gamestar das ermittelt hat, aber Igor kommt dort auch auf 95W.
Kasjopaja schrieb:
Mist du an der Steckdose?
ja, messt es doch selber nach wenn Ihr nen Intel mit 5,1GHz allcore oder mehr habt ! Ihr könnt es mir glauben!
 
Der 10900K steht und fĂ€llt mit der KĂŒhlung. Mit unter 50 °C im Package brettert der voll durch. Nur kostet die AktivkĂŒhlung ĂŒber 3 Stunden fast genauso viel, wie ich mit der igoBOT Animation fĂŒr den Core i9 verbraten habe. das waren im Schnitt 215 Watt Leistungsaufnahme mit etwas höheren Peak Werten und 180 Watt Average fĂŒr den Chiller, wenn ich der Steckdose glauben schenken kann. Sinnlos :D

Kleine Anmerkung:
Wenn man mit einem guten Board und HWInfo die Package Power ausliest, sind die Spannunsgwandlerverluste fast immer mit drin. Ich habe hinter den VRM deutlich weniger. Im Idle waren es stellenweise nur 4.8 Watt. Das ist Notebook-Niveau. Aber ich kauf mir den nicht zum ideln :)

Intel ist mit den Preisen extrem runtergegangen. Der HÀndler-EK des 10900K könnte manchem AMDler Schmerzen bereiten. Nur wird es wohl erst mal beim Kunden nicht ankommen. Leider.
 
  • GefĂ€llt mir
Reaktionen: _Cassini_, tstorm, Cronos83 und 29 andere
KlaraElfer schrieb:
Als ob du in deinem Anwendungsszenario zu Hause Dauerlast hÀttest.
Ist doch völlig legitim die TrĂ€gheit auszunutzen und am Anfang voll zu boosten. Ist in Notebooks nicht anders, ich halte das fĂŒr eine Eigenschaft des Produkts, mit all seinen Nachteilen.
Die CPU ist als Renderschubse jedenfalls nichts, da holt man den 3900x, der dazu noch etwas sparsamer ist und bisschen flotter. Bei Gaming wirds schon interessanter, da lacht mich der 10600K an.



Ein kurzer Blick ĂŒber die Messwerte reicht schon um zu sagen, dass etwas nicht stimmt, da hat er leider völlig recht. Letztes mal war der 9900K zu langsam, was ihr selbst nicht bemerkt habt (obwohl 7% Abweichung) und erst durch meinen Hinweis nachetestet wurde.
Mehrere Spiele hÀngen in irgendwelchen Limits, nur nicht die der CPU/RAM, das ist nicht so dolle.^^

Und die Effizienz misst man garantiert nicht mit Prime 95.;) Verstehe ehrlichgesagt nicht, wieso das ĂŒberhaupt Bestandteil des Tests ist.
Wenn dann mĂŒsste man hier die Leistungswerte angeben. Dort ist ein 10900K, jedenfalls >50% schneller als ein 3900x oder 3950x. Dass der 10900K in allen Anwendungen >200 Watt zieht, halte ich fĂŒr ein GerĂŒcht, mein 10900K kommt laut DHL am Samstag, dann kann man sich ein eigenes Bild machen.

Wieder so ein fanboy... Du hast das Ding ja schon bestellt und willst nicht zugeben das das Teil fĂŒr den Preis crap ist...
 
  • GefĂ€llt mir
Reaktionen: ThePlayer, Hardwarious, DannyA4 und 5 andere
Was zu erwarten war.

Dann vielleicht bis 2021, Intel. Viel Erfolg!
 
  • GefĂ€llt mir
Reaktionen: Öcher Tivoli
@Knito: Mhhh joah naja joah....weit in die Zukunft blickend, was GPUs und deren mögliche Leistung anbelangt. Und dann gehen wir aber auch alle auf 4k oder drĂŒber und schon sind wir wieder im GPU Limit.
 
Eins dĂŒrfte deutlich und klar sein: Auf die Intel-Foristen und das WaKĂŒ-Forum kommt sehr viel Arbeit zu. PC zusammenbauen, Speicher auf XMP umstellen und OS installieren ist bei Intel endgĂŒltig Vergangenheit. Je nach Board und KĂŒhlung fĂ€llt die Leistung sehr unterschiedlich aus und eine echte "out of the box"-Performance gibt es nicht.
Die Spitzenlast dĂŒrfte nicht zuletzt auf die Netzteil-Anforderungen durchschlagen...
 
wuschipuschi schrieb:
AMD bessere Wahl bek Preis Leistung sagen leider alle, PCGH hat sich mit dem Artikel fĂŒr mich komplett ins Aus geschossen. Man muss nun den ganzen Test anzweifeln leider.

Ja, AMD wird den Preis deutlich senken mĂŒssen und dann preisleistungstechnisch wieder interessant sein. Die beste CPU bei unbegrenztem Geld bietet zur Zeit zweifelsfrei Intel.
 
ZurĂŒck
Oben