Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

@PhoenixMDA

Ja gut, es gibt ja nicht nur Kleinkinder hier. Und ich muss es auch nicht haben das jeder auf meine Meinung einschwenkt. Ich will halt nur mal darauf hinweisen dass so Ansichten gerne mal als gesicherter Fakt rausgehauen werden, ohne das man das experimentell Überhaupt adressieren kann. Linear ist schonmal grundsätzlich garnichts was ich bislang gemessen hab und linear parallel schon gleich dreimal nicht.
 
@Taxxor
Das war noch so als 10C 1000 Euro kosten, aber Kerne sind zwischenzeitlich wirklich günstig.

Denke den 10C hier als auch AMDs 12 und 16C sind in vielen Systemen die diese 10C keine 10 Stunden im Monate auslasten, manche ggf sogar nie.

Selbst die 8C hier ... Denke wenn sich die meisten Mal ehrlich vor Augen führen wie oft ihre CPU Anteilig zur Betriebszeit auf 100% haben, dann wird es eher nen winziger Teil sein.

Wer aber zB als Hobby 5h im Monate Blender macht, der freut sich ja in dem Moment dass er viele Kerne hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Relict
ElectricStream schrieb:
Auch entscheidend ob man Unlimited fährt oder nicht.. Sobald die Handbremse aktiviert ist gehen sowohl Leistungsaufnahme und eben auch der Takt runter.. Und die Ergebnisse sind dementsprechend.

Wie gesagt das kann AMD mit angelegten Ketten besser..

Fährt man Vollast säuft die CPU bis zu 350 Watt weg... xD Ich find das richtig heftig..
Und im Cinebench ist der 3900x auch mit Eco + seinen zwei Kernen mehr,
trotzdem schneller bei knappen 87 Watt..

Da merkt man die 14nm ... welche einfach nicht mehr state of the Art sind..
Naja für guten Idleverbrauch hat es gereicht :daumen: .
 
Die Protagonisten der 720p-Tests fordern ja meist 720p, max. Settings (aber kein AA), weil damit die CPU am ehesten gefordert wäre. Ich habe das jetzt mehrfach gestet und bei fast allen Tests war bei 720p und Low mehr Stress auf der CPU als auf Max. Das sieht man schon anhand der Leistungsaufnahme. Wenn man wirklich 720p als Argument für die fehlende GPU-Limitierung ins Feld führt, dann sollte man aber auch mit der schnellsten Grafikkarte und den Settings mit der höchsten Leistungsaufnahme testen. Und das eben NICHT die 2080 Ti und meist auch nicht Max.

Im heutigen Lanuchreview habe ich mal die Leistungsaufnehme über alle Auflösungen und in 720p auch alle wichtigen Settings mitloggen lassen. Interessanterweise hat der 10900K auf 720p in Low zwar die höchste Leistungsaufnahme, spuckt aber auch deutlich mehr FPS pro Watt aus. Setzt man das mal als "Effizenz", sind das 50% mehr als in FHD und Extreme High. Ds muss man auch erst mal hinterfragen. GPU-Limit und FPS/Watt runter :)
 
  • Gefällt mir
Reaktionen: adAstra, LukS, Meleager und 8 andere
Krautmaster schrieb:
Das war noch so als 10C 1000 Euro kosten, aber Kerne sind zwischenzeitlich wirklich günstig.
Trotzdem bekommst du jetzt 6 für 300€ und 10 für 580€, den 90% Aufschlag zahlt man idR nicht mal einfach so für 4% mehr Gaming Leistung, wenn man die Kerne nicht anderweitig nutzen kann.
Ergänzung ()

FormatC schrieb:
Die Protagonisten der 720p-Tests fordern ja meist 720p, max. Settings (aber kein AA), weil damit die CPU am ehesten gefordert wäre. Ich habe das jetzt mehrfach gestet und bei fast allen Tests war bei 720p und Low mehr Stress auf der CPU als auf Max. Das sieht man schon anhand der Leistungsaufnahme.
Die Leistungsaufnahme dürfte ja logischerweise höher sein, weil die FPS mit Low Settings auch weiter steigen.

Bei den 720p Max Settings geht es soweit ich weiß eher darum, dass die Optionen, die die FPS Leistung der CPU beeinträchtigen, auch ausgefahren werden, damit man die Unterschiede der verschiedenen CPUs sehen kann, wie viele FPS sie damit bringen kann.

Das hat man bei PCGH im Kingdom come Test gut gesehen, mit Schatten auf Max kann ein 9900K einfach mal fast doppelt so schnell wie ein 3900X sein, stellt man die Schatten auf Low, bringt das dem 3900X Prozentual sehr viel mehr FPS zurück als dem 9900K und der Unterschied verringert sich.
 
  • Gefällt mir
Reaktionen: Der Paule, KlaraElfer, Esenel und eine weitere Person
Ned Flanders schrieb:
@PhoenixMDA

Ja gut, es gibt ja nicht nur Kleinkinder hier. Und ich muss es auch nicht haben das jeder auf meine Meinung einschwenkt. Ich will halt nur mal darauf hinweisen dass so Ansichten gerne mal als gesicherter Fakt rausgehauen werden, ohne das man das experimentell Überhaupt adressieren kann. Linear ist schonmal grundsätzlich garnichts was ich bislang gemessen hab und linear parallel schon gleich dreimal nicht.
Ja also das stimmt schon so unterschied macht ob du Ultra oder low Settings fährst, die Auflösung kannst du da bei gleichen Seitenverhältnis unter Meßtoleranz verbuchen.

Also die FPS packst du auch bei höherer Auflösung wenn die Graka genug Power hat.Ich finde aber trotzdem nicht das man zuviel Leistung, ob nun beim arbeiten oder daddeln.
 
P.S.: Die imho einzig sinnvolle Ergänzung bei solchen CPU tests wären Tests mit background Last, damit man sich die Leistungsfähigkeit der einzelnen CPUs unter halbwegs realen Szenarien anschauen kann. Was ist wenn im Hintergrund noch Skype/Teamspeak läuft, der Browser auf ist, etc etc pp.

@ZeroZerp

Ich bin da ganz pragmatisch. Proof me wrong und zeig mir eine lineare Skalierung in dem Game das du benchmarken willst und ich bin sofort bei dir. Ich hab schon so viel zeug gebencht das aus meiner sicht stur linear sein müsste und es war es nie. Aber wenn du mich mit Daten überzeugen kannst, dann nur her damit.

EDIT:
ZeroZerp schrieb:
Das ist richtig, aber das eben auch nur, weil man anfängt gegen das Bottleneck des Treibers bzw. der API anzukämpfen und die Last aufs reine Drawcall/Geometrie- drücken verlagert.

Und schon isses vorbei mit linear.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, hRy, Kinkerlitzchen* und eine weitere Person
@Taxxor
Klar siehe meine Ergänzungen. Bei den meisten wie auch mir dürfte es reiner Komfort sein. Zb der seltene Videoschnitt der dann etwas mehr laune macht... Oder Blender. In den wenigen H dann nice To have und ob nun 300 oder 600 für ne CPU ist recht irrelevant wenn man durchschnittlich verdient und nur alle 5 Jahre Mal nen PC kauft.

Was meinst du was die meisten hier mit ihrem 9900K machen? Zocken und das wars ;)
 
FormatC schrieb:
Die Protagonisten der 720p-Tests fordern ja meist 720p, max. Settings (aber kein AA), weil damit die CPU am ehesten gefordert wäre.
Nicht deshalb- Es kommt der gemischten Spieleworkload nur einfach am Nächsten.
Nimmt man den Engines einige ihrer Aspekte misst man vieles, nur nicht die theoretische real- world Spieleperformance.

Ich habe das jetzt mehrfach gestet und bei fast allen Tests war bei 720p und Low mehr Stress auf der CPU als auf Max. Das sieht man schon anhand der Leistungsaufnahme.
Das ist richtig, aber das eben auch nur, weil man anfängt gegen das Bottleneck des Treibers bzw. der API anzukämpfen und die Last aufs reine Drawcall/Geometrie- drücken verlagert.

LG
Zero
 
Taxxor schrieb:
Andersrum, würden die Bordhersteller sich alle an die Specs halten, fielen die Tests auch entsprechend aus^^
Viel schlimmer ist, dass sich sowas bei einigen einbrennt. Gibt heute noch Spezialisten die meinen, dass der 9900K out of the Box 230W+ aus dem NT zieht und 90°C+ Standard sind.
 
  • Gefällt mir
Reaktionen: Laphonso, .Sentinel. und Buggi85
ich vergleiche das mal mit einem Sportwagen. Ja die Sportwagenhersteller produzieren die Fahrzeuge und man kann mit ihnen auf der Rennstrecke fahren, dafür muss man sie aber nachträglich noch umbauen und verliert die Straßenzulassung. So sehe ich das auch mit dem 10900-K, das ist auch eine Rennsemmel. Intel liefert ihn quasi auch mit "Straßenzulassung" aus, nämlich der Tatsache das er im Auslieferungszustand mit jedem passenden Mainboard funktionieren wird. Will man aber die wirkliche Leistung aus der CPU herausholen muss man zwangsläufig tunen was das Zeug hält. Dann wird er erst richtig gut, aber es ist das eigene Risiko wenn was crasht.
Die ersten Overclocking-Berichte gibt es schon. Unter Stickstoff lässt er sich problemlos auf 7 GHz übertakten, da kann ich mir mit entsprechender, aber natürlich sehr aufwendigen, Wasserkühlung einen stabilen Betrieb von 5,5 bis 5,7 GHz gut vorstellen. Natürlich bei entsprechendem Aufwand und ohne Garantie.
Der 10900-K ist für Intel das selbe Statussymbol wie es der 3990X für AMD ist. Wer braucht die schon ? Aber es ist natürlich schön wenn man einen hätte/hat und damit experimentieren kann.
 
owned139 schrieb:
Viel schlimmer ist, dass sich sowas bei einigen einbrennt. Gibt heute noch Spezialisten die meinen, dass der 9900K out of the Box 230W+ aus dem NT zieht.
Naja es ist ja auch nun mal bei den meisten so, eben weil die Specs nicht eingehalten werden.

Intel muss eben einen Tod sterben: entweder sie sorgen dafür, dass die Specs out of the Box wirklich immer eingehalten werden, dann verlieren sie ziemlich viel bei den Benchmark Balken in den Launch Reviews(vor Allem jetzt mit einem 10900K), oder sie lassen es zu und ihnen wird extrem hoher Verbrauch nachgesagt.
 
  • Gefällt mir
Reaktionen: Blekota und .Sentinel.
Schon erstaunlich das ein AMD 3950x bei Vollast nur 145W benötigt und das mit 16 Kernen. Ein 10900k mit 10 Kernen von Intel benötigt 311W und ist zudem in Multicoreanwendungen trotzdem viel langsamer. Bei folgenden Multicore Anwendungen ist AMD deutlich schneller:

7-Zip = + 49% das ist doch mal eine Klatsche
Blender = + 41% auch hier bekommt Intel eine Klatsche
HandBrake = + 27% auch nicht schlecht.
POV-Ray = + 42% auch hier eine Klatsche
Cinebench R20 = +43% vernichtend geschlagen

WinRar scheint recht schlecht programmiert zu sein. Wer da nicht Intel kauft ist selber schuld. Die Spiele werden immer mehr auf Multicores optimiert. Auch die Spielekonsolen verwenden CPUs von AMD daher werden auch immer mehr Spiele in Zukunft auf AMD optimiert. Wer jetzt noch Intel CPUs kauft dem ist leider nicht mehr zu helfen.
 
Wenigstens kann man sagen, wer nicht auf die 720p Tests klar kommt, wird auch von Zen3 enttäuscht. 😂
 
  • Gefällt mir
Reaktionen: Der Paule, KlaraElfer, DaHell63 und eine weitere Person
JoeDoe2018 schrieb:
WinRar scheint recht schlecht programmiert zu sein.
Ich weiss- Alles in dem das AMD- Pendant schlecht abschneidet ist schlecht programmiert.

Wer da nicht Intel kauft ist selber schuld. Die Spiele werden immer mehr auf Multicores optimiert.
Das höre ich mir jetzt seit 15 Jahren an.... aber ja- laaaaaaaaangsam wird es besser ;)

LG
Zero
 
  • Gefällt mir
Reaktionen: Der Paule, Ben81 und PhoenixMDA
zeedy schrieb:
Danke dass ihr meinen BS so lange ertragen habt - und weiterhin werdet :daumen:

Er ist der Messias :daumen:

Würde mir wünschen die i5 und Ryzen 5 würden von Haus aus mit weniger Kernen höher takten, bleibt halt Wunschdenken.

Achja der Typ der die Produktnamen bei Intel wählt gehört gesteinigt, die 0815 Käufer werden sich bedanken
 
  • Gefällt mir
Reaktionen: Banned und alteseisen
@Taxxor das war übrigens beim Heizwell schon so. Die Boards haben viel mehr zugelassen, als er eigentlich ziehen sollte. Gab nen 90+ seitigen Thread irgendwo im Intel Forum wo ein Intel Techniker irgendwann auf überrascht gemacht hat und geschrieben hat, dass das viel zu viel ist. Er hat dann eine kurze Anleitung geschrieben, was wie einzustellen ist und dann wurde der Heizwell auf einmal auch gar nicht mehr so heiß.
 
JoeDoe2018 schrieb:
Schon erstaunlich das ein AMD 3950x bei Vollast nur 145W benötigt und das mit 16 Kernen. Ein 10900k mit 10 Kernen von Intel benötigt 311W und ist zudem in Multicoreanwendungen trotzdem viel langsamer.
Der 3950X wird ja auch auf eben diese 145W gedeckelt, bei Intel passiert das normalerweise auch, wenn die Boardhersteller die Specs nicht ignorieren würden.
Dann wäre der 10900K aber im vergleich eben noch viel langsamer als jetzt schon^^
 
  • Gefällt mir
Reaktionen: Hardwarious
Zurück
Oben