Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

Bin ich der einzige der die non-K und i3 CPUs sehr viel spannender erwartet?
 
  • Gefällt mir
Reaktionen: unspektakulaer und Apocalypse
gaertner87 schrieb:
doch, genau das ist es... oder legst du deine Hand dafür ins Feuer, dass ein 10900K nicht von einem 6c Zen3/Rocket Lake in Spielen verprügelt wird?

Definiere verprügelt? Selbst bei halbwegs realistisch angenommenen 20%+ Overall in Spielen wäre ein Zen 3 gerade einmal auf Coffee/Comet Lake Niveau bzw. etwas drüber, insofern ja.

Die Vergangenheit hat oft genug gezeigt, dass die Erwartungshaltungen an Leistungszuwächsen der CPU wesentlich höher waren, als das was dann tatsächlich gebracht wurde. Läuft heute nicht mehr so, wie vor 15 Jahren. Die kochen alle nur mit Wasser und vor allem am Limit....
 
  • Gefällt mir
Reaktionen: yummycandy und Baal Netbeck
Der Paule schrieb:
Definiere verprügelt? Selbst bei halbwegs realistisch angenommenen 20%+ Overall in Spielen wäre ein Zen 3 gerade einmal auf Coffee/Comet Lake Niveau bzw. etwas drüber, insofern ja.

Die Vergangenheit hat oft genug gezeigt, dass die Erwartungshaltungen an Leistungszuwächsen der CPU wesentlich höher waren, als das was dann tatsächlich gebracht wurde. Läuft heute nicht mehr so, wie vor 15 Jahren. Die kochen alle nur mit Wasser und vor allem am Limit....
Und was ist mit Rocket Lake? Spekulatius schon weg?
Das Einzige, was uns die Vergangenheit oft genug gezeigt hat ist, dass Leistung oder besser Kerne "auf Halde" zu kaufen für reines Gaming zumeist rausgeschmissenes Geld war. Was du hier von einer Momentnaufnahme ableitest muss für die Zukunft keine Gültigkeit haben - hinterher ist man immer schlauer und dann schüttelt man solche Aussagen eben leicht aus dem Ärmel ;)
 
aldaric schrieb:
Puh. Du kommst mit Far Cry, ich komm mit World War Z. Da sieht Intel kein Land gegen Zen. Können wir nun mit dem beliebigen Cherry-Picking aufhören ? Oder willst du, wie immer eigentlich, nur weitertrollen? :rolleyes:

Nur gibt es solche Spiele wie Far Cry eben häufig, wie auch Anno oder Kingdome Come Deliverance usw., World War Z ist hingegen eine absolute Ausnahme.

Ich bin gespannt auf Esenels Werte. Wenn er jetzt schon einen 10900K besitzt, dann bietet sich ein Update des letzten Tests an. ;)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Infi88 und Baal Netbeck
KlaraElfer schrieb:
Nur gibt es solche Spiele wie Far Cry eben häufig, wie auch Anno oder Kingdome Come Deliverance, World War Z ist hingegen eine absolute Ausnahme, das als cherry picking zu beschreiben widerspricht deutlich den ermittelten Ergebnissen.

Ich bin gespannt auf Esenels Werte. Wenn er jetzt schon einen 10900K besitzt, dann bietet sich ein Update des letzten Tests an. ;)

Wenn man Games auf Intel CPUs hin optimiert, ergibt sich dieses Bild.
 
gaertner87 schrieb:
Das Einzige, was uns die Vergangenheit oft genug gezeigt hat ist, dass Leistung oder besser Kerne "auf Halde" zu kaufen für reines Gaming zumeist rausgeschmissenes Geld war.
Ansichtssache....Ich habe vor ewigkeiten zwei PCs gebaut...einen mit C2Q 9550 und einen mit C2D E7200. Damals hat man die 4 Kerne noch als Luxus gesehen..und rausgeworfenes Geld....kurze Zeit später kamen einige Spiele wie Anno 1404 oder Witcher2, die mit 4 Kernen deutlich besser gelaufen sind.
Und heute ist der E7200 noch als Internet PC bei den Eltern im Einsatz...und trotz SSD und immerhin 4GB Ram oft völlig überfordert.
Der Q9550 ist noch immer der Standrechner meiner Freundin und mit SSD und 8GB Ram weiterhin ausreichend.
Man spürt den Unterschied zu einem neuen System, aber man kann ihn weiterhin gut nutzen.

Und in der Sandy/Ivy Bridge Zeit, waren die i7 das Luxusgut mit unsinnigem HT....und jetzt in 2018-2020 macht so ein alter i7 mit etwas OC weiterhin einen guten Job....und die alten i5 haben einfach zu wenige Threads und brechen deutlich ein...haben ruckelige Frametimes usw.

Ich bezweifle zwar, dass wir mit den aktuellen CPUs das gleiche sehen werden....8Kerne mit 16 Threads oder auch 6 Kerne mit 12Threads wird noch lange Zeit "ausreichen"...darüber wird auch das Multithreading immer schwieriger und immer ineffizienter.....aber der Blick in die Vergangenheit hat mich eigentlich gelehrt, dass es besser ist die CPU mit mehr Kernen/Threads zu kaufen.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und Der Paule
Buggi85 schrieb:
Ein 500€ Gehäuse soll eine CPU aufwiegen? Aha...

Exakt. Ich habe bereits genügend CPUs.
Meine Kernaussage scheint an dir vorbeigegangen zu sein...
 
MujamiVice schrieb:
Jeder soll sich das kaufen, was ihm Spaß macht!

Mein Beitrag soll nur aufzeigen, dass AMD nicht unbedingt günstiger ist und auch noch erhebliche Probleme mit der neuen x570 Plattform hat und man daher Intel nicht verteufeln sollte.

Übrigens, nur weil man seit 20 Jahren was macht, heißt es immer noch nicht, dass man das gut kann ;-)

naja er hat aber Recht mit dem was er sagt solche Leute gibt es wirklich und gab es, kann seine Erahrung der letzten 20 Jahre in der Richtung bestätigen weil ich sowas auch erlebt habe. Vielleicht hat ers ein wenig unglücklich auf sie projeziert und das trifft da wohl nicht zu aber es gibt die Leute die genauso denken wie er es beschreibt.
 
rentex schrieb:
Wenn man Games auf Intel CPUs hin optimiert, ergibt sich dieses Bild.
Was ist denn mit den Intel X Prozessoren mit Mesh? Die laufen in vielen Games noch schlechter als Ryzen. Die AMD Architektur hat aktuell noch einen Nachteil durch das CCX Design mit IF. Das sieht man deutlich beim Vergleich Ryzen 3100 vs 3300X. Der Ringbus in den Intel Desktop CPUs hat eben die beste durchschnittschliche Speicherlatenz über alle Kerne.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
  • Gefällt mir
Reaktionen: KlaraElfer
gaertner87 schrieb:
Und was ist mit Rocket Lake? Spekulatius schon weg?

Wie ich schon sagte, das hat nichts mit spekulieren zu tun. Rocket Lake setzt meines Kenntnisstandes noch auf DDR4. Wenn dem so ist, wird da auch nicht viel mehr herumkommen. vielleicht 10%, wer weiß. Interessant wird es erst wieder mit DDR5. Merkst Du etwas?

Da sind wir im Falle des 8700K schon bei 4 Jahren+, in denen man ganz oben mitgespielt hat. Beweisführung abgeschlossen....

Käufer eines 1600X zu diesem Zeitpunkt mit günstigem RAM, haben in der Zwischenzeit bestimmt mindestens einmal erneut umgerüstet und/oder zwischendurch immer mal wieder mit den Frametimes gehadert. Und das meine ich mit solider Infrastruktur (Anm: Mir ist es egal, welcher Hersteller da liefert, nicht, dass es hier wieder Zank gibt). Das in Summe Gesparte, kann dann in die GPUs fließen.

Irgendwann kommt immer etwas schnelleres, hier ging es darum, mit begrenztem Budget, das beste herauszuholen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KlaraElfer und Infi88
Cronos83 schrieb:
Exakt. Ich habe bereits genügend CPUs.
Meine Kernaussage scheint an dir vorbeigegangen zu sein...
Es gibt genügend Leute da draußen die ihre alte Hardware in ein neues Gewand packen und dann noch eine aufwändige Wasserkühlung verbauen. Einfach nur weil es ihnen gefällt, Hobby ist und Spaß macht. Ist das selbe in grün, aber du scheinst entgegen deiner Bekannten zumindest kein Familienvater geworden zu sein, sonst kommt man kaum dran an ein 500€ Gehäuse, ohne Hindernisse. 😂
 
Buggi85 schrieb:
aber du scheinst entgegen deiner Bekannten zumindest kein Familienvater geworden zu sein, sonst kommt man kaum dran an ein 500€ Gehäuse, ohne Hindernisse. 😂

Aha. Arbeit ist eine Option. Auch mit Kindern.

Andere Leute kaufen teure Felgen, fahren mehrmals im Jahr in den Urlaub, kaufen Smartphones für vierstellige Beträge oder gönnen sich jedes Jahr ein neues Snowboard.
Die Liste ist endlos fortsetzbar.

Du sagst es selbst, man nennt es Hobby.
Wie du jetzt darauf schließt, das ich kein Familienvater geworden sei ist mir schleierhaft.
Und den Smiley dahinter empfinde ich als äußerst deplatziert.
 
  • Gefällt mir
Reaktionen: s0UL1
Jake Grafton schrieb:
9900K 43W
3900X 57W
:daumen:
Was kommt jetzt für eine Ausrede? "Der 9900X verbraucht 3W mehr"?
Normalerweise bin ich nicht das Arschloch, aber ich frage jetzt einfach mal: kannst du lesen? Dann tu es bitte. Balken gucken ist auch schön, aber das habe ich ja wohl (hoffentlich) offensichtlich nicht gemeint.
Ich zitier es nochmal:
Im Leerlauf zeigt Ryzen 3000 auf dem verwendeten Mainboard Asus Crosshair VIII Hero Wi-Fi geschlossen um die zehn Watt mehr Verbrauch als Ryzen 2000 auf dem Asus Crosshair VII Hero Wi-Fi. Der Mehrverbrauch ist allerdings der Platine zuzuschreiben, wie der Vergleich eines Ryzen 5 3600 auf altem X470-Mainboard (MSI X470 Gaming M7 AC) zeigt: Exakt 46 Watt sind es dann im Leerlauf und damit so viel wie die bisherigen CPUs auf den alten Mainboards.
 
  • Gefällt mir
Reaktionen: eXe777, eyedexe und catch 22
Tonks schrieb:
Ist keine Magie.

Nimm dir einen anständigen Energiesparplan wie den von @sz_cb und dann ist schon der größte Teil erledigt. Kannst hier selbst runterladen und testen.

Wenn du noch 2-3W sparen willst, dann kannst du den SoC-Verbrauch mit manuell gesetzten Spannungen verringern. Hab das im Rahmen vom RAM OC gemacht, also war das ein netter Bonus.

PS: Du hast die Hälfte meiner Temps mit Intel? Also 17,5°C - 22,5°C? Respekt, wusste nicht das Intel so gut sind, dass die deine CPU unter die Raumtemperatur kühlen können.

E: Hatte vergessen das ich HWiNFO im Hintergrund laufen hatte. Hier haste mal einen Screenshot mit allen relevanten Daten. Eine Gaming-Session war auch mit dabei.

Anhang anzeigen 922079
Achjso, also Maßnahmen die man auch bei nem Intel durchführen kann.
Meine Güte...
Und ja, Raumtemperatur ist bei mir 20 bis 21°C. Ist nun wirklich nichts neues dass Intels da sehr kühl sind. Auch hier in einigen Tests gezeigt.
 
DavidG schrieb:
Der 6100 entspricht dem 3900X bis 3950X. Die sollte AMD mal auf 140€ bis 180€ senken und die Threadripper meinetwegen für 300€+ anbieten.

Achso, du willst nur trollen. Sags halt gleich, dann verschwende ich meine Zeit nicht für stichhaltige Antworten.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Zurück
Oben