Test Core i9-10900K und i5-10600K im Test: Eine Frage des Limits

🙄 habe deine mates noch ‘ne Tüte deutsch übrig?
 
  • Gefällt mir
Reaktionen: Lutscher, eyedexe und Mcr-King
Der Paule schrieb:
Beschwer Dich dann allerdings nicht, falls 2022 plötzlich ein neues Assassins Creed auf der Matte steht, wo Du dann mit einem Sechskerner die Probleme erdulden musst, die 2017 die 4Core+HT Fraktion (mich eingeschlossen) betraf.

Ich könnte jetzt sagen, was interessiert mich die Welt von morgen, das wäre vielleicht etwas übertrieben, ist in diesem Markt aber fast schon so. Stand hier und jetzt gibt es einen Sechskerner vergleichsweise günstig zu kaufen, Stand 2022 wird es eine komplett neue Architektur mit DDR5 und vielleicht sogar PCIe 5.0 geben, wäre ich dann mit meinen "zukunftssicheren" 8-10 Kernen glücklicher? Wohl kaum!
 
xexex schrieb:
Stand 2022 wird es eine komplett neue Architektur mit DDR5 und vielleicht sogar PCIe 5.0 geben, wäre ich dann mit meinen "zukunftssicheren" 8-10 Kernen glücklicher? Wohl kaum!

Was bringt dir DDR 5 und PCiE 5.0 bis dahin, denk mal nach.

Der 8 bis 10 Kerner wird mehr Leistung bringen, die zwei anderen Sachen sind am Anfang total egal da DDR 5 am Anfang kein hohen Takt hat und PCie wird auch erst auf Jahre genutzt.

Du redest also dummes Zeugs
 
  • Gefällt mir
Reaktionen: Mcr-King
Halbgott schrieb:
Was bringt dir DDR 5 und PCiE 5.0 bis dahin, denk mal nach.

Bis dahin? Nichts!

Dann allerdings bekommst du einen Achtkerner mit neuen Architektur, neuen Schnittstellen und der Unterstützung von neuem Speicher ebenfalls zu einem günstigeren Preis und zwar vorausgesetzt, dass du bis dahin überhaupt eine schnellere CPU überhaupt brauchst.

Dann denk du mal nach, was dir in ein paar Jahren ein 10900K bringen wird.

Es wird hier auch immer wieder gerne hervorgebracht man hätte "damals" mit einer größeren Anschaffung für die Zukunft gekauft. Blöd nur das ein Board von "damals" heute weder M.2 Steckplätze hat, noch USB-C und mit etwas Pech nicht einmal ein anständiges UEFI. CPU Leistung ist eines, die Plattform drumherum das andere.

Halbgott schrieb:
da DDR 5 am Anfang kein hohen Takt hat

Auch dem Finger saugen kann ich mir Argumente auch, nur ist diese Behauptung schlichtweg blödsinnig.
Hoch gerechnet auf DDR5 sollte deshalb DDR5-8400 auch funktionieren. Der Start wird vermutlich mit DDR5-4800 bis ungefähr DDR5-5200 und DDR5-5400 erfolgen, ehe über die kommenden Monate und Jahre der Takt stetig erhöht wird, Micron nannte beispielsweise schon DDR5-6400.
https://www.computerbase.de/news/arbeitsspeicher/ddr5-sdram-takt-kapazitaet.71577/

JEDEC wohlgemerkt.
 
Zuletzt bearbeitet:
alman

ich sprechen von games ok?

was bringen dir express in 2 jahre

nix

was bringen ddr5 zu start

nix

was bringt dir 8 kerne bis start von deine wunsch

super performance

du anders machen ok

fail
 
Mal ne Frage, kann man eigentlich zB bei einem i5 10400F den RAM übertakten auf 4000MHz+und die Timings tunen mit einem Z Board? Kann man auch den Cachetakt etwas anheben? (denke zwar nicht, aber kp)
Taktet zwar nur allcore @ 4GHz, könnte mir aber vorstellen, dass das Teil mit RAM Tuning brutal wird.
 
Duvar schrieb:
Mal ne Frage, kann man eigentlich zB bei einem i5 10400F den RAM übertakten auf 4000MHz+und die Timings tunen mit einem Z Board? Kann man auch den Cachetakt etwas anheben? (denke zwar nicht, aber kp)
Taktet zwar nur allcore @ 4GHz, könnte mir aber vorstellen, dass das Teil mit RAM Tuning brutal wird.

Nee ohne Z490 nicht und beim i5_10400f kannst du nix OCen leider hat da Intel die Daumen Schrauben ähm Kunden Freundlichkeit ausgebaut. 😉
 
  • Gefällt mir
Reaktionen: Duvar
Meine ja mit Z490, RAM OC sollte doch eigentlich möglich sein oder?
 
  • Gefällt mir
Reaktionen: Luxmanl525
Pisaro schrieb:
nur das mein Post inhaltlich natürlich korrekt ist

Eigentlich redest du dich nur sinnlos heraus.
Er hat doch völlig Recht, du kannst heute auch noch mit älteren CPUs sehr gut zocken, bestätigt auch der Benchmark in diesem Test ausdrücklich, einfach mal mit + die anderen Modelle dazu schalten.

Ich weiß auch von einem Kollegen der noch einen FX betreibt und die sind heute viel schneller als damals, oft auf i7 Niveau, ist halt wegen der 8 Threads.

Ist doch ein aktuelles Video aus 2019 verlinkt und du postest den Test von vor wie vielen Jahren? Ist das für dich seriös oder spiegelt das die Situation??

Zum Test:
Die großen Modelle sind total unattraktiv, gerade als Gamer bringt einem das auch nichts, außer man zockt wirklich die 2-3 ST limitierten Games, aber dafür hat noch keiner einen High-End PC gebraucht.
Die Sache mit 4k oder vielen Hz wird viel zu hoch gehängt (eher eine Ausrede) es reicht bei Hz locker 144, die Modelle mit mehr kann doch keiner mehr sehen, hat auch anderswo einer gepostet den Vergleich der Reaktionszeitunterschiede, bis 144 ist das noch deutlich spürbar, danach ein Witz.
4k gibts keine gescheiten Grafikkarten außer ein paar überteuerte Nvidia, was will man also mit so einem Intel? Gaming CPU? Fällt euch denn gar nichts anderes mehr ein?
 
wenn man auf uhd spielt, hat sich doch jede diskussion (3700x aufwärts) um den prozzi oder welchen erledigt.
Ergänzung ()

zitat: der paule: Mein 3770K hat volle 6 Jahre gehalten (bis 2019). Ein 3570K wäre 2015 schon am Ende gewesen und eine FuryX oder 980TI hätte mir dann auch nichts gebracht.
mein 3570 (4200mhz oc) hatte ich bis februar 2020 mit einer geforce 1070. alles lief wunderbar und ich spielte auf 1400p. 7 jahre wahre freude.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jabba.
Hab mir die meisten Kommentare hier durchgelesen, da bald ein neuer PC ansteht,
aber der einzige Mehrwert für die zukünftige Kaufentscheidung war der Hinweis auf den YouTube Chanel
Testing Games

Ryzen 3700x oder eine ähnliche Zen3 CPU
16 GB Ram möglichst hoher Takt
billige SSD reicht
mit dem gesparten Geld eine ~GTX 3080ti kaufen :daumen:
(und noch paar Monate die GTX1070 OC behalten)
 
  • Gefällt mir
Reaktionen: Der Paule und Slainer
Nolag schrieb:
Es ist der gleiche Grund warum ein 3100 bei Games deutlich langsamer ist als ein 3300X. Das wird z.B. ausführlich im Computerbase Test des 3100 und 3300X erklärt.
Der 3300X besteht aus einem CCX, bei dem alle 4 Cores aktiviert sind. Ist eine AMD CPU aus mehreren CCX aufgebaut, arbeitet sie ineffizienter, wenn viele Informationen zwischen den CCX über die relativ langsame IF synchronisiert werden müssen. Das ist bei vielen Game Engines, bei denen häufig Daten über mehrere Threads voneinander abhängig sind, der Fall. Ein 3600X ist eben auch eine Dual-CCX CPU wie der 3100, wobei allerdings nur ein Core pro CCX deaktiviert ist.
Aus diesem Grund wird auch sehnsüchtig Zen 3 erwartet, wo ein CCX wahrscheinlich aus 8 Cores besteht. Mit einer 8 Core CPU aus einem CCX bei zusätzlich verbesserter IPC müsste AMD eigentlich locker den 10900k als schnellste Gaming CPU vom Thron stoßen können.

Dann mal die doof Frage, wo kann man das nachlesen, welche CPU aus wie vielen Teil CPUs zusammengestellt ist?
Ich habe mir einen Ryzen 7 3700 X bestellt. Der besteht eh aus 2 Teilen?
 
Tonks schrieb:
Ich habe dir gezeigt, das du mit deiner Aussage im Verbrauch falsch liegst. Und jetzt bist du von "das schafft keiner" auf "Intel kann das auch"?

Da gibt es ein schönen Englischen Spruch für:

Moving the goalposts.

Und das deine CPU nur 1°C über deiner Raumtemperatur liegt kannst du auch keinem erzählen. Aber warum zugeben das man falsch lag, wenn man auch simple Physik anzweifelen kann? Ist viel einfacher, ne?

Selten so etwas realititätsfremdes gelesen.
Kannste leider in anderen Tests genauso sehen.
Und leider ist auch du derjenige der hier die "Goalposts moved". Aber das habe ich ja auch wieder irgendwie erwartet, wenn man euren Heiligen Gral kritisiert.... Wie vor 20 Jahren..............
Ergänzung ()

Nolag schrieb:
Es liegt nicht an der CPU, sondern am Chipsatz. Roman hat ein Video dazu gemacht: X570 Leistungsaufnahme gemessen - Was ist hier passiert?
Vielleicht lohnt sich das Warten auf die B550 Boards, die weniger Stromaufnahme haben sollen und auch ohne Lüfter auskommen.
Ändert nichts an meiner Aussage. Ich wünschte auch, dass der Motor in meinem Auto leichter wäre und ich dann schneller beschleunigen könnte. :rolleyes:
Ergänzung ()

immortuos schrieb:
CB misst deiner Meinung nach also falsch? ;)
Es geht nicht um beladene Boards, das X470 Crosshair Hero ist auch beladen und die CPU zieht dort laut CB trotzdem 10W weniger.
Es ist kein Märchen, sowohl mein R5 2600 als auch mein R5 3600 zieht im B450M Mortar Max ~4W mehr als mein 6600K auf dem Maximus VIII Impact an der Steckdose. ~40W Idle vs ~44W Idle.
Erste Quelle:

Zweite Quelle:

Dritte Quelle:

Vierte Quelle:

Fünfte Quelle:

Sechste Quelle:

Letzte Quelle:


Also ausschließlich X570 Boards, die eine deutlich erhöhte Idle Leistungsaufnahme mit sich bringen.
Leider nur Ausreden, selbst hier bestätigen den Mehrverbrauch einige. Ich habe meine Situation geschildert und warum der Mehrverbrauch ein Problem für mich ist. Warum müsst ihr immer Fanboy Stereotypen so bestätigen?
Ergänzung ()

Rockstar85 schrieb:
x470 Chip mit 3600: 9-15W im Idle..
Es liegt am I/O, weil der keinen Stromsparmode kennt.

Real hat Intel derzeit 5-9W Vorteil.. Das ist eigentlich vernachlässigbar.
Eben nicht in meinem Fall, da der Rechner 8 bis 16 Stunden am Tag läuft und dann die meiste Zeit im Idle.
Ich verstehe nicht wieso ihr immer so austicken müsst. Ich habe meinen Fall beschrieben, wie diese Situation für mich wäre und ich deswegen keinen AMD kaufe. Und ihr versucht mich mit irrelevantem Zeug zu bekehren... Wie gesagt, genau so wie ich AMD Fanboys in Erinnerung habe...

Dieses Drama bestätigt mich nur wieder darin extrem vorsichtig zu sein, falls ich wirklich einen AMD kaufen werde, denn wer weiß was sonst noch so wieder klein gehalten wird...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525
flug_rosetto schrieb:
wenn man auf uhd spielt, hat sich doch jede diskussion (3700x aufwärts) um den prozzi oder welchen erledigt.

ist das so?

Cities_2020_05_21_14_55_50_369.jpg
 
Ich würde ja Mal gerne wissen, ob das totale ausreizen der Plattform auch die Haltbarkeit beeinflusst. Also ob mir in zwei Jahren die CPU durchgelutscht ist. Für die anderen Komponenten gilt das gleiche: sorgt nicht die höhere energiedurchfuhr und auch die höheren Temperaturen für eine stärkere Abnutzung der Bauteile?
 
Ich weiß garnicht warum der 10900K so schlecht geredet wird? Guckt Euch mal Igor`s Test an.
Dafür das er noch immer in 14nm gefertigt wird und ja sooo ausgelutscht ist macht er AMD gut druck.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sebbolein und KlaraElfer
Jake Grafton schrieb:
Aber das habe ich ja auch wieder irgendwie erwartet, wenn man euren Heiligen Gral kritisiert.... Wie vor 20 Jahren..............

Heiligen Gral?

Ich bitte dich. Ich mag einfach keine Misinformationen.

Jake Grafton schrieb:
Und leider ist auch du derjenige der hier die "Goalposts moved".

Mitnichten. Hier ist die exakte Reihenfolge der Diskussion:

Jake Grafton schrieb:
Und da sind AMD CPUs leider mies. Die verbrauchen deutlich mehr im Idle als irgend ein Intel und laufen auch deutlich wärmer. Nicht selten sind die Idle Temperaturen mehr als doppelt so hoch wie von nem Intel.

Dein erster Post behauptet AMD hat einen deutlich höheren Verbrauch im Idle und oft hat es doppelt so hohe Temperaturen.

Mein Post widerlegt deine mit meinen Erfahrungswerten bei Verbrauch und Temperaturen:
(Noch ohne Screenshot, aber der kommt dann bei der nächsten Antwort.)

Tonks schrieb:
20-25W und 35-45°C im Idle mit Firefox und Spotify. (<13W wenn alles geschlossen ist, aber ich denke mal wenige benutzen den PC nur um auf ein leeren Desktop zu gucken.)

Jake Grafton schrieb:
Wie hast du das geschafft?
Schafft sonst keiner. In keinem Test. Immer ca. 10-15W mehr als ein Intel. Und du hast nichtmal 15W Verbrauch?
Aber wenigstens deine Temperatur stimmt. Mehr als doppelt so hoch wie ein Intel. Kann also nicht sein mit dem Verbrauch.

Hier bezweifelst du meine Verbrauchswerte, aber bezeichnest meine Temperaturen von 35°C - 45°C "mehr also doppelt so hoch wie ein Intel".

Anders ausgredrückt: Intel hat 17,5°C - 22,5°C Idle Temperaturen. Warum das Quatsch ist sollte ich dir eigentlich nicht erklären müssen.

Hier erkläre - und beweise! - ich mit einem Screenshot wie meine Werte sind (nicht mitzitiert, einfach das Zitat klicken und man kommt du dem Post selber).

Tonks schrieb:
Wenn du noch 2-3W sparen willst, dann kannst du den SoC-Verbrauch mit manuell gesetzten Spannungen verringern. Hab das im Rahmen vom RAM OC gemacht, also war das ein netter Bonus.

PS: Du hast die Hälfte meiner Temps mit Intel? Also 17,5°C - 22,5°C? Respekt, wusste nicht das Intel so gut sind, dass die deine CPU unter die Raumtemperatur kühlen können.

Daraufhin änderst du dein Argument anstatt zuzugeben das du falsch lagst (Moving the Goalposts). Du gehst auch überhaupt nicht auf deine Idle Temperaturen ein, das einzige was du uns sagst ist deine Raumtemperatur - aber was sind deine Idle Temps?

Wo sind deine Screenshots? Deine Beweise?

Jake Grafton schrieb:
Achjso, also Maßnahmen die man auch bei nem Intel durchführen kann.
Meine Güte...
Und ja, Raumtemperatur ist bei mir 20 bis 21°C. Ist nun wirklich nichts neues dass Intels da sehr kühl sind. Auch hier in einigen Tests gezeigt.

Hier erwähne ich es nochmal, aber auch bist jetzt haste null Beweise gebracht. Nur vage Verweise auf "andere Tests".

Tonks schrieb:
Und das deine CPU nur 1°C über deiner Raumtemperatur liegt kannst du auch keinem erzählen. Aber warum zugeben das man falsch lag, wenn man auch simple Physik anzweifelen kann? Ist viel einfacher, ne?

Also nochmal:

Wo sind deine Werte? Deine Beweise das AMD keine geringe Verbrauche haben kann. Bei 13W Verbrauch und deiner Aussage das AMD immer 10-15W höher liegt müsstest du mir also einen Screenshot zeigen wo der Intel 3W Verbrauch hat. Bin ja mal gespannt. Und wo sind deine Idle Temps, die unter deiner Raumtemperatur von 21°C liegen?

Bis jetzt habe ich nichts davon gesehen, und wenn man der Tendenz folgt dann wirst du im nächsten Post behaupten das Intel nicht nur deinen Raum kühlt, sondern mit dessem negativen Verbrauch sogar deinen PC mit Strom versorgt.

Gekrönt wird das dann noch mit irgendwelchen Unterstellungen mein sei ein Fan von einem gewissen Hersteller. Ist ja immer einfacher als sich auf die Argumente zu beziehen oder Belege zu liefern, ne?
 
  • Gefällt mir
Reaktionen: catch 22
Jake Grafton schrieb:
Eben nicht in meinem Fall, da der Rechner 8 bis 16 Stunden am Tag läuft und dann die meiste Zeit im Idle.
Ich verstehe nicht wieso ihr immer so austicken müsst. Ich habe meinen Fall beschrieben, wie diese Situation für mich wäre und ich deswegen keinen AMD kaufe. Und ihr versucht mich mit irrelevantem Zeug zu bekehren... Wie gesagt, genau so wie ich AMD Fanboys in Erinnerung habe...

Mein lieber, hier hat dich KEINER angegangen. Also wenn du meinst 9W sind bei einem betrieb von 16 std Relevant sage ich dir folgendes. Mit LED Lampen im Haus spartst du 90% mehr Stromkosten als wenn du deinen PC täglich (spielzyklus) mit 150W laufen lassen würdest. Sorry aber du hast vermutlich keine Ahnung von der Materie. 9W sind unerheblich, selbst im 24Std Betrieb.
Und andere als Fanboys zu bezeichnen ist frech. Und hier wirst du widerlegt, weil deine Aussage schlichtweg falsch ist. Nennt man Meinungsfreiheit.

Ach und im Teillastbereich ist AMD Intel ebenbrütig..
 
  • Gefällt mir
Reaktionen: Mcr-King und Tonks
Zurück
Oben