Test Core i9-11900K und i5-11600K im Test: Die 14-nm-Brechstange

Ned Flanders schrieb:
Bescheuert ist nur wenn man als Fan nach außen hin trägt man sei super neutral und objektiv.

Gut, da ist irgendwie auch was dran. Ich werde das allerdings nie verstehen.
 
  • Gefällt mir
Reaktionen: Rockstar85
Volker schrieb:
Acht Kerne Rocket Lake-S (i9-11900K) gegen acht Kerne Comet Lake-S (i7-1110700K) –

Alle Comet Lake sind 10000er, alle Rocket Lake sind 11000er.

2021-03-31 12_18_40-Intel Core i9-11900K & i5-11600K „Rocket Lake-S“ -- Cache und RAM-Durchsatz.png


Die Zahlen beim 11900K sind die Werte in MB/s, also ein Faktor 1000 über allen anderen Eintragungen, die richtigerweise in GB/s sind.
Mit den korrigierten Werten für den 11900K können dann die anderen Einträge an "Länge" gewinnen. :D

Zusatzfrage:
Ist beim 11600K die Reihenfolge 'Gear 2 vor Gear 1' richtig ?
Mit Gear 1 sollen die Rocket Lake allgemein schneller sein, wie es beim 11900K der Fall ist.

2021-03-31 12_41_44-Intel Core i9-11900K & i5-11600K „Rocket Lake-S“ Cinebench R23 - Multi.png



Die Darstellung der Cinebench R23-Multi-Ergebnisse steht auf dem "Kopf".
Es wird zuerst das schlechteste Ergebnis angegeben, statt - wie in allen anderen Darstellungen - das beste Ergebnis zuerst.
Zudem liefert Cinebench R23 nur ganzzahlige Ergebniswerte, der Suffix ",0" ist also überflüssig.
 
FormatC schrieb:
Vielleicht hätte man man mal eine geeignetere Grafikkarte nehmen sollen?
Es geht um CPU Leistung, nicht um Grafikleistung oder eine wie auch immdr geartete Treiberleistung, du verwechselt hier beides miteinander. Ist das Posting dein ernst? Solche fachlichen Fehler, bzw. Hinweise werden meist von Usern zur Diskussion gestellt, die nicht wissen, dass CPUs nicht mit der Auflösung skalieren...

Die verwendete Grafikkarte spielt doch überhaupt keine Rolle, solange es jeweils dieselbe ist. 🖖
FormatC schrieb:
Im NVIDIA-Treiberlimit liegt bei mir auch alles sehr eng zusammen, mit klitzekleinem Vorteil für Intel.
Komisch, dass andere Redaktionen keine solchen Beobachtungen machen, ich würde behaupten die Testszene ist nicht geeignet, wenn alle CPUs die gleichen FPS raushauen. Also ein fehlerhafter Testaufbau mangels Zeit, als irgendein ominöses Treiberlimit. So etwas gibt es schlicht nicht.
Fachlicher Unsinn, da muss man eher den Test wiederholen und den eigenen Fehler eingestehen, anstatt irgendetwas zu erfinden, damit man damit was kaschiert. ;)

Gibt ha auch manche die fordern 4K Tests, weil in 720p die CPU nicht richtig ausgelastet wird. 😂
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeroStrat
Der I9 scheint ein wenig überflüssig.

Die (K)F Modelle sind allerdings ziemlich gut bepreist (I9 mal außen vor).
Die dürften bis auf weiteres (non X AMD Modelle, wenn die Versorgung besser ist ?) nicht schlecht sein.

Was mich ein wenig verdutzt, ist wie empfindlich der neue Speicherkontroller zu sein scheint.
 
  • Gefällt mir
Reaktionen: Klever
Zwiebelsoße schrieb:
Es geht um CPU Leistung, nicht um Grafikleistung oder eine wie auch immdr geartete Treiberleistung, du verwechselt hier beides miteinander. Ist das Posting dein ernst? Solche fachlichen Fehler, bzw. Hinweise werden meist von Usern zur Diskussion gestellt, die nicht wissen, dass CPUs nicht mit der Auflösung skalieren...

Die verwendete Grafikkarte spielt doch überhaupt keine Rolle, solange es jeweils dieselbe ist. 🖖

Komisch, dass andere Redaktionen keine solchen Beobachtungen machen, ich würde behaupten die Testszene ist nicht geeignet, wenn alle CPUs die gleichen FPS raushauen. Also ein fehlerhafter Testaufbau mangels Zeit, als irgendein ominöses Treiberlimit. So etwas gibt es schlicht nicht.
Fachlicher Unsinn, da muss man eher den Test wiederholen und den eigenen Fehler eingestehen, anstatt irgendetwas zu erfinden, damit man damit was kaschiert. ;)

Hä? Alle anderen Redaktionen machen doch die gleichen Beobachtungen. Schau dir mal HWUB, GN oder TPU an. Der Nvidia driver overhead doch nichts mehr neues, das sind harte Fakten.

Auch CB und PCGH wissen doch ganz genau, dass Nvidia-Ergebnisse in 720p nicht wirklich vergleichbar sind.

Willst du jetzt die Fakten verdrehen? Und es ist zudem mega peinlich wenn du anderen vorwirfst, sie würden sich nicht auskennen, dabei bist du derjenige, der keine Ahnung hat. Klar spielt die verwendete GPU eine Rolle, gerade darum geht es doch! Oh man, mega cringe von dir :D
 
  • Gefällt mir
Reaktionen: Hardwarious, Einfallslos^99, eXe777 und 3 andere
Volker schrieb:
Bis 3600er funktionier Gear 1 problemlos, auf vielen Boards auch noch DDR4-3733 Gear 1. Erst darüber brauchst du Gear 2.
Das hier hatte mich irritiert:
Ein erstes Problem ist typisch für Intel: Nur die beste CPU bekommt auch den schnellsten RAM, weil lediglich der Core i9 DDR4-3200 offiziell mit Gear 1 betreiben kann. Alle anderen neuen Prozessoren erlauben Gear 1 hingegen nur bis DDR4-2933.
Was genau bedeutet denn das jetzt?
 
w0mbat schrieb:
Hä? Alle anderen Redaktionen machen doch die gleichen Beobachtungen. Schau dir mal HWUB, GN oder TPU an. Der Nvidia driver overhead doch nichts mehr neues, das sind harte Fakten.
Die Ergebnisse dieser Reviewer kommen mit Sicherheit nicht vom Treiberoverhead. Das ist komplett hanebüchen. Die Relationen der CPUs bleiben unabhängig von der GPU/den Treibern erhalten, sofern ein striktes CPU-Limit vorliegt.
w0mbat schrieb:
Auch CB und PCGH wissen doch ganz genau, dass Nvidia-Ergebnisse in 720p nicht wirklich vergleichbar sind.
Was wissen die?? Nvidia-Ergebnisse in 720p sind mit Nvidia-Ergebnissen in 720p vergleichbar.
w0mbat schrieb:
Willst du jetzt die Fakten verdrehen? Und es ist zudem mega peinlich wenn du anderen vorwirfst, sie würden sich nicht auskennen, dabei bist du derjenige, der keine Ahnung hat. Klar spielt die verwendete GPU eine Rolle, gerade darum geht es doch! Oh man, mega cringe von dir :D
Die GPU spielt nur dann eine Rolle, wenn kein striktes CPU-Limit vorliegt. Man kann quasi immer ein CPU-Limit erreichen mit einer RTX 3090. Ein Ausnahme davon ist beispielsweise AC:Val. Man muss halt weitere Einstellungen vornehmen. AA/AO/AF abschalten, Post Processing weg, Renderauflösung weiter runterstellen bei Bedarf. Wir haben sogar ein CPU-Limit mit aktivem Raytracing hinbekommen.
 
Offizielle Intel-Spec ist 2933 G1 bei allen außer den Core i9-11900K(F). Der hat 3200.
Der Rest darüber hinaus ist dein Bier und damit "OC"
 
  • Gefällt mir
Reaktionen: USB-Kabeljau, DarknessFalls, Mordekai2009 und eine weitere Person
USB-Kabeljau schrieb:
Das hier hatte mich irritiert:

Was genau bedeutet denn das jetzt?
Das ist der offizielle Intel Spec, genauso wie früher die 2666 MHZ oder 2933 MHZ, wie du dann deine Riegel betreibst ist doch dir überlassen. Allerdings scheint der neue IMC nicht mehr so gut zu sein wie der "Alte" der ja bis 4266 MHZ meistens mitgemacht hat. Jetzt ist für Gear 1 halt bei 3733MHZ eher schluss.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
@ ZeroStrat
Bitte les dir deine Antworten nochmal durch, du machst nämlich keinen Sinn.

Ich könnte auch nebenher Prime95 auf 10C/20T laufen lassen und im Ergebniss wäre dann der 5950X die einzige CPU, mit der man noch Spielen kann. Wär halt falsch, aber in dem geschlossenen Test korrekt.

Und ob Prime95 die Leistung zieht oder der Nvidia-Treiber ist egal.

Klar, wenn man den Nvidia-Treiber testen will, stimmen die Ergebnisse. Aber man will ja die CPU-Leistung in den Spielen testen, und nicht wie hoch der Nvidia driver overhead ist.

Ich glaub dir fehlt etwas die methodische Erfahrung um CPU-Tests zu machen :)
 
  • Gefällt mir
Reaktionen: Hardwarious, Celinna, DarknessFalls und eine weitere Person
USB-Kabeljau schrieb:
Das hier hatte mich irritiert:

Was genau bedeutet denn das jetzt?
Wenn ich das richtig verstanden habe gar nichts, das läuft dann halt unter OC. Warum man sich darüber aufregt leuchtet mir aber auch nicht ein, das hat mich auch irritiert.
 
ZeroStrat schrieb:
Und das soll alles am Nvidia Treiber liegen? :D
Wenn CapframeX, PCGH und Golem eindeutige Performanceverbesserungen im CPU Limit messen, also 720p, behauptet Igor, dass die gewählte Grafikkarte im CPU Limit den Unterschied macht? Eieiei. Und als nächstes wird behauptet CPUs müssen in 4k getestet werden.
ZeroStrat schrieb:
Andere Treiber, andere Settings?! Nvidias High-Tech Software als Treibermüll zu bezeichnen, wow, hätte ich von dir jetzt nicht erwartet....
Er erfindet lieber irgendetwas was keinerlei Sinn ergibt ubd fachlich haarsträubend ist, anstatt auf Fehlersuche zu gehen. Ob Radeon oder Nvidia GPU macht keiben Ubterschied. Nvidia wäre sogar besser um die CPU zu testen, sofern der Treiber mehr CPU braucht, denn dann liegt man viel eher in den benötigten Limits, das ist trivial.

Also Treiberoverhead nimmt man für CPU Tests gerne, wobei da wirklich kaum Ubterschiede hwischen Nvidia und AMD sind.
 
  • Gefällt mir
Reaktionen: ZeroStrat
  • Gefällt mir
Reaktionen: Celinna und Rockstar85
Smartin schrieb:
naja, das betrifft durchaus auch den mittleren und unteren mittleren Bereich und da selbst den Gebrauchtmarkt. In jedem Fall zeigt die aktuelle Situation, wie schnell das gehen kann. Und das ziemlich aus dem nichts. Zudem fürchte ich, dass es aus vielerlei Gründen eher erstmal noch schlechter wird mit der Verfügbarkeit bevor es besser wird (sowas wie die Blockade im Suezkanal hilft da noch weniger). Wenn dann mal Not am Mann ist, weil die Grafikkarte einen Defekt hat, steht man mitunter ganz schnell blöd da. Aber gut, muss jeder selber wissen, was er für Risiken eingehen möchte. Kann auch verstehen, wenn andere darauf verzichten, weil sie was sparen wollen. Ich bin eher froh, dass ich im Fall des Falles noch einen Backup habe und sollte meine 1080 den Dienst quittieren, nicht gleich in Panik verfallen muss oder auch mal eine Lieferzeit überbrücken kann ohne mit dunklen PC dazusitzen.
Ja klar ein Backup in irgendeiner Form ist momentan definitiv zu empfehlen, Hab zum Glück noch paar alte Gurken rumliegen. Für den Fall der Fälle reichen die fürs Home Office.

Aber ob der irre preisanstieg auch die wirklich günstigen gpus (wie halt die 710 zb.) In naher Zukunft erreicht ist halt rein spekulativ und sollte deswegen nicht dazu führen das igpus stärker mit in die Wertung einfließen, kann man falls es soweit kommt natürlich gerne machen, aber stand jetzt bekommt man igpu Leistung nunmal noch für 20-40€ und in Bewertungen sollten nur Tatsachen einfließen mMn. und nicht ob der Preis in Zukunft evtl noch steigt.
 
DonL_ schrieb:
Das ist eindeutig Schwachsinn, der GPU Treiber bestimmt das CPU Limit, das haben doch nun die Tests von HUB und vor allen dingen der von Igor bewiesen!
Ja Don, die Absolutwerte ändern sich natürlich, aber nicht die relativen, sofern ein striktes CPU-Limit vorliegt, ändert sich an den Relationen nichts.

Und mal absehen davon, mit 2 Titeln rumtüddeln und dann von Beweis sprechen. Eieiei. Schau dir mal lieber den Artikel von PCGH dazu an.

Und wo ist dein Beleg wegen der 30%? Ich warte...

Ich denke übrigens, dass Community Benchmarks das ganze am Ende aufklären werden.
 
  • Gefällt mir
Reaktionen: Sly123
ZeroStrat schrieb:
Und mal absehen davon, mit 2 Titeln rumtüddeln und dann von Beweis sprechen. Eieiei. Schau dir mal lieber den Artikel von PCGH dazu an.
AC:V, Anno 1800, BF V, CP2077, F1 2020, Hitman 3, Horizon: Zero Dawn, Watch Dogs: Legion.

Wo siehst du da eigentlich nur zwei Spiele? Ich zähle da satte 8. Alle aus dem PCGH-Artikel. Alle in DX12, alles acht Spiele, in denen die 3090 mess- und spürbar schlechter performt als derselbe Unterbau mit einer 6900XT. Warum? Richtig, Treiber-Overhead von NV, der vor allem in DX12 deutlich wird.

Da braucht die Community nichts aufklären, PCGH selbst hat das Treiber-Overhead-Problem in DX12 bei NV eindrucksvoll aufgezeigt. Lustigerweise also genau der Artikel, auf dem du die ganze Zeit herumreitest.
 
  • Gefällt mir
Reaktionen: EyBananaJoe, Blediator16, Celinna und 11 andere
Schade, dass zum Marktstart (mal wieder) die mit Abstand unattraktivsten Vertreter der Serie getestet wurden...

BIOS-Updates bis zur letzten Minute, drei Tage vor dem Start noch neue Microcode-Updates, eigenwillige RAM-Teiler mit viel zu hohem Leistungsverlust und Turbo-Modi, die auf der Suche nach Leistung alle Spezifikationen aushebeln: Das Gesamtpaket wirkt so unfertig wie zuletzt bei Zen 1.
Als ob das "Gesamtpaket" bei Zen 3 in dieser Hinsicht auch nur ansatzweise "fertiger" wirkt(e)...
 
ZeroStrat schrieb:
Ich denke übrigens, dass Community Benchmarks das ganze am Ende auflkären werden,
Die werden gar nichts aufklären, denn die Leute haben unterschiedliche Grafikkarten und benchen mit BAR oder
ohne und soweiter
ZeroStrat schrieb:
Und wo ist dein Beleg wegen der 30%? Ich warte...
Da kannst du lange warten, ich habe meine Testreihen vor einem Jahr gemacht und ich verdiene mit Benchmarks nicht mein Gehalt, sondern brauche meine Zeit für anderes. Wer sich informieren will, braucht bei PCGH nur in den Ryzen Laber Thread gehen oder sich Duvars Ergebnisse reinziehen, dann weiß man , das meine Behauptung von bis zu 30% stimmen.
ZeroStrat schrieb:
Ja Don, die Absolutwerte ändern sich natürlich, aber nicht die relativen, sofern ein striktes CPU-Limit vorliegt, ändert sich an den Relationen nichts.
Das gilt es noch zu beweisen!
 
  • Gefällt mir
Reaktionen: Celinna und bad_sign
Bei Hardware Unboxed geht es darum, dass NVIDIA einige Dinge durch Software (Treiber) erledigt, die AMD in Hardware erledigt. Dadurch kommt es mit langsamen CPUs zu einer schlechteren Leistung mit NVIDIA GPUs.
 
Volker schrieb:
Offizielle Intel-Spec ist 2933 G1 bei allen außer den Core i9-11900K(F). Der hat 3200.
Der Rest darüber hinaus ist dein Bier und damit "OC"
Irgendwie müssen die ja einen Refresh argumentieren ;)
 
Zurück
Oben