Test Core i9-11900K und i5-11600K im Test: Die 14-nm-Brechstange

Erzherzog schrieb:
@DonL_
WooooW 15% und zu welchem Preis bitte? Da reden wir nicht vom günstigen RAM.
Falls du es nicht mitbekommen hast, die Preise sind seit letztem Jahr gestiegen.
Der Aufpreis ist absolut sinnfrei, außer du zockst nur im CPU Limit mit schlechter Grafik. Grats.
Wir schließen unser Gespräch hiermit, da du erstens nicht weisst wann und welchen RAM ich gekauft habe und zweitens Leute unterschiedliche Games zocken, ich z.B. habe BF´5 auf großen Servern gespielt und spiele auch recht häufig Anno 1800 sowohl Single als auch Multiplayer und in beiden Fällen waren es wesentlich mehr als 15% Mehrleistung.
Ach ja und als ich meinen Ryzen 3600 gekauft habe, gab es weder einen 10400 und schon gleich gar keinen 11400. Alles was Intel damals hatte, waren schrottige 6 Kerner ohne SMT in der Preisklasse.
Damit ist für mich das Gespräch beendet.
 
Zuletzt bearbeitet:
@DonL_
Du stellst also deine Meinung öffentlich und willst dann jede Diskussion dazu unterbinden, da du angeblich Recht hast.
Ich stelle nicht mal in Frage das du in einzelnen Games bis zu 15% mehr Performance hast.
Jetzt mal die Grätchenfrage: Von wie vielen FPS sprechen wir da? War das nicht vorher schon absolut flüssig und hast du in Wahrheit nicht nur dein Geld zum Fenster raus geworfen und bist jetzt extrem wütend da selbst Benchmarks belegen das es wenig ausmacht?
Du willst uns doch nicht erzählen das du Anno die ganze Zeit Online gezockt hast (ist klar) und Battlefield performed auf Multi Core extrem gut, da hast du selbst mit älteren CPUs bis zu 100 FPS. Wenn du nicht konkret wirst was dir das jetzt wirklich gebracht hat ist es einfach unnütz!

Zusatz:
Und jetzt fang keine Märchen an bitte, jeder kann nachschauen wie der Ryzen 3600 performed, selbst der i5 10400F ist die bessere Spiele-CPU.
Mit 2666 Mhz gewinnt der im computerbase Benchmark gegen den Ryzen 3600 mit 3200 MHz.
Wenn du beide hoch ziehst, wie geht es wohl aus? Mehr als ein paar % holst da eh nicht raus und erzähl bitte nicht als nächstes das du mit dem 3600 sogar 50% schneller geworden bist :P
 
Zuletzt bearbeitet:
Erzherzog schrieb:
@DonL_
WooooW 15% und zu welchem Preis bitte? Da reden wir nicht vom günstigen RAM.

Unfug. 3000er CL16 Crucial Balistix machen ohne großen Aufwand 3800 CL16 mit.
 
  • Gefällt mir
Reaktionen: Kabelkasper und Rockstar85
Beeindruckend wie bei solchen Testartikeln immer wieder das Lebensglück mancher (vermutlich pubertär behafteter) Leute scheinbar davon abhängt ob der Messbalken des eigenen bevorzugten Herstellers (meist ein steuervermeidender ausländischer Großkonzern mit dem man eigentlich garnix zu schaffen hat) um ein-zwei Pünktchen länger ist als der des Mitbewerbers.
Richtig unterhaltsam wirds dann wenn in den Untiefen der I-Nets noch Cherrypicking-Tabellen hervorgekramt werden um die persönliche Weltanschauung zu untermauern.
Mit ein Grund, warum ich so gern hier bin; es gibt immer wieder mal was zu lachen.
:P :daumen:
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, Nipsey, DaBas und 20 andere
Jan schrieb:
Dann sind wir da grundsätzlich anderer Meinung. Denn das sehe ich nicht. Nicht an dieser Stelle, nicht am Titel, nicht an anderer Stelle. Wie sehen das andere Leser?
Ich habe mal vergangene Tests durchgeguckt und bei neuen Generationen wurde eigentlich immer auf die High-End CPUs der Konkurrenz eingegangenen, auch wenn die (preislich) gar nicht attackiert wurden, z.B. hier:
https://www.computerbase.de/artikel...4-920-und-940-black-edition-test.938/seite-38
Wenn die CPU preislich wie hier von Intel deutlich unterhalb des High-End-Segments der Konkurrenz platziert wird, ist es aber auch richtig, die CPU mit dem preislichen Gegner zu vergleichen. dies wurde hier gemacht.
Ich finde den Test insgesamt gut (sofern die Werte stimmen), auch wenn ich den i7 wirklich interessant finde und das Fazit etwas zu negativ wirkt. Ich sehe ihn als gleichwertig mit dem Ryzen 7 5800X. Aber eine große Schwäche hat die Architektur, das ist ihr Stromhunger.
 
DavidG schrieb:
Aber eine große Schwäche hat die Architektur, das ist ihr Stromhunger.
Das ist eigentlich weniger das Problem der Architektur, denn die ist nach jahrelangen Skylake-Aufgüssen ziemlich runderneuert. Siehe die 10nm Mobilprozessoren.
Der Durst kommt hauptsächlich durch den Backport auf die ausgelutschte 14nm Fertigung, und natürlich den hochgeprügelten Takt um irgendwie mithalten zu können.
 
Klever schrieb:

(Die 160FPS, wo du mich zitiert hast, ist mein FPS-Limit, welches ich eingestellt habe.)

Das ist mir bekannt, dass man die Grafikkarte mit dem Spiel klein bekommt. Aber ich bin da bewusst mit meinen Einstellungen so, dass ich hohe FPS habe. Bei dieser Müllengine von GTA skaliert nämlich die Performance von diversen Autos im Spiel mit FPS und das nutze ich, wenn ich Rennen und Rennzeiten grinde, was auch ein Spielziel sein kann. Für die Sachen, wo man ballert, vorallem PvP, macht sich dann der geringe Inputlag gut. Auch sieht ein scharfes Bewegtbild auf einem 165Hz-G-Sync-Monitor schön aus. Da verzichte ich halt auf die Sichtweite (CPU-Fresser), während ich die anderen Sachen trotzdem auf schönen Einstellungen habe. Die RTX2080S hängt nicht im Limit, aber sie gammelt auch nicht mit 50% Auslastung rum, bzw. auch nicht mit geringeren Takt im Bereich von 16xx bis 18xxMHz, sondern läuft immer auf 1995-2010MHz mit 0,987-1V (eigene Kurve im AB aktiv).

Selbst auf der GTX1070, die ich vor einem Jahr für das Warten auf Ampere gekauft habe (2080 ohne "S" ging defekt, jetzige 2080S stammt aus einem Gewinnspiel), konnte ich mit ungefähr 120FPS spielen, mit ähnlichen Einstellungen, auch weiterhin ohne CPU-Fresser. Die Karte war jedoch immer im Limit. Selbst mit der GTX970, die ich kurz vor der 1070 hatte, sah GTA OK aus und schaffte auch rund 100FPS, jedoch musste ich Shader-Sachen komplett reduzieren.

Und diese Aufrüstung erwähnte ich auch erstmal mal mit einem eventuellen erneuten Lotteriegewinn, denn Gigabyte verlost Z590 Master und ein anderer Mitbewerber unter den Computerseiten verlost ein MSI. :D Wahrscheinlicher ist jedoch, dass ich leer ausgehe, daher mit der bestehenden Kiste es aussitzen, obwohl Ersparnisse von über 2000€ vorhanden sind. Dann kann man auch auf Alder Lake gehen oder auf das, was AMD bringt. Auch wollte ich eine 3080 haben und im November im schwarzen Freitag gekauft haben, aber die Nichtverfügbarkeit, Corona, die Scalper, die Kryptowährungs-Schlürfer und die Preise halt. Streng genommen wäre das in meinem Fall auch noch sinnloser gewesen, da ja die CPU limitiert und nicht die 2080S.

Bei diesem krüppeligen Spiel von R* sowie bei Transport Fever 2 wäre man eigentlich besser beraten, wenn die Multicoreunterstützung verbessert wird. Transport Fever 2 läuft in Städten teilweise nur mit 20FPS und der Bahnhofseditor ist leistungsmäßig richtig ein Graus mit 5FPS, wenn man einen großen Bahnhof mit 400m Länge und 8 Gleisen (um)baut. Aber vielleicht haben sie ja letzteres gepatcht, habe ich noch nicht überprüft. Wobei ich aber sagen muss, dass Transport Fever 2 mit 30FPS noch gut spielbar ist und ich da oftmals den Limiter sogar nur auf 60 habe. Meine Map ist da eine mit größenwahnsinnigen Maßen und geschätzt sind 1300-1400 Fahrzeuge drauf. Kartenmaße 10,5x52,5km, so kann man auch Schnellfahrstrecken sinnvoll verwenden und auch Fluglinien. Leistungsverbauch auf 2-4 Kernen: Hardcore.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever
DonL_ schrieb:
Na ja,
jetzt mal halblang!
Bitte belege deine Behauptung anhand eines Tests. Etwa wie du ausgehend von 3200Mhz 25 bis 30% mit einem Ryzen 3600 mit lediglich DDR4 3600 herausholst um auf Zen 3 bzw Rocket Lake Niveau zu landen.
Ich würde anhand der Zen 2 RAM OC Community Tests die hier durchgeführt wurden, 5% ansetzen.
DonL_ schrieb:
Es soll auch Leute geben die schon vor über einem Jahr einen Ryzen 3600 für 150€ gekauft haben,
Inwiefern macht ihn das jetzt schneller?
Es soll auch Leute geben die den Prozessor gebraucht für 100 abgestaubt haben.
Grafikkarten haben vor 5 Monaten auch mal weniger gekostet als heutzutage.

DonL_ schrieb:
und JA, je nach Spiel und Subtimings sind bis zu 30% möglich.
Zeig mal, mit 3600er RAM versteht sich.
DonL_ schrieb:
Das ist bestimmt nicht der Durchschnitt, aber 15% sind im Schnitt zu 3200 CL16 mit entsprechenden Subtimings und 3600 MHZ RAM möglich und normal!
Zeig doch bitte mal! Vorher waren wir bei 11400 F RAM OC Niveau ubd jetzt ists nur noch die Hälfte?
Ergänzung ()

aldaric schrieb:
Vergiss den Kühleraufpreis bei Intel nicht. :evillol:
Der 11400F liefert in der Box den Kühler mit.
 
  • Gefällt mir
Reaktionen: ZeroStrat
Schade, dass nicht auf die IGPU eingegangen wird.

Ist ja schliesslich auch eine grosse Neuerung im Vergleich zum Vorgänger.

Auf HWL wird das Thema ein Wenig behandelt.

Dort sprechen sie von einem Leistungsplus von ca. 50% der UHD750 gegenüber der UHD 630.
 
  • Gefällt mir
Reaktionen: Innocience, aldonius und matty2580
gustlegga schrieb:
Das ist eigentlich weniger das Problem der Architektur, denn die ist nach jahrelangen Skylake-Aufgüssen ziemlich runderneuert. Siehe die 10nm Mobilprozessoren.
Der Durst kommt hauptsächlich durch den Backport auf die ausgelutschte 14nm Fertigung, und natürlich den hochgeprügelten Takt um irgendwie mithalten zu können.
Das könnte man denken. aber wenn ich richtig gucke, ist man nicht nur ineffizienter als AMD (Was bedeuten die Anmerkungen bei den Ryzen 5xxx bei der Leistungsaufnahme?), sondern auch als Comet Lake. Das spricht für ein Problem der Architektur. Ich bin aber sicher, dass Alder Lake extrem effizient sein wird.
 
Trotz einiger Nachteile eine gute Generation. Denke Intel wird die bessere Verfügbarkeit haben als AMD.
Die iGpu können auch momentan ein Argument sein. Falls die diskrete GPU defekt ist kann man den PC ggü der 5000er Serie trotzdem nutzen. Ersatz dgpus wird man ohne Geduld zur uvp eh nicht so schnell bekommen.

Ich weiß aber nicht ob Intel in 10nm besser dastehen würde.
Bei höherer Packdichte wären bei gleicher Leistung die Hotspots trotz geringeren Verbrauch bestimmt höher. Das ganze sieht man bei Zen3 auch.
 
rene76 schrieb:
Die meisten fokusieren sich immer auf Spiele und vergleichen somit Äpfel mit Birnen. Bei spielen machen die CPU´s ob AMD oder Intel keinen Unterschied. Interessant wird es bei 3D Rendering. Da wo eine CPU auch wirklich Leistung bringen muss. Kommt weg von dem vergleich mit Spielen.
Interessant wird es da, wo es die eigene Lebenssirklichkeit berührt. Und das sind bei den meisten Spiele.

Und auch wenn du im Spiele-Schnitt Recht hast gibt es auch Spieler wie mich.
Ich spiele quasi nur OpenWorld und GrandStrategy sowie Aufbau. Zudem Nutz ich gern und viel Mods. Ich baue auch gern gross. Echt gross.
Konkret bedeutet das:
EU4 mit Mods (ich musste schon Kompromisse eingehen, da mit all meinen Mods nur 5 fps drin sind, bei Spiel start und sieh dir eu4 an, die Grafikkarte limitiert nicht)
Stellaris, dasselbe wie bei EU4, im Lategame aber 3x so "schlimm"
Cities:Skyline mit 100k+Städten
Anno1800 mit 250k Einwohnern
Valheim mit riesigen Infrasrukturprojekten. Kanäle, Gebäude etc.

Das sind die drstbesten Spiele die mir einfallen und ich bin bei allen im CPU Limit. Woher ich das weiß? UHD hat dieselben FPS wie FHD.
 
DavidG schrieb:
Ich bin aber sicher, dass Alder Lake extrem effizient sein wird.
Effizienz ist ohnehin total überbewertet. :D
19er CRT Monitor 120W ---> 2x24" LED gesamt 60W
X6-1090T 125W --> Ryzen5 3600 65W (vom IDLE gar nicht zu sprechen)
Und jetzt hab ich auch noch alles auf LED statt Glühbirnen umgestellt.....
Ich muss immer mehr heizen; ökologisch mit Öl nicht gerade optimal.
Da wärs doch besser ich hätte weiterhin mehr Strom verbraten, der kommt bei uns aus dem Wasserkraftwerk.

[/Ironie aus]
Ergänzung ()

Zwiebelsoße schrieb:
Der 11400F liefert in der Box den Kühler mit.
Den willst du ausser für Office und I-Net nicht wirklich benutzen... ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
gustlegga schrieb:
Den willst du ausser für Office und I-Net nicht wirklich benutzen... ^^
Hab den 10400F Standardkühler schon benutzt und verbaut, war auch für Gaming völlig ausreichend.
 
Zwiebelsoße schrieb:
Golem, CapframeX und PCGH widersprechen da als deutsche Reviews nicht, nur CB und Igors Lab.
Bei Igors Lab lief alles schief, BIOS kaputt.
Bin gespannt wie lange es dauert bis das eingeräumt wird.:D
Vielleicht hätte man man mal eine geeignetere Grafikkarte nehmen sollen? Im NVIDIA-Treiberlimit liegt bei mir auch alles sehr eng zusammen, mit klitzekleinem Vorteil für Intel. Ich habe sogar noch einen längeren Artikel VOR dem Launchreview veröffentlich, wo genau erklärt wird, warum man eine RTX 3090 in 720p (und stellenweise 1080p) schlichtweg vergessen kann und sich damit sogar selbst betrügt.

Bei Igors Lab lief alles schief, BIOS kaputt.

Was ist das denn für eine Aussage? Und nein, das BIOS ist nicht kaputt, es ist sogar richtig frisch. Ich habe die Resultate auf dem kleinen Dienstweg auch mit den internen Zahlen des MSI OC Labs vergleichen können, da ist nichts defekt, die sehen das genauso. Intel hat es verkackt und man sollte es endlich mal akzeptieren. Egal woher man erstmalig vielleicht sein Sample bekommen haben mag. Vielleicht sollte man aber auch mal drüber nachdenken, ob die getesteten AMD-Systeme uptodate waren oder ob man da vielleicht ältere Messwerte galant einfach weiterverwendet hat. Das letzte AGESA brachte hier fast 5% Zuwachs in einigen Spielen. hat man?

Für solche Dinge gibt es übrigens die unverzichtbare MSA (Measurement System Analysis), das ist unablässiger Standard und solche Basics macht ein objektiver Reviewer vorher immer. Dann hätte einem nämlich auch was auffallen müssen! Der Wert für die RTX 3090 ist verheerend. Da liege ich bei den Unterschieden zwischen einzelnen CPUs sogar unter der Fehlerstreuung für die Benchmarks. Bei der PCGH gewinnt der 11900K mit sagenhaften 0.1%, wenn allein die Toleranzgrenze bei den Spielen immer über 1% liegt? Was soll das denn bitte? Warum wohl habe ich den Aufwand mit der Radeon betrieben? Aus Langeweile? Schlimm genug, dass hier die meisten einfach nicht mitgedacht haben.

Wenn man sich z.B. die Werte bei PCGH mal genauer anschaut und es bei Watchdogs in 720p zwischen den 8 relevanten CPUs nur 9 FPS Differenz gibt, also maximal um die 10%, dann ist da was oberfaul. Zwischen 3 der SKUs liegen da nicht mal 2% und man ist hier mit den drei Probanden bereits im deutlich Fehlerbereich. Eine Grafikkarte, die nicht im eigenen Treibermüll erstickt, schafft da 25 FPS Differenz zwischen allen 8 und ist auch bei den Absolutwerten um Längen schneller. Da liegt jede SKU sauber im Trend. Von den Varianzen mal ganz zu schweigen. Ich habe vorher beides getestet, auch die 3090. Hätte ich die genommen, wäre mein Review genauso verkorkst geworden, wie so manch anderes. Aber warum sollte ich meine Leser in die Irre führen?

In meine Messung gehen bei 50% der Ergebnisse zudem auch die Vorteile von resizeable BAR ein, was ich auf ja mittlerweile auf BEIDEN Plattformen vergleichen kann, da die RX 6900XT das kann, die 3090 (noch) nicht. Warum das bei den meisten Tests komplett ignoriert wurde, schreibe ich sehr höflich mal der Bequemlichkeit zu, um ja nicht in Versuchung zu kommen, da Absicht zu unterstellen. :)


Edit:
Ich habe mal eben die Logfiles verglichen, um die Unterschiede zu veranschaulichen. Und jetzt nehme ich nur mal den Ryzen 9 5900X, um nicht wieder in Intel vs. AMD abzugleiten. In WQHD sind die RX 6900XT und die RTX 3090 in etwa gleich schnell, aber...

Eine MSI RTX 3090 SUPRIM schafft in SotTR in 720P mit dem Teil 211,2 FPS, die RX 6900XT satte 222,5. In BL3 sind es sogar brutale 244.7 FPS statt der 201.2 FPS mit der NV-Karte. Kinder, das sind 22 Prozentpunkte mehr, also fast ein Viertel! Je größer die FPS-Unterschiede zwischen den SKUs werden, weil eben die Grafikkarte samt Treiber NICHT so limitiert, um so sicherer kann man auch über die Differenzen zwischen den einzelnen SKUs urteilen. Ich würde einfach darum bitten, mal darüber nachzudenken.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Hardwarious, McLovin14, znarfw und 31 andere
Ich finde die Fazits von P*-****s und C**p sowiso sehr fragwürdig.

Aber gut, diese renommierten Magazine müssen ja irgendwie finanziert werden...:mussweg:
 
Ned Flanders schrieb:
In nem halben Jahr wäre es dan PCIe5, DDR5 und eine in 10nm gefertigte CPU gewesen.

Weiss nicht ob ich das als Intel Fan/AMD hater nicht noch durchgehalten hätte wenns wirklich was neues hätte sein sollen. Die Nummer hier hat halt doch einige Pferdefüße.
Wer weiß denn heute, ob 64 GB DDR 5 unbezahlbar sein werden, sofern man mehr als 4800 Mhz haben will? Was ist, wenn 8+8 nur Rocket Lake + Atom Kerne sind...ich laste nicht mal 4 Kerne aus und ob Windows damit auf Anhieb umgehen kann? Wer sagt, das 10 nm auf Anbhieb besser läuft? Es kommt so viel neues mit der neuen Plattform - da ist mir eine alte. zuverlässige bekannte lieber....und zum Schluss ist die Frage ob 2021 auch wirklich Hardware zum kaufen da ist. Mein Wunsch Mainboard
GIGABYTE Z590 VISION D
Z590 ist es nämlich bisher nicht. Und ein 11900K zum UVP Preis ist aktuell nicht möglich, Liefertermin ist im Mai ^^
 
Hallo CB, mittlerweile finde ich das Fazit grundsätzlich viel zu lang. Es sollte doch möglich sein, dass das Testergebnis in 2,3 Sätzen zusammengefasst wird.
 
  • Gefällt mir
Reaktionen: w0mbat und Dittsche
Precide schrieb:
Will jemand wetten? :D
Eher nicht. 14 nm ist Intel's "Rocky". Da gab es auch immer noch eine weitere Iteration. Anders als Stallone ist bei 14 nm das Ende der Fahnenstange aber jetzt mehr als erreicht.
Ergänzung ()

Guter Test. Mich würde auch schon aus egoistischen Gründen ein Test des i5 (11500 oder 600) in der " 35W " Version interessieren. Der könnte uU für ein HTPC Projekt interessant sein.
 
Pana schrieb:
Hallo CB, mittlerweile finde ich das Fazit grundsätzlich viel zu lang. Es sollte doch möglich sein, dass das Testergebnis in 2,3 Sätzen zusammengefasst wird.
Und was soll in den 2-3 Sätzen dann stehen? "Ist nicht schneller aber heißer?" Wie viel Info hätte man daraus denn gezogen?
Ich finde das Fazit so wie es ist genau richtig, weil es alles im zusammenhang beleuchtet was gut und schlecht ist. So muss das sein 👍
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, bad_sign und xexex
Zurück
Oben