Test Core i9-11900K und i5-11600K im Test: Die 14-nm-Brechstange

ZeroStrat schrieb:
Das habe ich so nicht geschrieben und das kommt einer harten Verleumdung gleich. Ich habe darauf verzichtet, offentsichtlich völlig invalide Ergebnisse vorzeitig zu veröffentlichen. Als dann die BIOS Updates kamen, habe ich ebenfalls Werte auf Twitter gepostet.

Dein Post ist eine Frechheit.
Gut das du das richtig stellst!

"Das ist das erste Mal, dass wir ein Reviewsample von einem bekannten Hersteller bekommen haben, um ein Launch-Review durchführen zu können. Vielen Dank an Intel an dieser Stelle. Der Launch war ziemlich turbulent im Vorfeld. Wir haben das Versprechen abgegeben, die wirliche Gaming-Leistung der 11. Generation zu zeigen und zwar von Anfang an. Wir haben uns die größte Mühe gegeben, das ganze so gut wie möglich umzusetzen. Probleme der Plattform mussten gelöst werden und wir haben es vermieden, ungültige und letztlich für den Hersteller schädliche Ergebnisse vorzeitg zu veröffentlichen."

Man kann dein Zitat auch so interpretieren und das ist nun nicht herbeigezogen, das ihr Werte die im Moment noch schlecht für Intel aussehen, weil sie Bios und Microcode Probleme haben, einfach nicht in den Test aufgenommen und veröffentlicht habt.

Insoweit ist dein Kommentar eher eine Richtigstellung einer anderen Interpretation, aber nichts was aldaric geschrieben hat, ist eine Verleumdung!
 
  • Gefällt mir
Reaktionen: Hardwarious, mythson, feuerreal und 5 andere
DonL_ schrieb:
Man kann dein Zitat auch so interpretieren und das ist nun nicht herbeigezogen, das ihr Werte die im Moment noch schlecht für Intel aussehen, weil sie Bios und Microcode Probleme haben, einfach nicht in den Test aufgenommen und veröffentlicht habt.
Hm, da steht doch "vorzeitg" und der Parcours ist vollständig. Es fehlen keine Werte irgendwelcher Intel CPUs. Wie kann man das missverstehen in dieser Hinsicht?

Und mal davon abgesehen, ich würde das mit jedem Hersteller so handhaben. Ich würde auch AMD nicht so in die Scheiße reiten.

vorzeitg? Erstmal den Rechtschreibfehler korrigieren. :D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Zwiebelsoße
Euphoria schrieb:
Das zeigt einfach mal, dass die Intel Architektur komplett am ihre Grenzen stößt.
Man sieht aber auch, dass die Konkurrenz gut für den Markt ist. Ohne AMD würden wir vermutlich immer noch bei 4 Kernen rumdümpeln.

Zeigt aber umso mehr, wie beeindruckend die Leistung von AMD mit ihrem Budget ist.
Das ist doch auch nicht überraschend. Wenn bei Intel alles so gelaufen wäre, wie mal geplant war, hätte man 2016, 2017 den 10nm Prozess eingeführt und wäre aktuell bei 10nm ++ oder 7nm und vermutlich in einer gänzlich anderen Leistungsklasse. Das Scheitern von Intel war AMDs Erfolg, wobei ich damit den Erfolg von AMD nicht klein reden will. Wo der technische Markt dann wirklich leistungstechnisch steht, wird man sehen, wenn Intel die 7nm einführt bzw. ggf. gemeinsam mit AMD den 5nm Prozess etabliert. Das ist aber Zukunftsmusik. So rennt Intel halt aktuell nur AMD hinterher und versucht mit den letzten Tropfen Tank den Vorsprung von AMD zu halten. Gewissermaßen ist das auch beeindruckend, was Intel aus der doppelt so großen Fertigung durch Optimierung noch rausquetschen kann. Darauf wird es in Zukunft immer mehr ankommen, denn der Verkleinerung der Fertigung sind auch physikalische Grenzen gesetzt. Da wird es entscheidend sein, was man aus der Herstellung in der Optimierung rausholen kann.
Der Abstand wird zwar eher größer werden, weil AMD die Optimierung des 7nm Prozess vorantreiben kann, wo bei 14nm kaum noch was rauszuholen ist. Was Intel aber letztlich noch rausgeholt hat, finde ich durchaus auch beeindruckend.
 
ZeroStrat schrieb:
Hm, da steht doch "vorzeitg" und der Parcours ist vollständig. Es fehlen keine Werte irgendwelcher Intel CPUs. Wie kann man das missverstehen in dieser Hinsicht?
Das vorzeitig kann man auch auf die Problemlösung und nicht einen Zeitpunkt beziehen.
Sorry und "kein Schwein" kennt euren Parcours, da euer erstes Review und das Gestern ab 17.00 Uhr bis heute morgen über die Seite nicht aufrufbar war.

Da wir aber jetzt die verschiedenen Interpretationen geklärt haben und du das richtig gestellt hast, ist das nun nicht mehr wirklich relevant.
 
  • Gefällt mir
Reaktionen: mythson, karl_laschnikow, Die_antwoord und 2 andere
Zwiebelsoße schrieb:
Das sind Excel Werte die man in das CMS klatscht und am Ende wird halt nicht auf Ganzzahlen gerundet, sondern mit Kommastelle, sprich Zehntel gearbeitet, ist ja auch genauer oder nicht?
Nein, nicht unbedingt. Mein Professor in Angewandter Informatik ließ mal ungefähr folgenden Spruch ab: "Wir können hier mit Double Percision arbeiten, wir können sogar mit Quad Persicion arbeiten, doch das Messgerät liefert nur Half-Percision und damit sind alleine unsere Messzahlen so "ungenau", dass selbst SP absolut ausreichend ist."

Und genau das Spricht Igor hier an - ich bin weiß Gott kein Fanboy von Igor und er hat sich von mir auch schon sein Echo abgeholt, aber ich respektiere ihn: Alleine die Messmethoden sind bereits nicht wirklich die genausten und dazu kommt noch, dass sich kein Messergebnis sich bis ins Zehntel oder gar hunderstel wirklich genau reproduzieren lässt.

Und damit kommen wir zu de Toleranzen:
Zwiebelsoße schrieb:
Toleranzgrenze? Ich kann dir nicht folgen?
Die Messunge bei PCGH, hier, bei Igor und Co kann man zwar nachvollziehen, aber nie vollständig reproduzieren, weil sie von zu vielen Faktoren abhängen. Grob gesprochen: Testet PCGH Spiel X am Morgen, könnnen 184 FPS raus kommen, teste PCGH das Spiel am Mittag 179 und teste es das Spiel am Abend 187. Nach "Außen" ist dabei nicht sofort erkennbar, warum die FPS hier eine Schwankung von 8 FPS vorliegt, weil "nominell" alles Gleich ist.

Deswegen gehen ja manche Redaktionen dazu über, dass sie ein Spiel nicht nur "einmal" durchlaufen lassen um die Werte zu bekommen, sondern in der Regel eher 3 mal und dann den Mittelwer ziehen: Wären hier 183,33(Periode).

Und schon haben wir eine gewisse "Ungenauigkeit" drin, das nennt man dann auch Messungenauigkeit, denn nehmen wir an, im selben Spiel schafft der Konkurrenz 177, 185, 190, dan haben wir 184 im Mittel. Wenn man jetzt aber nur einen "Testlauf" macht, kommt man auf 184 und 177 und damit zu kanpp 4% Unterschied.

Und hier setzt halt dann auch die Toleranzen ein: 183,33 im Mittel gege 184 im Mittel, was ist jetzt schneller? Solche Sachen sind gerne mal "Schluckäufe" im System.

Wenn man also in einem Benchmark bei einem einmaligen "Durchlauf" einen Unterschied unter 5 % heraus bekommt, dann ist die Aussagekraft dieses Tests eher gering. Wirklich Aussagekräftig wird so ein Test mit einer Testreihe aus "mindestens" 3 durchläufen, weil man dann anfängt einen gescheiten Mittelwert bilde zu können, mit dem man eine gewisse Aussage treffen kann.

Und will mn es wirklich "genau" haben, dann lässt man mal auch 10 mal den selben Benchmark laufen und eliminiert das schlechteste und beste Ergebnis.
 
  • Gefällt mir
Reaktionen: Hardwarious, Veitograf, feuerreal und 6 andere
Ned Flanders schrieb:
Ich hätte halt erwartet das RKL genau der Punkt ist, an dem Intel stark zurückkommt.
ich hielt das von vornherein für illusorisch; intel mag eine große "bude" sein und auch wenn ise den 14nm prozess bis zum erbrechen ausquetschen, zaubern können auch sie nicht.

um "stark zurückzukommen" braucht intel einen moderneres fertigungsnode - daran wird längerfristig kein weg vorbeiführen.
 
Volker schrieb:
Sie sind in der Situation noch immer nicht genügend CPUs liefern zu können, warum sich selbst also den höherpreisigen Markt versauen?
Ja, das ist natürlich wirtschaftlich nachvollziehbar, als Verbraucher suckts aber leider. Ich mein, wären die Dinger dann auch zu UVP erhältlich gewesen, fair enough, aber Zen3 ist wohl auf der Strasse die wertstabilste AMD CPU aller Zeiten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron-man
Raidr schrieb:
Stimme dir zur, es ist echt erstaunlich was Intel aus dem 14nm Prozess noch rausholt und AMD trotzdem Konkurrenz bieten kann

Effizienz ist ja auch ein extrem wichtiger Bereich und da spielt bei Auslastung der CPU's von Desktop über HEDT zum Server hin, AMD ja in einer ganz anderen Liga.

Man muss aber auch dringend erwähnen, dass der 14nm Prozess zwar noch 14nm heißt, aber wenn man mal die Packdichten über die Generationen vergleicht, stellt man schnell fest, dass der Name da vielleicht nicht mehr so korrekt ist.

Das Problem ist ja eher, dass man den 14nm Prozess mittlerweile soweit optimiert und verfeinert hat, dass die neuen Prozesse eben nicht mehr diese Sprünge bringen. Intel hat ja selbst mal erwähnt, dass der 10nm+ Prozess nicht ausreichend ist um den 14nm Prozess in der Leistung zu überbieten. Dafür muss schon 10nm++ her.
Ergänzung ()

Ned Flanders schrieb:
aber Zen3 ist wohl auf der Strasse die wertstabilste CPU aller Zeiten.

Aus Sicht eines kleinen Großhändlers, brauch AMD da wenig zu machen.

Alle CPU's die von AMD rein kommen, werden direkt verkauft. Es gibt keine Lagerhaltung für AMD Produkte, da momentan gar nicht so viel produziert werden kann, wie sie verkaufen könnten.

Da ist es halt fraglich, warum man sich den Preis selbst kaputt machen sollte. Warum ein Chiplet als 5600 verkaufen, wenn es sowieso als 5600x aus den Händen gerissen wird, zu einem erheblich besseren Preis für den Hersteller?
 
  • Gefällt mir
Reaktionen: Mracpad, iron-man und Ned Flanders
cypeak schrieb:
um "stark zurückzukommen" braucht intel einen moderneres fertigungsnode - daran wird längerfristig kein weg vorbeiführen.
Wobei man ein "stark" schon quasi auschließen kann. Man weiß, was Intel für Golden Cove anstrebt man weiß was AMD für Zen 4 anstrebt und am Ende wird hier die Fertigung den Aussschlag geben, am Ende wird es aber so sein, dass ein der Beiden ein paar % schneller ist und der Klinsch, den manche hier meinen schon im Vorfeld auszutragen, absolut witzlos ist, weil beide gute CPUs raus bringen werden und man das kaufen soll, was einem gefällt.

So werde ich das zumindest handhaben: AlderLake + Ampere, mein nächstes System, Sorry AMD. Alleine nur, weil: Will halt!
 
  • Gefällt mir
Reaktionen: Tomi_92
ZeroStrat schrieb:
Man kann davon ausgehen, dass es Unterschiede gibt. Aber das ist halt eine zusätzliche Last, mit der die CPUs umgehen müssen. CPUs sollte ja bei einem Test gefordert werden. Wenn der AMD-Treiber in DirectX 11 limitiert, dann gewinnt halt die CPU mit der höheren Singlecore Leistung, auch wenn die nur 4 Kerne hat so als Beispiel.
Da machst du es dir zu einfach.
Deine Aussage behält nur in einem einzigen Szenario recht:
Wenn die CPU-Last pro gerendertem Frame (das was du hier testen kannst) konstant ist und damit mit steigender CPU-Leistung linear ansteigt.

In allen anderen Szenarien, die relevant von einer linearen Skalierung abweichen, müsste eine angepasste Fehlerrechnung auf die gemessenen Ergebnisse durchgeführt werden, um die wahre Leistung bewerten zu können.
Wächst der Aufwand wegen Overhead z.B. logarithmisch, hieße das, dass die Ergebnisse in Wirklichkeit weiter auseinander liegen, als gemessen wurde. Ein gemessener Unterschied von 10% entspräche in dem Fall einem wahren Unterschied von mehr als 10%.
Wächst der Aufwand wegen Overhead z.B. exponentiell, hieße das, dass die Ergebnisse in Wirklichkeit näher zusammen liegen, als gemessen wurde. Ein gemessener Unterschied von 10% entspräche in dem Fall einem wahren Unterschied von weniger als 10%.

Ohne dieses Wissen kannst du lediglich eine Aussage darüber tätigen, wer schneller und wer langsamer ist.
Aber wie viel schneller oder wie viel langsamer kann ohne zusätzliche Informationen nicht klar beurteilt werden.

Soweit hat sich diesem Thema noch kaum einer tief genug zugewandt.
Der einzige (oder einer der sehr wenigen) der da öffentlich etwas mehr analysiert hat, ist Igor.
Aber auch ihm fehlen da Informationen um mehr aussagen zu können, als dass bei einer Radeon 6900XT, gegenüber einer RTX 3090, der Overhead messbar geringer ausfällt.

Messfehler bei Benchmarks sind seit je her ein vernachlässigtes Feld.
Außer ca. 3-10 mal messen und dann den Mittelwert nehmen, ist da in den letzten 10-15 Jahren nicht zum Vorschein gekommen.
Zugegeben, es ist auch nicht gerade einfach.
Zeit-, Temperatur und Mondphasenabhängige Boosts und Throttles machen es nicht einfacher.

Letzten Endes eignet es sich aber auch nicht als Ausrede.
Umso mehr ist es wichtig, jeden verlässlich messbaren Vorteil zu nutzen, um Messfehler minimal zu halten.
Das Messen mit einer Radeon 6900XT statt RTX 3090 fiele in diesem Fall auch darunter.
 
  • Gefällt mir
Reaktionen: feuerreal, FormatC, bad_sign und 6 andere
Gut das ich mich letztes Jahr für einen 10900K entschieden habe und auf PCIE 4.0 geschissen habe. Dazu noch extrem Glück gehabt bei der Silicon Lottery.

Pure Enttäuschung! Ich hab nicht viel erwartet aber das ist ein Armutszeugnis. Hätten sie lieber auf diese Gen verzichtet und wären dann Ende des Jahres mit Alder Lake um die Ecke gekommen mit DDR5 & PCIE 5.0
 
cypeak schrieb:
um "stark zurückzukommen" braucht intel einen moderneres fertigungsnode - daran wird längerfristig kein weg vorbeiführen.
Ja, das ist offensichtlich. Was ich auch erwartet habe ist, dass sie vom Verbrauch und von verschiedenen Produktionsparametern wie Ausbeute/Wafer etc natürlich zurückhängen. Was ich nicht erwartet hätte ist dass von der Sunny Cove Leistung am Ende so wenig übrig bleibt und dass sie sich mit Gear Modes im neuen Speichercontroler selbst aufs Glatteis führen.
 
Teralios schrieb:
Und hier setzt halt dann auch die Toleranzen ein: 183,33 im Mittel gege 184 im Mittel, was ist jetzt schneller? Solche Sachen sind gerne mal "Schluckäufe" im System.
Deine Ausführung triffts perfekt. Ich habe das gesehen, als ich mit AIDA die Bench-
marks gemacht hab. Hier läuft mal eine Windows Update im Hintergrund, da aktu-
alisiert sich ein random Programm, mal geht das Antivirus auf Suche und so weiter.
Und das braucht alles RAM und Rechenzeit und I/O auf dem Datenträger.

Diese Werte bis auf die 3 Nachkommastelle (überspitzt formuliert) als Grundlage für
Diskussionen zu nehmen, verfehlt den Zweck, weil hier mehr eine Tendenz oder Re-
lation gezeigt wird als ein absoluter Wert, der unumstößlich ist.

Weder machts in Spielen einen spürbaren Unterschied ob ich 180 oder 185 FPS habe,
noch ist es für Privatanwender idR zeitkritisch ob ein Transcode-Job 50 oder 48 Min
braucht. Die Schärfe in manchen Diskussionen ist daher oftmals unverhältnismäßig.
 
  • Gefällt mir
Reaktionen: McLovin14, Rockstar85 und Ned Flanders
Smartin schrieb:
Das ist doch auch nicht überraschend. Wenn bei Intel alles so gelaufen wäre, wie mal geplant war, hätte man 2016, 2017 den 10nm Prozess eingeführt und wäre aktuell bei 10nm ++ oder 7nm und vermutlich in einer gänzlich anderen [Zitat gekürzt]
Nur am Fertigungsprozess liegt es ja nicht. Aktuelles 14nm++ (oder wie auch immer Intel es nennt) ist gar nicht soweit weg von dem was die anderen Hersteller als 10nm/7nm angeben.

Das Problem ist eher die Architektur, die ja seit nun 12 Generationen mehr oder minder immer nur kleinere Refreshes erhalten hat. Man hat sich schlicht und einfach auf den Lorbeeren ausgeruht, die Konkurrenz unterschätzt und wurde regelrecht überrollt.
 
AW4 schrieb:
Deine Aussage behält nur in einem einzigen Szenario recht:
Wenn die CPU-Last pro gerendertem Frame (das was du hier testen kannst) konstant ist und damit mit steigender CPU-Leistung linear ansteigt.

In allen anderen Szenarien, die relevant von einer linearen Skalierung abweichen, müsste eine angepasste Fehlerrechnung auf die gemessenen Ergebnisse durchgeführt werden, um die wahre Leistung bewerten zu können.
Wächst der Aufwand wegen Overhead z.B. logarithmisch, hieße das, dass die Ergebnisse in Wirklichkeit weiter auseinander liegen, als gemessen wurde. Ein gemessener Unterschied von 10% entspräche in dem Fall einem wahren Unterschied von mehr als 10%.
Theoretisch ist das richtig, aber man kann einfach hingehen und sagen, dass man den Treiberoverhead wie jede andere (zusätzliche) Last behandelt, nicht gesondert, sondern als integraler Bestandteil der Gesamtlast. Dann muss man da auch nicht wild rumrechnen.
 
@ZeroStrat

Evtl. wäre es ja sinnvoller gewesen, die RKL CPUs mit der RTX UND(!) der RX6900 XT zu benchen und dafür dann z.B. auf die Boost-Benches (erstmal) zu verzichten. Dann müsste man nicht im dunkeln stochern und hätte echte Daten.

Weil, Theorie ist das eine, Praxis die andere.

Am Ende zählen doch nur die erreichten "realen" fps und nicht die eigentlich zu erreichenden.

Ergo am besten den 11900K und 5900X nochmals mit der RX benchen, dann hat man die "Realität" schwarz auf weiß. Gerne auch mit und ohne rBAR, um auch diesen Effekt zu sehen. Ja, das ist sicherlich nicht wenig Arbeit, aber am Ende viel wertvoller als "drölfzillionen" Benches mit Boost ABC oder mit Boost ABCD.

Bisher war es ja so, dass nVidia unangefochten oben stand und daher immer die Nummer 1 Wahl für CPU Reviews war. Leider (oder zum GLück, je nach Sichtweise) gibt es endlich wieder richtige Konkurrenz und das hat dann auch leider (oder zum Glück ;)) Auswirkungen auf die CPU Benchmarks.


Zur 720p nV "Problematik" mal ein fiktives(!) Beispiel:

CPU A schafft 1000 Leistungspunkte
CPU B ist langsamer mit 750 Leistungspunkten

CPU A ist also 33% schneller. So weit, so einfach.

Jetzt kommen aber für Spiele noch die 3D-KArte und deren "Overhead" (wodurch auch immer, das ist jetzt erstmal egal) ins Spiel.

Mit AMD entsteht eine Last von 50 Leistungspunkten, bei nVidia 150 Leistungspunkte (ich habe hier absichtlich größere Zahlen zur einfachen Rechnung genommen).

Somit würde ein CPU Test mit AMD folgende Ergebnisse produzieren:

CPU A: 950 Punkte
CPU B: 700 Punkte
Also +35,7%

Dann nehmen wir die nV Werte:

CPU A: 850 Punkte
CPU B: 600 Punkte
Da sind wir dann schon bei 41,7% Differenz.

Ergo würde man als Tester den Lesern mitteilen, dass die (neue) CPU A fast 42% schneller ist, als CPU B. Bei Nutzung von nV Grafikkarten stimmt das auch, ganz klar.
Aber bei einem CPU Review sollte es, imo, nur und einzig und allein um die CPU LEistung gehen. Völlig und komplett losgelöst vom übrigen Marktgeschehen.

Natürlich ist dieses Beispiel technisch nicht "korrekt", soll aber nur eine sehr einfache Verdeutlichung sein, worauf ich hinaus möchte.

Klar, je schneller die CPUs, desto geringer das "Problem". Allerdings werden zukünftige Spiele (Sommer / Winter 2021 / 2022) sicherlich nicht mit weniger CPU Last glänzen, gerade wenn dann die Next-Gen-Games kommen.

Ob eine Kombination aus CPU und GPU sinnvoll ist oder nicht, hat in einem CPU Review auch eher nichts zu suchen. Wie schon geschrieben, es geht dabei um die nackte CPU Leistungsfähigkeit und um nichts(!) anderes.

Die Situation ist aktuell wie sie halt ist und imo ist es daher bitter, aber man muss beide Grafikkarten (RTX 3080/90 bzw. RX 6900XT) für den Test nehmen und kann dann erst ein "echtes" Fazit fällen. Ich kann verstehen, wenn man aus Zeitgründen das nicht kann, aber dann gibt es auch zurecht die Kritik, dass der Test eben unvollständig ist, egal wie viel Zeit und Herzblut da reingeflossen ist. Ich gehe auch davon aus, dass die Werte komplett korrekt sind, aber es fehlen halt die Hälfte der Werte.

Am Ende könnte es für zukünftige Tests auch eine Art "Kompromiss" geben: DX11 Games mit einer RTX, DX12 Games mit der Radeon benchen, dann muss man jedes Spiel nur mit einer Karte testen und der Zeit(mehr)aufwand hält sich in Grenzen und man hat das beste aus beiden Welten.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Der Paule und ZeroStrat
Euphoria schrieb:
Nur am Fertigungsprozess liegt es ja nicht. Aktuelles 14nm++ (oder wie auch immer Intel es nennt) ist gar nicht soweit weg von dem was die anderen Hersteller als 10nm/7nm angeben.

Das Problem ist eher die Architektur, die ja seit nun 12 Generationen mehr oder minder immer nur kleinere Refreshes erhalten hat. Man hat sich schlicht und einfach auf den Lorbeeren ausgeruht, die Konkurrenz unterschätzt und wurde regelrecht überrollt.
Ich wäre mit solchen Ausagen echt vorsichtig, weil gerade RKL zeigt, wie weit Intel von der Packdichte abgeschlagen ist! Das Die ist riesig und immer noch sehr viel größer als AMDs Ryzen mit 7nm Chiplet und 12nm I/O Die.
Man kann das nicht immer nur an Taktraten festmachen und da hat Intel mit dem 10nm Prozess halt auch so seine Probleme.
Reduziert man Ryzen und RKL auf Verbrauch und Packdichte, bleibt nicht mehr viel übrig von Intels 14nm+++++ Prozess. Der ist übrigens auch dafür verantwortlich das man AMD völlig konkurrenzlos bei 12 und 16 Kerne ziehen lassen muss, von HEDT gar nicht zu reden.
 
  • Gefällt mir
Reaktionen: Rockstar85
Zurück
Oben