Bericht 12900K, 12700K & 12600K: Alder Lake läutet als 12. Gen Intel Core die Hybrid-Ära ein

LGTT1 schrieb:
aber im mittel definitiv im einstelligen Prozentbereich, wenn was anderes Rauskommt müsste man schon von Schiebung ausgehen
Wie kommst du zu dem einstelligen Prozentbereich?
zweistellig wird es schon werden, das hat auch Volker hier schon durchblicken lassen
 
@Taxxor Ich schrieb im Mittel, und das wird sogar logisch wenn man Intels eigene Folie als Maßstab nimmst der Leistungsverlust durch das Windows 11 rechnest du von der Folie ab oder dazu was dir lieber ist bist bei dem Gro des Slides nur bei geringeren zugewinnen, das es auch ein paar Perlen mit höheren Zugewinn geben wird bestreitet keiner, Cherrypicking betreiben ja alle Hersteller (Intel sah ja auch Rocket Lake auf ihren Folien vor AMD). Fest steht seit den vorgaben von NVIDIA was Benchmarks und Anzahl der RTX Titel bzw. Schwerpunkte angeht bin ich extrem vorsichtig und werde unabhängig davon was hier rauskommt noch mit anderen Quellen querprüfen. Fest steht Effizienz kann durchaus besser sein darauf ist das Design ja ausgelegt ich denke das die Fixierung auf Gamer aber von Seiten Intel mit Absicht gewählt ist, das scheint leider oft eine einfach zu manipulierende Spezies zu sein (sonst würde nicht auf jedem Mauspad mit 2 oder mehr LEDs irgendwas mit Gaming stehen :-) ).
 
Zuletzt bearbeitet: (Anpassung überzeugt von anderem Community Mitglied)
LGTT1 schrieb:
der Leistungsverlust durch das Windows 11 Patchlevel in dem Slide liegt für AMD grob geschätzt bei 8% ähnliche Werte hat selbst Volker ja bereits für realistisch angesehen
Wo hat er das als realistisch angesehen? Er sagte quasi die Zahlen von Intel passen gut zu dem was sie getestet haben. Und er hat hier auch klar gesagt, dass diesen Patch zu viel Einfluss zugesprochen wird.

Volker sagte sie legen nicht nur zweistellig zu, sondern auch mal zweistellig mit ner 2 vorne. Und dann auch mal einstellig.
Im Parcour von CB liegen Ryzen 5000 und RKL gleichauf, also wird der Unterschied ADL zu Ryzen 5000 auch gleich dem von ADL zu RKL sein.

8% ist auch ein völlig unrealistischer Verlust in den Spielen die Intel dort genutzt hat, der Win11 Patch und der Chipsatztreiber werden hier vielleicht 1-2% ausmachen, mehr nicht, da selbst laut AMD eigentlich nur manche E-Sports Titel wirklich betroffen waren.
 
Es ist ein Trauerspiel - immer noch kein DP2.0 ? Maximale Graphikauflösung die von der eingebetteten GPU unterstützt wird bleibt bei schlappen 4k.

Ich würd ja langsam doch gern mal mehr als 4k Monitore auf dem Markt sehen - die kommen langsam in die Jahre.

Besonders bescheuert ist das DP2.0 ja eigentlich von der Signalisierung her "schlichtes" TB4 ist - also eigentlich ist die Technik da. Man müßte sie nur einbauen .. bzw. statt 2 Leitungspaaren für einen TB4 Anschluß eben 4 Leitungspaare (für den USB-C DP2.0 alterhate Mode) vorsehen. Plus natürlich etwas mehr DMA Leserate hin zum Haupt/Videospeicher. Also etwa 50% mehr (unidirektionale) Bandbreite gegen TB4.

Rechenleistung haben diese Prozessormonster eigentlich alle genug - es sind manchmal die "kleinen" Dinge die zählen ..

Ich hoffe mal stark das Apple das Zeug bereits in seine neueren M1 Prozessoren eingebaut hat - aber halt nur noch nicht vermarktet .. vielleicht dann endlich mit den kommenden großen iMacs ? Auch wenn sie vermutlich den ersten DP2.0(HBR10) Monitor in Gestalt ihres 6K Displays bereits auf dem Markt haben - mit dem Apple proprietären "bis zu 6k Displays" Videoanschluß per USB-C Kabel ?
 
Zuletzt bearbeitet:
senf.dazu schrieb:
Maximale Graphikauflösung die von der eingebetteten GPU unterstützt wird bleibt bei schlappen 4k.
1635686000248.png

https://ark.intel.com/content/www/u...2900k-processor-30m-cache-up-to-5-20-ghz.html

senf.dazu schrieb:
Ich würd ja langsam doch gern mal mehr als 4k Monitore auf dem Markt sehen - die kommen langsam in die Jahre.
Ich würde ja langsam gerne bezahlbare 4K Monitore auf dem Markt sehen, mit anständigem HDR und 120Hz, aber davon sind wir noch weit entfernt und du erzählst was von "kommen in die Jahre"?
https://geizhals.de/?cat=monlcd19wide&xf=11984_120~14591_38402160~19078_vhdr400plus
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitec und Haxor
Kann mir das jemand in kürze beantworten oder auf einen guten Artikel dazu verlinken. Ich weiß nicht, wieso auf dem Desktop Intel auf diese E Cores setzt anstatt alles auf Performance zu trimmen. Es kommt im Desktop bei vielen von uns nicht auf das restliche Watt Einsparung an, die Multicore Performance von zum Bespiel 16 vollwertigen Cores würde ich deutlich stärker bevorzugen als eine 50:50 P:E Mischung mit etwas weniger Stromverbrauch. In mobilen Geräten ist das außer Frage, aber wieso setzt Intel dadrauf im Desktop, was erholft man sich daraus? Plant intel auch eine CPU mit vollwertigen 16 Kernen (eventuell in der großen HEDT Platform)?
Ich hab vor fast genau einem Jahr von einer Intel HEDT Platform (Skylake-X) auf den Ryzen 5950X gewechselt, jederzet bereit auch wieder auf Intel zu wechseln. Der neue Weg mit E&P Cores erscheint mir auf dem Desktop nicht sinvoll, dann doch besser die Grafikeinheit weglassen wenn Platzmangel der Grund ist?
 
Zuletzt bearbeitet:
Die E Cores skalieren im Multicore Bereich deutlich besser als die P Cores. Siehe auch ARM.
 
ArcherV schrieb:
Die E Cores skalieren im Multicore Bereich deutlich besser als die P Cores. Siehe auch ARM.

Apple hat im M1 Pro/Max (arm) gegenüber dem M1 die E Cores reduziert (4 > 2) und die Peformance Cores erhöht ( 4 > 8), da kann die Aussage so nicht passen. Eventuell skalieren sie besser, aber wenn die E-Core Rohleistung deutlich geringer ist dann nützt das nichts.
 
BetaHydri schrieb:
Apple hat im M1 Pro/Max (arm) gegenüber dem M1 die E Cores reduziert (4 > 2) und die Peformance Cores erhöht ( 4 > 8), da kann die Aussage so nicht passen.
Schau dir mal an wie groß der M1Pro und Max gegenüber dem M1 ist.

Bei Alder Lake nehmen 4 E Cores die Fläche eines P Cores ein, man hätte, wenn man die 8 E Cores entfernt, also nur 2 zusätzliche P Cores, die im Multicore langsamer sind.
 
  • Gefällt mir
Reaktionen: ArcherV
BetaHydri schrieb:
die Multicore Performance von zum Bespiel 16 vollwertigen Cores würde ich deutlich stärker bevorzugen als eine 50:50 P:E Mischung mit etwas weniger Stromverbrauch.
BetaHydri schrieb:
Der neue Weg mit E&P Cores erscheint mir auf dem Desktop nicht sinvoll

Naja, wie man es nimmt. AMD schafft ja zb beim 5950X bis zu 4,9Ghz im Turbo, bwz eigentlich theoretisch sogar etwas mehr.
Wenn alle 16 Kerne genutzt werden, sind es bedingt durch die TDP und teils Temperaturlimits aber nur etwa 3,6Ghz-4gHz Allcore.

Also was bringt es da so viele Performance Cores zu haben, wenn die eh nicht alle gleichzeitig auf voller Performance laufen können?
In dem Beispiel ist das natürlich nur auf den Takt bezogen.
Klar sind die E Cores nicht nur vom Takt her reduziert.

Ein P Core hat ja scheinbar die gleiche fläche wie die 4 E-Cores, bietet dabei aber wohl nur etwa die halbe MT Performance wenn man den höheren Takt und HT mitrechnet.
Theoretisch könnte Intel zb auf die Fläche 40 E-Cores packen. Wäre bestimmt von der Multicore Leistung besser. Aber da würde dann natürlich auch die Single Core Performance fehlen.
 
BetaHydri schrieb:
Apple hat im M1 Pro/Max (arm) gegenüber dem M1 die E Cores reduziert (4 > 2) und die Peformance Cores erhöht ( 4 > 8), da kann die Aussage so nicht passen. Eventuell skalieren sie besser, aber wenn die E-Core Rohleistung deutlich geringer ist dann nützt das nichts.

Wie schon gesagt wurde, nehmen 4 E Cores so viel Platz ein wie 1 P Core, sind aber von der gesamten Leistung her schneller. Im SC Bereich stinken die natürlich ab. Guck dir mal den Fuji A64FX an, der besteht fast nur aus "kleinen" Kernen.

https://www.fujitsu.com/global/products/computing/servers/supercomputer/a64fx/#anc-01
 
Ich finde die maximal 16 Cores des 5950x absolut genug für die Consumer Plattform ( persönlich ist der 5800 für mich schon genug). Wer mehr benötigt/will kann ja nen Ripper holen. Kostet auch ned so viel mehr Aufpreis und da kann man gleich in die vollen gehen mit 32/64 Kernen.

Fürs Gaming finde ich den 12600k wirklich als perfekten Mittelweg und denke der dürfte den 5800x gefährlich werden auch beim Preis (sobald es B660 gibt).
6 Starke Kerne, 6HT und 4 mittelmässige . Dürfte daher sehr gut werden, weil kaum ein Game alle Kerne 100% auslastet. Daher könnte hier Intel mit big little zumindest öfter eine 100% Auslastung zusammenbringen und darüber punkten.
Wäre auch noch interessant, ob man in Zukunft dann nicht statt HT noch ein paar E-Cores draufpackt, aber HT/SMT dürfte hier wohl noch zu effizient sein.
 
  • Gefällt mir
Reaktionen: Slayher666
VelleX schrieb:
Naja, wie man es nimmt. AMD schafft ja zb beim 5950X bis zu 4,9Ghz im Turbo, bwz eigentlich theoretisch sogar etwas mehr.
Wenn alle 16 Kerne genutzt werden, sind es bedingt durch die TDP und teils Temperaturlimits aber nur etwa 3,6Ghz-4gHz Allcore.

Also was bringt es da so viele Performance Cores zu haben, wenn die eh nicht alle gleichzeitig auf voller Performance laufen können?
In dem Beispiel ist das natürlich nur auf den Takt bezogen.
Klar sind die E Cores nicht nur vom Takt her reduziert.

Ein P Core hat ja scheinbar die gleiche fläche wie die 4 E-Cores, bietet dabei aber wohl nur etwa die halbe MT Performance wenn man den höheren Takt und HT mitrechnet.
Theoretisch könnte Intel zb auf die Fläche 40 E-Cores packen. Wäre bestimmt von der Multicore Leistung besser. Aber da würde dann natürlich auch die Single Core Performance fehlen.

Ich versetehe das schon, am Ende bremst hier die TDP. Aber viele Ryzen Nutzer optimieren ihn auf verschiedene Weisen, mit dem Curve Optimsier (Ich hab einige Wochen dran gesessen) zum Beispiel, kombiniert mit mehr TDP nach oben. Da kann man dann mit 16 gleichwertigen Kernen durchaus mehr machen als mit der 50:50 Mischung, wobei ich nicht die stark gestiegene IPC eines Golden Cove schmälern will, das ist schon sehr ordentlich was Intel da hingelegt hat.
 
BetaHydri schrieb:
Da kann man dann mit 16 gleichwertigen Kernen durchaus mehr machen als mit der 50:50 Mischung,
Oder auch weniger, wenn die Anwendung viele abhängige Threads hat. Dann kann man im schlimmsten Fall auch 30% Leistung durch die IF verlieren. Ich hatte einen 5950X hier und musste öfter die Anwendungen auf die beiden Dies verteilen um die maximale Performance zu bekommen.
 
Hier ist ist noch ein frischer Brechstandenartikel, was passiert wenn man die 125 Watt TDP erzwingt.
Aber auch mit der erweiterten TDP kann der Core i9-12900K gegen einen 5950X im R20 wenig ausrichten, insbesondere wenn man sich dessen überragende Single-Core Leistung anschaut, wleche deutlich vor einem 5950X liegt, Multi-Core verpufft diese wohl durch die E-Cores bei Nutzng aller Threads. Ich bin auf den Fall der NDA gespannt, es wird ein interssanter November.
 
BetaHydri schrieb:
Aber auch mit der erweiterten TDP kann der Core i9-12900K gegen einen 5950X im R20 wenig ausrichten, insbesondere wenn man sich dessen überragende Single-Core Leistung anschaut, wleche deutlich vor einem 5950X liegt, Multi-Core verpufft diese wohl durch die E-Cores bei Nutzng aller Threads.
Ja, 8 E-Cores sind beim Cinebench eindeutig zu wenig. Wer hauptsächlich Rendering betreiben will, kauft sich auch keinen 12900K. Wie von anderen bereits erwähnt, stelle man sich aber eine CPU mit 32 oder 40 E-Cores vor, die dann im Cinebench eine höhere Leistung bietet als ein 5950X, und das auf weniger Fläche bei geringerer Leistungsaufnahme.
 
https://www.igorslab.de/intel-alder...rx-6900xt-statt-einer-nvidia-rtx-a6000-messe/

Unter diesem Artikel kommentiert Igor folgendes:


"Ich vestehe bis heute nicht, warum Intel das alles so aufs Gaming fokussiert. Das Marketing gehört eigentlich gebrainwasht. Geile CPU, falsche Zielgruppe. Mehr dann am Freitag. Donnerstag gibts Games. :D"

Bin ja echt mal gespannt, im Gaming scheints ja doch nicht soooo dolle zu sein.
 
  • Gefällt mir
Reaktionen: Hardwarious
Vor allem interessant, da auch hier immer angezweifelt:

"Dann aber ist eine bewusste Veröffentlichung falscher Benchmarkergebnisse umso bedenklicher. Ich habe manche Dinge mit einem komplett aktualisieren System (Windows Patches, AMD Chipsatz-Treiber, Motherboard-BIOS) nachgemessen und kann eigentlich nur mit dem Kopf schütteln.

Zahlen werde ich hier jetzt aus Gründen zwar keine nennen, aber es ist durchaus so, dass sich das Bild zum Teil doch sichtbar verändert hat. Um so eine alberne Folie einigermaßen aktuell zu produzieren braucht man noch nicht einmal einen ganzen Arbeitstag fürs Benchmarken einer einzelnen CPU und die notwenige Korrektur im PowerPoint. Das alles ist für ein Unternehmen mit den Ressourcen Intels eigentlich ein Klacks, aber ganz offensichtlich vom Marketing so nicht gewollt
."
 
  • Gefällt mir
Reaktionen: Hardwarious, Dai6oro und Slayher666
Nun, man muss natürlich auch dazu erwähnen, dass Igor AMD mag.
Ich bin auf unabhängige Tests gespannt. Laut der8auer sollen die von Intel veröffentlichen Werte sehr nahe an der Realität sein, man darf gespannt sein.
 
Zuletzt bearbeitet von einem Moderator:
Igor hat nun wirklich alles, aber keine fette AMD Brille.

Was ist das denn für eine lächerliche Behauptung?

Intel hat mit einer RTX 3090 getestet, die unter 720p/1080p massiv unter Treiber-Oveahead auf der CPU leidet und ihre Stärken erst in den höheren Auflösungen ausspielt.

Diesen Treiber-Overhead hat man bei Intel natürlich gerne mitgenommen. Testet man hingegen in den Rasterizer-Spielen mit der stärksten GPU (6900XT) sieht das Ergebnis schon anders aus.
 
  • Gefällt mir
Reaktionen: Gortha und Slayher666
Zurück
Oben