Bericht Intel Alder Lake: 19 % höhere IPC, Hardware-Scheduler, DDR5 und mehr

Fighter1993 schrieb:
30MB L3 Cache?

AMD hat jetzt schon 64MB und wenn alles klappt geht's hoch auf 256MB.
AMD hat 2x 32 MB. Das ist ein Unterschied. Zwar nicht mehr so schlimm wie bei Zen 2, aber das sollte man schon unterscheiden.
Mit V-Cache ist klar, das AMD da alles wegbügelt, was auf viel Cache anspricht. AMDs Vorstellung war da ja Recht eindrucksvoll.

Aber von Rocket Lake aus gesehen ist der Cache schon erheblich größer. Wenn die das ohne nennenswerte Latenz Penalty geschafft haben, könnte auch die Gaming Performance ordentlich steigen.
 
  • Gefällt mir
Reaktionen: Fighter1993
Vitrex2030 schrieb:
120 Euro Gebrauchtpreis für den Ryzen 3600 ist für mich verramscht.
Oder ist Dir geschenkt noch zu teuer?
Diese CPU kostet neu als boxed Version laut Idealo mind. 215 Euro.
Das passiert mit Produkten wenn der Hersteller nicht zehn Jahre auf der Stelle tritt und immer wieder neue schnellere, bessere Produkte auf den Markt bringt.

Ist ein ganz normaler Marktpreis, wenn er zu gering wäre, wäre dein Intel Vierkern Krüppel Kauf nur noch idiotischer. Schon forza 7 lief auf 4 Kernen wie ein Sack Nüsse.
 
  • Gefällt mir
Reaktionen: Cruentatus und Rockstar85
Cavaille schrieb:
Ich verweise nur auf den Artikel (Kommentar?) von Charlie Demerjian der Intels gewäsch wie üblich mit Genuss auseinandernimmt: https://semiaccurate.com/2021/08/19/intels-architecture-day-is-anything-but/
Wenn Marketingfolien auseinander genommen werden ist das immer toll, aber Charlie labert eigentlich nur dummes Zeug.
Beispiel hier als er über die IPC. Er sagt Ice Lake hätte +18% und Rocket Lake nur "slightly above" Skylake. Deswegen ist Alderlake nur 1-2% über Tigerlake.

CB hat +17% in Apps und +6% in Games gemessen. Seine Aussage ist also komplett bescheuert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cavaille
@mcsteph
Da ich auf Thunderbolt angewiesen bin ist mir AMD ziemlich egal. Es sei denn sie schaffen es, das endlich mal über USB 4 zu implementieren.
 
@Richy1981 Der Preis wird auch noch spannnend. Der 5950X ist als 800€ CPU klassifiziert, ob Intel mitziehen wird, oder wieder seine 500-600€ anpeilen wird.
Ich erwarte eigentlich schon, dass die beiden sich auch im MT gegenseitig in schlagweite befinden.
Ein 5950X mit VCache wird dann wieder spannend, wobei der nicht überall skalieren wird.
 
Tenchi Muyo schrieb:
Warte auf die erste Refresh Generation wenn die ersten Kinderkrankheiten ausgemerzt sind.
Aber gut das es voran geht - solange reichen meine 10900K und 11900K CPUs.
Auf die wie vielte willst du warten?
Tiger Lake ist auch insofern ADL.
Solange Intel den Vergleich gegen TGL scheut, bin ich mehr als skeptisch.
Aber ich bin auch erstaunt, dass mancher glaubt, der 5900X wäre dann plötzlich Alteisen xD (Gottseidank sind die Zeiten des 2600K vorbei)
So lange Intel keine harten Fakten liefert, glaube ich denen nicht Mal den Wochentag. Am Ende kommen wir bei Tiger Lake raus und AMD ist mit Zen3D einfach weg. Das wäre aus Kundensicht nicht so geil


Gracemont mit Skylake IPC wäre schon echt geil. Dann reicht es auch endlich in HTPC, wenn gracemont av1 nutzen kann.
 
  • Gefällt mir
Reaktionen: Cruentatus
Bei Intel ist Volker immer sehr optimistisch, trotz der Flops der näheren Vergangenheit.
 
  • Gefällt mir
Reaktionen: bad_sign
Im Notebook dürfte Alder Lake (hofftl.) einen deutlichen MT Schub bringen. Bisher sind ja „nur“ max. 8C/16T bei beiden Herstellern in dem Segment verfügbar.
 
AppZ schrieb:
@mcsteph
Da ich auf Thunderbolt angewiesen bin ist mir AMD ziemlich egal. Es sei denn sie schaffen es, das endlich mal über USB 4 zu implementieren.
Es ging muss das nutzlose Warten auf neue Hardware, nicht um AMD. Es warten sich schon etliche hier zu Tode.
 
  • Gefällt mir
Reaktionen: Qyxes
bensen schrieb:
Das ist marktüblich und spiegelt auch recht gut die Anwendungsperformance wieder.
Der Vollständigkeit halber habe ich die Testsuite und Quelle nachgereicht da im Artikel nicht erwähnt. Woran du dich aufhängst ist mir ein Rätsel.

bensen schrieb:
Das ist einfach nur Intels Klassifizierung für single Thread Performance. Spec Int misst keinen Latenzen.
Das Schaubild ist mit "Latency performance" beschriftet.
Der Widerspruch ist Intels Problem, nicht meiner. Wenn du meinst Intel hätte etwas anderes getestet als von Intel angeben, wende dich an Intel.

bensen schrieb:
Die Punkte sind nicht willkürlich und haben natürlich unterschiedliche Auslastung der Kerne. Hier wird einmal Iso-Power und einmal Iso-Performance dargestellt. Und dort ist die Auslastung dann auch zwangsläufig anders, sonst wären es die gleichen CPUs.
Durch die willkürliche Auswahl des Skylake Modells sind auch die Punkte willkürlich gewählt. Der eigentliche Punkt lag aber ohnehin woanders, nämlich die Artikelformulierung, welche die Ergebnisse zweier unterschiedlicher Auslastungszustände gleichsetzt.
bensen schrieb:
Das vorgehen ist branchenüblich, also das was der Leser erwartet.
Sprich mal nicht allgemein für den Leser. Und, dass Verzerrungen in Statistiken und Schaubildern branchenüblich sind, ist keine Legitimation für irgendwas.
bensen schrieb:
Es steht ja nirgends, dass die Performance des Gracemont Core bei vollem Takt gemeint ist.
Doch, genau das wird durch die fehlende Differenzierung suggeriert. Genaues Lesen ist echt nicht auf deiner Wunschliste.
bensen schrieb:
Du sagst es doch, Schaubild. Das ist kein wissenschaftlich aufgebautes Diagramm, sondern eine Marketingfolie.
Völlig irrelevante Relativierung. Wenn ein Hersteller Zahlen angibt und ein Diagramm dazu, geht man davon aus, dass es stimmt. Ach was machts schon, warum aus 40% nicht 60% machen? Ist ja nur Marketing.
(Das wird hier immer obstrußer mit den Rechtfertigungsversuchen. Bist du im Marketing tätig? Eingefleischter Intel-Fan? Ich hoffe der Rest der Antworten bezieht sich nicht auch nur auf Relativierung und Strohmann-Argumente.)
bensen schrieb:
Wird dem Leser spätestens klar, wenn die Achsen komplett ohne Skalierung da stehen. Muss ja nicht mal linear sein.
Habs mit dem Lineal nachgemessen, ist linear. Die 40% passen auch in etwa, erst recht wenn man die richtigen Achsen verwendet. Zudem weisen die Striche im Hintergrund eindeutig auf lineare Abstände hin. Bei exponentiellen/logarithmischen Schaubildern würden diese sich zunehmend stauchen/distanzieren.
Das weise ich also mal als reine Spekulation zurück, da du das Schaubild nachweislich nicht zu interpretieren vermagst.

bensen schrieb:
Doch, da wo die maximale Performance des Skylake Cores ist, liegt der maximale Takt an. Kann natürlich jede beliebige CPU sein und damit jeder erdenklicher Takt. Aber du hattest da das Diagramm ja eh falsch interpretiert, wie ich dargestellt hatte.
Eigentlich hast du nur deine Leseschwäche und Unfähigkeit zur Interpretation dargestellt. Ich habe aus einem anderen Bereich genug mit Statistiken, falscher Darstellung und deren Manipulation zu tun. Deine "Argumente" basieren rein auf Relativierung im Sinne von "ist ja nicht so schlimm/macht doch jeder"
bensen schrieb:
Wow. Das ist jetzt dein Argument? Überzeugt mich. Widerlege doch einfach meine Aussagen. Wo sagt Volker dass es +40% Performance und nur 40% der Leistung gleichzeitig gibt?
Ich muss dich nicht überzeugen. Wer nicht überzeugt werden will, wirds auch nicht.
Und: Was heisst der letzte Satz? Zur Info, Leistung ist Performance.
Andere Texte nicht lesen, ok. Die eigenen nicht lesen? Na dann..

bensen schrieb:
Was hat das jetzt mit der vorigen Aussage zu tun? Du hast vorgeworfen Volker wird Werte aus beiden Diagrammen mischen, dabei ist es nur aus dem MT Diagramm. Du hast es einfache nicht verstanden gehabt.
Nein, ich habe ihn gefragt auf welche 40% bzw 80% (2x40%) er sich aus welchem Diagramm bezieht, da dies unter Umständen zu einer Milchmädchenrechnung führt. 2v4 Kerne, 80% so effizient. 2v8 kerne 160% so effizient usw.

Jetzt reichts auch. Keine Ahnung was in deinem Kaffee war. Deine Unterstellungen und Satzverdreherei kannst du gerne behalten. Was ich geschrieben habe kann jeder nachlesen aber was du reininterpretierst ist dein Problem, nicht meins.
bensen schrieb:
Wenn ich auf die "Fläche" von ehemals 4 Zylinder jetzt 8 Zylinder bekomme und damit eben effizienter werde, wird man das wohl auch darstellen wollen. Das ist das Konzept von big.little.
Unsinn. Big.Little bedeutet hier hier 4 groß + 4 klein. Nicht 2 groß gegen 4 klein. Die neuen großen Cores werden später auch separat getestet.
bensen schrieb:
Natürlich ist alles was Intel hier angibt so ausgewählt, dass das neue Produkt im guten Licht dasteht. Das ist der Zweck vom Marketingfolien.
Und ich darf so wie ich lustig bin die Verzerrung und Zahlendreherei herausstellen. Gefällt dir nicht? Dann ist das eben so.
Andere haben Freude dran, deine Missgunst macht da keinen Unterschied.
 
Zuletzt bearbeitet:
Ned Flanders schrieb:
19% im Schnitt bei: SPEC CPU, SYSmark, Crossmark, PCMark10, WebXPRT3, Geekbench 5.4.1

heisst erstmal garnichts. SYSMark ist quasi Intel, WebXPRT ist von Intel, Geekbench ist auch mit das merkwürdigste was an synthetischen Benchmarks existiert.
Selbst wenn man davon ausgeht, dass ein Teil des Parcours stark auf Intel optimiert ist, es wird ja relativ zur Vorgängergeneration aus dem eigenen Hause verglichen.
 
  • Gefällt mir
Reaktionen: Ned Flanders
Fighter1993 schrieb:
In Anwendungen wird Intel sowas von kein Land sehen und in Games werden sie gegen Zen 4 keine Chance haben.
Naja, lass mal die Kirche im Dorf.
Jede aktuelle CPU ab 6 Kernen reicht für alle Anwendungen und Spiele die der Markt aktuell hergibt leistungsmäßig aus, nein ist sogar vollkommen überdimensioniert, jedenfalls für Privatanwender und Internetnutzer.
Entscheidend ist die Leistungsfähigkeit der Grafikkarte, selbst eine sehr günstige 4-Kern i3-10105f CPU kann eine Geforce GTX 3060 problemlos bedienen.
Ein i9-11900K reicht in der praktischen Anwendung leistungsmäßig für Grafikkarten, die noch gar nicht entwickelt und produziert wurden.
Also was soll diese ständige Diskussion um CPUs.
Entscheidend wird sein, wie sich die Leistung der Grafikkarten weiterentwickelt und steigern lässt, um die aktuellen CPUs überhaupt voll ausnutzen zu können.
Dazu müssen die Anwendungen und Spiele, sprich die Software optimiert werden, dass die volle Leistungsfähigkeit der CPU und deren Kerne auch ausgenutzt wird.
Ist wie wenn ich Full-HD ÖR/Privat-TV, auf einem 4K/8K Fernseher anschaue.
Mein Fernseher gibt 4K/UHD Auflösung her (Hardware/CPU), aber die Sender strahlen nur Full HD aus (Software).
Bestes Negativbeispiel bei Software ist der Microsoft Flight Simulator 2020, der eine 12 oder 16 Kern CPU überhaupt nicht nutzt, weil er nur 4, seit neuestem Update wohl 8 Kerne bedient und auch die nicht zu 100 Prozent.
Dazu noch mit altem Direct X 11 daherkommt.
Solange sich da nichts tut, brauchen wir uns über noch leistungsfähigere CPUs nicht zu unterhalten.
Die haben wir schon.
Erst muss mal Software da sein, welche die heutigen CPUs voll ausreizt, dann können wir weitersehen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: fth_trk, nikonF33, TechFunk und eine weitere Person
Nixdorf schrieb:
Da kommen deshalb keine Games dazu, weil bei denen in Messungen die GPU einen Einfluss hat, selbst bei niedrigen Auflösungen. Man müsste dann für langfristige Vergleichbarkeit für die Benchmarks fest eine spezifische Grafikkarte festschreiben, und das ergibt keinen Sinn.
Kann ich aus meiner Testerfahrung heraus so nicht bestätigen. Wenn man natürlich mit 1080p und Ultra Settings testet, dann trifft das zu. Testet man hingegen mit 720p (bei Bedarf noch niedriger per Renderscaling) und schaltet jene Settings ab, die ausschließlich der Grafikkarte obliegen, dann hat man auch mit einer RTX 2080 Ti ein sehr solides CPU-Limit.

Ich verwende für meine Tests immer "Max Drawcall Settings":
  • Auflösung auf 720p, per Renderscaling gegebenenfalls noch weiter runter, AA/AF min, Ambient Occlusion min, Post Processing min, Tesselation min, HairWorks off
  • Details max, Shadows max, gegebenenfalls RT an, weil das auf die CPU geht, Logik/KI max
Bezogen auf Cyberpunk 2077 beispielsweise bleibt dann nicht mehr viel übrig. Sind dann noch zwei Schatten Optionen, Details und die Populationsdichte, welche aktiv bleiben. Anzahl der Drawcalls pro Frame bleibt (nahezu) identisch im Vergleich mit dem Ultra Preset.

Vitrex2030 schrieb:
Entscheidend ist die Leistungsfähigkeit der Grafikkarte, selbst ein i3-10105f kann eine GTX 3060 problemlos bedienen.
Es kommt ja immer drauf an, was man will. Aktuelles Beispiel eines Freundes (Streamer), der einen 3950X (SMT off) + 3600MT/s RAM und eine RTX 3060 Ti vewendet. CPU-Limit unter 1080p in RDR2 mit DLSS Ultra (70-80FPS). Der 3950X kann die GPU in dem Szenario nicht ausreichend befeuern.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Fighter1993
ZeroStrat schrieb:
ZeroStrat schrieb:
Es kommt ja immer drauf an, was man will. Aktuelles Beispiel eines Freundes (Streamer), der einen 3950X (SMT off) + 3600MT/s RAM und eine RTX 3060 Ti vewendet. CPU-Limit unter 1080p in RDR2 mit DLSS Ultra (70-80FPS). Der 3950X kann die GPU in dem Szenario nicht ausreichend befeuern.
Dann soll er einfach auf 4K gehen, da limitiert die CPU nicht mehr, sondern die Grafikkarte.
70 bis 80 fps ist doch vollkommen in Ordnung.
 
Cavaille schrieb:
Grundsätzlich? Schön, dass Intel sich bewegt und das sie mal was neues machen. BIG/little im Desktop? Klar, warum nicht? Effizienz gehört meiner Meinung nach auch in den .
Ich verweise nur auf den Artikel (Kommentar?) von Charlie Demerjian der Intels gewäsch wie üblich mit Genuss auseinandernimmt: https://semiaccurate.com/2021/08/19/intels-architecture-day-is-anything-but/
Da hat Intel aber einiges verbockt, "thats a product related"...
Aber CB gibt doch die meisten (Intel) PRs quasi 1:1 weiter, da bin ich hier nichts anderes gewöhnt
 
  • Gefällt mir
Reaktionen: Cavaille
Zurück
Oben