News Rocket Lake-S: Intel Core i9-11900(K) mit 3,5 bis 5,0 GHz im Umlauf

@RogueSix richtig, im HEDT und DIY Desktop geht's auch ohne Intel, das stimmt. Aber abseits dessen nicht ;)
 
[wege]mini schrieb:
Schon eine einzelne Anwendung, in der ein 8 Kern Intel an einen 16 Kern AMD im Multi Core nahe ran kommt, wäre ein Schlag ins Gesicht von AMD.

Und wie soll das gehn, wenn Zen 3 der IPC von Skylake um die 25-28 Prozent voraus ist, bei den Taktraten nicht mehr weit weg ist
und Sunny Cove (also Rocket Lake) die IPC "nur" um 18% steigert (also mit einem unbeschnittenen 10NM Sunny Cove Kern). Was von den 18% bei bei Rocket Lake übrig bleibt werden wir sehen.
 
modena.ch schrieb:
Und wie soll das gehn, wenn Zen 3 der IPC von Skylake um die 25-28 Prozent voraus ist, bei den Taktraten nicht mehr weit weg ist
und Sunny Cove (also Rocket Lake) die IPC "nur" um 18% steigert (also mit einem unbeschnittenen 10NM Sunny Cove Kern). Was von den 18% bei bei Rocket Lake übrig bleibt werden wir sehen.
Weil die Anwendungs- bzw. Praxisperformance nicht nur durch die reine Kernleistung bzw. die IPC bestimmt wird.

Es ist unter anderem die I/O Organisation, die hier noch ein gehöriges Wörtchen mitzureden hat und dort ist Intel was die I/O Latenzen anbelangt technisch noch überlegen.

Da sind 35-40ms bei den Kommunikationslatenzen zum Ram drin.
Da hängt ein 5900x noch bei 60ns rum. Also knapp 75% mehr Latenz beim wahlfreien Speicherzugriff.
Der große L4 Cache ist diesbezüglich keine Allzwecklösung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, [wege]mini und USB-Kabeljau
RogueSix schrieb:
Wie man es auch dreht und wendet... Intel verliert pro Zeiteinheit mehr und mehr den Anschluss.

Das ist doch nur zu großen Teilen Werbegerede! Wo verliert Intel immer mehr den Anschluss? Ist Zen3 oder Big Navi neuerdings in N7+ oder N5 gefertigt? Kann TSMC die hohe Nachfrage nach N7 un N7P bedienen?

Intel hat den 10nm Prozess ziemlich verbockt, das weiss die ganze Welt. Die Konkurrenz fertigt ihre CPUs aber nun "noch immer" im N7 Prozess, abgefahren ist da noch nichts und EUV kommt in dem Prozess genauso wenig wie bei Intels 10nm Prozess vor.

TSMC, GF und Samsung haben mehr als 10 Jahre lang in "rückständigen" Prozessen gefertigt und sind auch nicht Pleite gegangen. Am Ende sind alle Firmen von ASML und anderen Zulieferern abhängig und diese Firmen bestimmen den Takt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und .Sentinel.
.Sentinel. schrieb:
Da sind 35-40ms bei den Kommunikationslatenzen zum Ram drin.
Da hängt ein 5900x noch bei 60ns rum. Also knapp 75% mehr Latenz beim wahlfreien Speicherzugriff.
Der große L4 Cache ist diesbezüglich keine Allzwecklösung.

Bei den Speicherlatenzen mag das stimmen, aber bei den Internen Core Latenzen war schon der erste
Zen Intel überlegen. Und ein 5800X hat nur noch einen CCX und CCD. Also 8K VS 8K sehe ich Intel nicht
in Front.
Daher dürfte es am Ende recht spannend werden.
 
  • Gefällt mir
Reaktionen: Smartbomb und .Sentinel.
@modena.ch
Ich sag ja nur... Man macht sich hier über Dinge lustig, die letzenendes wieder einen Vorsprung (Kernklassenvergleichend) ermöglichen könnten.
Durch die erweiterte Assoziativität sinken die Intercore- Latenzen z.B. deutlich

Und im Augenblick fällt AMD bei den Zen Iterationen auch nicht mehr ein, als ein wenig an der Kommunikationsstruktur zu fummeln und die Caches aufzublasen.
 
.Sentinel. schrieb:
Und im Augenblick fällt AMD bei den Zen Iterationen auch nicht mehr ein, als ein wenig an der Kommunikationsstruktur zu fummeln und die Caches aufzublasen.
Einfallslosigkeit würde ich AMD jetzt auch nicht gleich unterstellen. Sie haben halt erstmal die Stellschrauben optimiert, wo noch ausreichend Potential lag, ohne gleich die halbe Zen-Architektur neu zu entwickeln. AMD kann ja trotzdem schon parallel dazu größere Änderungen für Zen4 & 5 planen und entwickeln. Warum sollte man auch ohne Zwang all sein Pulver mit einer Generation verschießen und dann für Folgegenerationen nichts mehr haben?
 
  • Gefällt mir
Reaktionen: Rockstar85 und .Sentinel.
.Sentinel. schrieb:
Weil die Anwendungs- bzw. Praxisperformance nicht nur durch die reine Kernleistung bzw. die IPC bestimmt wird.

Da steckt viel Wahrheit drin.

modena.ch schrieb:
Und wie soll das gehn

So wirklich fällt es mir immer schwer, Menschen Dinge zu erklären bei denen ihnen jede Menge Grundwissen fehlt.

Ich bringe dann immer das ungeliebte Beispiel eines Autos. Das Ding hat messbare PS, messbare Reifen, messbare Gummimischung, messbaren Anpressdruck, messbare Masse und am Ende noch einen Typen der auf das Pedal tritt (die Software).

Das was du als "IPC" wahr nimmst, ist kein messbarer Wert von irgend welchen Pferdestärken am Motor. Möglicher Weise könnte man die Beschleunigung von 0 auf 100 in Sekunden damit vergleichen, selbst das stimmt aber nur bedingt.

Früher hätte ich von Kutschen und Pferden geredet. Parallelisierung mit 8+ Gäulen ist halt echt doof. Leider gibt es keinen einzelnen Gaul, der 8 Pferde schlägt.

mfg
 
  • Gefällt mir
Reaktionen: Smartbomb
Was fürn Beispiel, natürlich ist IPC messbar.

Man nehme die gleiche Software, setze die unterschiedlichen Proz auf denselben Takt und lässt laufen.
 
.Sentinel. schrieb:
Rocket- Lake wird einen spürbaren Sprung machen. Man beachte den 50% größeren L1 Cache, 100% mehr L3.
Auch zu beachten die Erhöhung der Assoziativität der Caches. Das spart HOPs und wird gerade in gaming- Szenarien durch weiter minimierte Latenzen für ordentlich Schub sorgen.
Nicht vergessen das eine Vergrößerung des Cache nur allso oft mit höheren Latenzen einher ging, welche durch die breitere Anbindung vielleicht nur minimiert werden können.

.Sentinel. schrieb:
Weil die Anwendungs- bzw. Praxisperformance nicht nur durch die reine Kernleistung bzw. die IPC bestimmt wird.
Neben der allgemeinen Latenz Geschichte stecken da auch viel architektur- und damit herstellerspezifische Optimierungen drin um mehr Leistung rauszuholen, welche womöglich auch erst den Schwerpunkt auf entsprechende Latenzen verlagern und dann entsprechend suboptimal auf anderen Architekturen läuft.

Hard- und Software kann man bei Leistungsfragen eben nie getrennt betrachten.
 
  • Gefällt mir
Reaktionen: Smartbomb und .Sentinel.
modena.ch schrieb:
setze die unterschiedlichen Proz auf denselben Takt und lässt laufen.

Dann hast du die "IPC" für diese Software und diesen Takt auf der selben Plattform. Das ergibt ein Bild für dieses Szenario und sagt nichts, über die CPU im allgemeinen.

Schon der Wechsel des Herstellers, bewirkt zu 99% einen Unterschied bei anderen Komponenten. Wie schon angesprochen, kann man z.B. die Latenz zum RAM messen. Das ist ja aber nur die Spitze des Eisberges.

Wenn man anfängt zu parallelisieren (darum geht es mir), rückt die "IPC" deutlich in den Hintergrund und die Verteilung der Arbeit (was berechnet werden soll oder wie viel man ziehen kann) wird immer wichtiger.

Ab 8 Freds wird es kompliziert und 16 oder gar 32 Freds zu koordinieren ist nicht so ganz einfach. Wie ich schon sagte, wenn man nur 1+1 rechnet, ist das überall gleich schnell und nur vom Takt abhängig.

Wenn man anfängt komplexe Berechnungen zu machen, ist schon die Lage von Registern im Chip wichtig. Die Kommunikation der Kerne untereinander und die Art und Weise, wie sie ihre Berechnungen untereinander austauschen (Cache Design) ist der nächste Schritt und am Ende müssen noch sehr viele andere Dinge beachtet werden.

Cores sind halt keine Gäule. Lustiger Weise sind sie aber alle unterschiedlich, selbst wenn sie vom gleichen Band kommen und in der selben CPU sitzen.

mfg
 
  • Gefällt mir
Reaktionen: Smartbomb
RogueSix schrieb:
Den Vorsprung von TSMC holen sie nicht mehr auf, es sei denn es passieren sehr unschöne Dinge.

Erneut die Frage - warum nicht? Was hatte TSMC, die bis vor wenigen Jahren massiv hinter Intel lagen, was Intel nicht auch kriegen kann die nun hinter TSMC liegen?
Ergänzung ()

modena.ch schrieb:
Schon eine einzelne Anwendung, in der ein 8 Kern Intel an einen 16 Kern AMD im Multi Core nahe ran kommt, wäre ein Schlag ins Gesicht von AMD.

Und wie soll das gehn[...]

Nun warte doch mal ab, die Grabungsarbeiten am EmptyLake sind ja noch in vollem Gange und an mehreren Stellen zeigen Ortungsergebnisse ganz deutliche Hinweise auf Schubladen die sich zwischen den kilometerdicken Schichten von Dinosaurier-Archtitekturen befinden könnten.
 
  • Gefällt mir
Reaktionen: bad_sign und Smartbomb
.Sentinel. schrieb:
Weil die Anwendungs- bzw. Praxisperformance nicht nur durch die reine Kernleistung bzw. die IPC bestimmt wird.
Du vegisst dabei nur eines.. Das Problem der Anwendungsperformance, die Intel nunmal für 90% des Marktes braucht, werden auch größere L3 Caches nicht lösen. Intel mag ja gerne mit gamen Werben, aber IceLake SP und eben auch Alder Lake zeigen sehr eindeutig, dass der Markt nicht aus Gaming besteht.
Und das in Relation zum Stromverbrauch, das wird spannend. Insofern kann Intel gerne in Gaming wieder die Krone zurückerobern, was Angesichts eines 10 Fachen Budgets zu erwarten ist, aber wenn die Anwendungsleistung und eben die perf /W nicht verbessert wird, dann nützt das Intel genau genommen nichts.

Ihr tut schon so, als wäre Intel ne Hinterhofklitsche und AMD der zukünftige Marktführer. Wenn man eure Aussagen also Ernst nehmen soll, dann schön das ganze immer in Relation zur Größe und Marketshare betrachten. Und Wo AMD mit einer 2ten Zen Iteration sein Pulver verschossen hat, darf mir dann gerne ein Ingenieur erklären. Ich sehe eher, dass man die Offensichtlichen Schwachstellen angegangen ist. Wir sehen ja derzeit noch keine xte Zen Architekturverbesserung, sondern sind beim Punkt 2 angekommen, dass man eben den Nutzbaren L3 Cache gemeinsam nutzt und die CCD Latenz dadurch ein wenig abmildert. Und da wird es spannend, wie Intels Ring Architektur das verbessern soll, denn dem Ring sind Physikalische Grenzen gesetzt.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Weil die Anwendungs- bzw. Praxisperformance nicht nur durch die reine Kernleistung bzw. die IPC bestimmt wird.
[...]
Es ist unter anderem die I/O Organisation, die hier noch ein gehöriges Wörtchen mitzureden hat und dort ist Intel was die I/O Latenzen anbelangt technisch noch überlegen.
Da ist aber wirklich der Wunsch der Vater des Gedanken.
Der Realität ins Auge blicken ist zu hart, deshalb werden nun zusammenhanglose Statements gemacht.
Die Originalaussage fragte wie das Ganze funktionieren soll.
Und die klare Antwort lautet, dass wir im o.g. Rahmen Leistungssteigerungen haben und an diese kam Intel nicht heran. Da Intel dort schon fast alle Möglichkeiten erschöpft hat, wie sie schreiben, ist der Leistungssprung eben nicht aufzuholen.
Sie mischen in ihrem Posting ja sogar Millisekunden und Nanosekunden.

Vernünftig wäre es doch zu sehen, dass die bisherigen Leistungssprünge nicht mehr aufzuholen sind, insbesondere mit der jetzigen Prozessgröße.
 
Zuletzt bearbeitet:
Eee-PC schrieb:
Da ist aber wirklich der Wunsch der Vater des Gedanken.
Der Realität ins Auge blicken ist zu hart, deshalb werden nun zusammenhanglose Statements gemacht.
Auf irgendwelche Statements habe ich noch nie was gegeben.
Ich beziehe mich in meinen vorhergehenden Posts auf architektonische und sehr offentsichtliche Änderungen und deren Auswirkung auf die Leistung.

Der Stromverbrauch fällt und steht auch nicht ausschließlich mit dem Fertigungsnode, sondern der Gesamtarchitektur.
Bestes Beispiel ist der vergleich von Pascal gegen Polaris.

Die Originalaussage fragte wie das Ganze funktionieren soll.
Und die klare Antwort lautet, dass wir im o.g. Rahmen Leistungssteigerungen haben und an diese kam Intel nicht heran.
Intel hat lange keine Stellschrauben in Sachen Architektur angefasst. Bis jetzt wurden dem Skylake- Entwurf einfach nur mehr Kerne angeflanscht und adäquat dazu andere dazugehörige Einheiten.

Da Intel dort schon fast alle Möglichkeiten erschöpft hat, wie sie schreiben, ist der Leistungssprung eben nicht aufzuholen.
Sie mischen in ihrem Posting ja sogar Millisekunden und Nanosekunden.
Sie haben bis jetzt die Joker der Caches eben nicht gezogen. Und der sorgt jetzt für Leistungssteigerungen.
Ein L4 Cache könnte das ganze noch spürbar steigern<- Also all das, was AMD bereits ausgereizt hat.

Vernünftig wäre es doch zu sehen, dass die bisherigen Leistungssprünge nicht mehr aufzuholen sind, insbesondere mit der jetzigen Prozessgröße.
Genau das sehe ich anders. Ich sehe es eher so, dass man sich an der Prozessgröße künftig immer weiter die Zähne ausbeissen wird, weil man durch physikalische Gesetzmäßigkeiten eben nicht mehr in allen Bereichen "draufpowern" kann, sondern mit weiteren Verkleinerungen eine erhöhte Gefahr von Hotspots und allerlei anderer elektrischer Schweinereien einhergehen, die die Taktfestigkeit empfindlich stören.

Es wird also vermehrt darauf herauslaufen, dass die Leistungssteigerungen über die Architektur kommen müssen.
zudem werden die Karten mit 7nm EUV neu gemischt, da sich dort mit hoher Wahrscheinlichkeit die Timeline von AMD und Intel wieder angleichen wird, da dort unterschiedliche Abteilungen die Entwicklungen "unabhängig" betreiben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb
@Hayda Ministral
Immer wieder geil der Kommentar mit den verzweifelten Grabungsarbeiten am Empty Lake hahaha :D

Wer weiß, vl graben sie wieder den alten Pentium M aus und fangen an diesen zu Pimpen, denn bis deren Fertigung steht bzw wirtschaftlich produzieren lässt, dauerts sicher noch ein paar Jahre...
Der Pentium M hat denen ja auch den A gerettet, als die gegen die Athlon 64 und danach Athlon 64 X2 Teile nichts hatten und ihr Pentium 4 die Sackgasse war.
Durch das Ausgraben des Pentium Ms pimpen haben sie dann ja Ende 2006 den Core 2 rausgebracht und AMD hat zu lange mit den nativen Quadcore Phenoms gebraucht und erst mit dem Phenom II X4 @Max Takt mit den refresh Core 2 Quads 9000 Schritt gehalten.
Intel hat dann ja noch 2 super Gens raus gebracht und AMD sich mit Bulldozer in die selben Sackgasse manövriert wie Intel mit Pentium 4 damals.
Hat gedauert, aber nun kann AMD Intel wieder ärgern hehe :)
Und lässt Intel graben und graben und graben...
Die Intel Typen haben wohl aus der jahrelangen Verspätung deren 14nm Prozesses nix gelernt.
Damals war 14nm Broadwell schon ewig hinterdem Zeitplan.
Darauf hin Intel: Da müss ma CPU Arch und Fertigung besser aufeinander abstimmen, damit das nicht mehr passiert.
Damals waren es glaub ich ~2 Jahre Verzögerung.
Und nun bei deren 10nm or whatever Prozess (der nächste mit neuem Namen nach 14nm+++ halt) : Wieviele Jahre hamma nun?

@Topic:
2022 werden die Karten neu gemischt. Mit dem neuen Sockel auf Grund des neuen DDR5 RAMs.
AMD kann mittlerweile auftauchende Sockellimitierungen aufheben und ZEN weiter verbessern, Intel hat mal was Neues als Skylake mit hoffentlich bis dahin gut laufender 10nm SuperFET-whatever name you choose Fertigung.
Also, was man Gegen Ende 2022 alles kaufen kann - DAS wird spannend!
ZEN3 und Rocket Lake sind das letzte Aufbäumen des DDR4 Zeitalters :)
 
  • Gefällt mir
Reaktionen: bad_sign
Abwarten und Tee trinken, allerdings glaube ich das erst die nächste Gen mit den wirklich "neuen" Kernen und dann hoffentlich funktionierender Fertigung bei Intel wirklich einen großen Schritt nach vorne bringen wird. Ja man wird beim Gaming wahrscheinlich mit RL-S im Gaming wieder zu AMD aufschließen, die wirkliche Frage wird sein zu welchem Preis und damit meine ich nicht nur in €. Aber die Durststrecke wird zumindest nicht so trocken werden wie die die AMD vor Zen hinter sich hat. MMn wird Intel aber, zumindest in absehbarer Zunkunft, nicht mehr in die Position zurückkehren wie sie vor einigen Jahren noch bestand, nämlich immer 2 Jahre in der Fertigung vorauszuseien. Auch wird der x86/x64 Markt mMn in den nächsten Jahren deutlich schwieriger werden. Nicht im Desktop-Gaming (und wahrscheinlich auch nicht Notebook-Gaming), aber im normalen Notebook, da hat Apple mMn einfach zu eindrucksvoll gezeigt aus welcher Richtung der Wind weht...
 
Wie schaut´s denn mit DDR5 aus und der Intel 11? Hat man wenigstens noch einen Grund abseits von PCIe 4.0 zu warten. Bei AMD schaut das ganz gut aus im Jahr 21. Kaum vorstellbar bei Intel nicht? Wobei.... ;=) Sorry falls ich es überlesen haben sollte ;=)
Smartbomb schrieb:
Also, was man Gegen Ende 2022 alles kaufen kann - DAS wird spannend!
Irgendwann bin ich dann zu alt, wobei fit in sachen Reaktion hält es auch wenn es ernst wird im Gefecht :=)
 
Zuletzt bearbeitet:
|SoulReaver| schrieb:
Wie schaut´s denn mit DDR5 aus und der Intel 11?
Die CPUs werden ja noch für Sockel 1200 kommen und das sind nun mal DDR4 Boards. Werden also frühestens die CPUs für den Nachfolgesockel DDR5 haben.
 
Richtig traurig.
Warte schon so lang, und muss deshalb so langsam echt upgraden.
Aber wäre irgendwie voll panne, wenn dann ein Jahr später DDR5 kommt. 😫
 
Zurück
Oben