Notiz Ryzen 7 5800X3D: CPUs schon im Verkauf und erste Geekbench Scores

Ko3nich schrieb:
Muss bzw. eher kann man überhaupt auf diesen Cache optimieren?

Kann man Cache explizit adressieren? Und wenn ja was ändert sich hier durch den Hardware Aufbau?
Klares Ja, man kann sein Programmablauf schon sortieren, dass die Daten auch eher im Cache bleiben können.

Im gestrigen livestream von Ian Cutress (Techtechpotato) und Wendel (Level1Tech), ging um HPC, wurde erwähnt, es können Algorithmen, die vorher nicht effektiv waren, dank mehr Cache, plötzlich völlig neue Möglichkeiten liefern.
Irgendwo hier war das
 
Zuletzt bearbeitet:
Mit dem 12900K habe ich unter Linux 20xx Punkte (Singlescore Geekbench 5).
Zum Vergleich mein 5950x: 18xx Punkte Singlescore.
 
Bin auf die Tests gespannt und welche Anwendungen und Spiele wie profitieren vom Cache
 
  • Gefällt mir
Reaktionen: St3ppenWoLF
Wird es da wieder ein neues BIOS brauchen? Wahrscheinlich ja..?

Ich bin derzeit am überlegen, den Rechner meiner Frau (2700x/x470) und meinen (3700x/x570) noch mal auf einen 5000er aufzurüsten, bevor dann irgendwann ein Komplettupdate ansteht.
 
  • Gefällt mir
Reaktionen: xamoel und danyundsahne
bad_sign schrieb:
Klares Ja, man kann sein Programmablauf schon sortieren, dass die Daten auch eher im Cache bleiben können.

Im gestrigen livestream von Ian Cutress (Techtechpotato) und Wendel (Level1Tech), ging um HPC, wurde erwähnt, es können Algorithmen, die vorher nicht effektiv waren, dank mehr Cache, plötzlich völlig neue Möglichkeiten liefern.
Irgendwo hier war das
Ja, man sollte eher lokale Variablen verwenden und Structs statt Classes. Es gibt bestimmte Datenstrukturen, die leichter vom Prefetcher verwaltet werden können.

Aber so was wie "eher im Cache bleiben" gibt es soweit ich weiß nicht. L3 ist ein Victim Cache. Der Prefetcher haut die Daten erstmal in den L2, von da aus "fällt das runter" zum L3. @DevPandi bitte ergänzen.
 
  • Gefällt mir
Reaktionen: LukS, Gortha und NMA
Wormwood schrieb:
Ist es überhaupt sicher, dass die Zen4-CPUs von Anfang mit 3D-Cache ausgestattet sind? Wollte vielleicht zum Start aufrüsten.
ist nicht sicher bis dato und zum Start eher unwahrscheinlich(mMn). Die CPU´s sind schwerer zu Kühlen. Nicht umsonst wurde der Takt des 5800X3D heruntergesetzt und seitens AMD die MB Hersteller angewiesen eine Overclocking Sperre einzusetzen.
 
Porky Pig schrieb:
ist nicht sicher bis dato und zum Start eher unwahrscheinlich(mMn). Die CPU´s sind schwerer zu Kühlen. Nicht umsonst wurde der Takt des 5800X3D heruntergesetzt und seitens AMD die MB Hersteller angewiesen eine Overclocking Sperre einzusetzen.
Nicht Kühlung, Spannung
Der Cache-Die ist mit einer anderen Bibliothek gefertig, die auf maximale Dichte ausgelegt (64MB statt 32MB auf selber Größe) ist und auf 1,35V limtiert. AMD nutzt normal für die 5 GHz Boosts 1,5V
 
  • Gefällt mir
Reaktionen: Gortha und Porky Pig
MichaG schrieb:
Der Preis liegt bei rund 500 Euro.
Der Preis muss deutlich runter, sonst kann man auch gleich noch einen 5900X kaufen.
 
  • Gefällt mir
Reaktionen: Gortha, Trent und MichaG
bad_sign schrieb:
Im gestrigen livestream von Ian Cutress (Techtechpotato) und Wendel (Level1Tech), ging um HPC, wurde erwähnt, es können Algorithmen, die vorher nicht effektiv waren, dank mehr Cache, plötzlich völlig neue Möglichkeiten liefern.
Irgendwo hier war das
Also entweder hast du die Stelle nicht getroffen oder da geht es "nur" um die Menge an Cache. Und das ist klar dass das grundsätzlich was bringt. Das wäre aber unabhängig davon ob das jetzt "3D"-Cache ist oder "normaler".
 
Aus Logik sicht gibt es aber kein 3D. Das sind homogene 96MB Cache und die Frage war nicht 3D, sonder ob auf Cache hin optimiert werden kann.
Ich meine im Video kommt direkt darauf die Nutzung andere Methoden (Algorithmen), die dank großem Cache sinnvoll werden können und so Programme beschleunigen können.
Also ja man kann auf großen Cache hinoptimieren
55:16 im Video
 
  • Gefällt mir
Reaktionen: incurable
bad_sign schrieb:
Ich meine im Video kommt direkt darauf die Nutzung andere Methoden (Algorithmen), die dank großem Cache sinnvoll werden können und so Programme beschleunigen können.
Also ja man kann auf großen Cache hinoptimieren
Wenn, dann sind das Datenstrukturen, weil es geht ja beim Cache um Datenzugriffe. Aber ja, andere Algorithmen können andere Datenstrukturen benötigen.
 
  • Gefällt mir
Reaktionen: incurable
Da hab ich ja glatt einen 11700K Flashback, dieser ein paar Tage zu früh bei Mindfactory Verkauft wurde.
Das da schon 750 Stück auf Lager liegen und das einen Monat vor Release, lässt ja mal auf eine gute Verfügbarkeit hoffen.
 
Zer0Strat schrieb:
Wenn, dann sind das Datenstrukturen, weil es geht ja beim Cache um Datenzugriffe. Aber ja, andere Algorithmen können andere Datenstrukturen benötigen.
Ich bin kein Programmierer, aber wenn solche Aussagen aus der Industrie kommen, und sie widersprechen nicht jedweder Logik, dann glaube ich das erstmal :)
Wendel ist auch ein schlaues Bürschchen, der wird das nicht unreflektiert wiedergeben, Ian nicht unwidersprochen im Raum stehen lassen.
 
Wormwood schrieb:
Ist es überhaupt sicher, dass die Zen4-CPUs von Anfang mit 3D-Cache ausgestattet sind?
Nö.
Es gab Gerüchte, dass AMD den "nativen" L3 Cache verkleinert um die Chips noch universeller nutzbar zu machen und günstiger fertigen zu können.

Der große native L3 Cache kostet Strom und braucht viel Platz also lassen sich damit schlecht sehr stromsparende oder sehr günstige CPUs bauen (deswegen haben die mobilen Varianten auch viel weniger Cache).

AMD könnte theoretisch hingehen und nur noch Varianten mit weniger Cache bauen und dann bei "großen" CPUs einfach Cache oben drauf schnallen. Dann wäre davon auszugehen dass sich direkt am Anfang 3D Varianten von Zen4 kaufbar sind.
 
  • Gefällt mir
Reaktionen: Selber und Baal Netbeck
Bin gespannt ob der 5800X3D in der Audio Produktion einen Schritt nach vorne macht.
 
  • Gefällt mir
Reaktionen: phloxxo
Glaube ich werde meinen 2700x dann auch in Rente schicken!
Jetzt wo ich bei AMD ne 6900XT bekommen habe, lohnt sich das wieder.
Und da es die letzte CPU für diesen Sockel ist, werde ich nochmal zuschlagen.
 
Zer0Strat schrieb:
L3 ist ein Victim Cache. Der Prefetcher haut die Daten erstmal in den L2, von da aus "fällt das runter" zum L3. @DevPandi bitte ergänzen.
Hui, das letze mal Cache-Design hatte ich vor 10 Jahren, haha.

Nein, im Endeffekt hast du das wichtigste schon gesagt. Wenn man das Thema - hab gerade nicht so viel Zeit - vereinfacht angehen will: Die Daten die direkt benötigt werden liegen in den Register, sind sie nicht da, wird „eigentlich“ im RAM gesucht und von dort geladen.

Der Prefetcher - die Instruktionen im L1i als auch im µOPS-Cache, Branchpredection und Co - schaut, welche Daten als nächstes benötigt werden, er schaut dann erst mal im L1, findet er die Daten da, alles gut, findet er sie da nicht, geht es in L2, sind sie da auch nicht, geht es in den L3 und sind sie da nicht, geht es in den RAM ggf. in den anderen CCX, sollten sie da liegen.

Der L3 ist dabei, wie du sagst, ein Victim-Cache in der Regel, das heißt, er wird nicht bewusst mit Daten befüllt, sondern er bekommt die Daten eher on-the-fly mit und zwar beim Schreiben. Kommt in der CPU ein Store-Befehl, der bestimmte Daten im Arbeitsspeicher speichern soll, landen diese zuerst im L1d und L2-Cache (der L1 ist im L2 abgebildet.) und wird dann auf dem Weg zum RAM auch im L3 gleich mit abgespeichert - in der Regel mit einer entsprechenden Flag.

Daten aus dem Arbeitsspeicher werden dabei - je nachdem wie dringend die Daten sind - in den L2 geladen und von dort aus dann in den L1 und dann in die Register. Daten aus dem L3 gehen auch in den L2 und dann L1 und Register.

Daten im L3-Cache sind also in der Regel die Daten, die die CPU eigentlich selbst in den RAM geschrieben hat und dort in der Regel als "Log" vorliegen. Deswegen profitieren Anwendungen die viele Daten schreiben und lesen in der Regel eher von großen L3-Caches, als Anwendungen die primär Daten lesen, weil die Daten, die aus der CPU heraus müssen, aber später auch wieder hinein, eben im L3-Cache liegen und damit schneller geladen sind.

Das ist jetzt stark vereinfacht und simplifiziert. Ich müsste mir erst mal das Whitepaper von Zen 3 und später Zen 4 ansehen, um das genau zu erklären.
 
  • Gefällt mir
Reaktionen: medsommer, LukS, Baal Netbeck und 3 andere
Zurück
Oben