News AMD Ryzen im Frühjahr 2022: Ryzen 7 5800X3D kostet 449 USD und kommt in Begleitung

Zer0Strat schrieb:
Ne, die freuen sich einfach auf die CPU, während Alder Lake Besitzer mit teurem DDR5 richtig giftig werden.
Ich bin davon nicht betroffen. Mich freut es wenn der 5800X3D so eine Leistung hinlegt. Das zeigt wie effektiv der Cache sein kann. Ich finde sowas mega geil.

Allerdings wird hier im Forum der AMD Punk abgehen. Davon kann man jetzt schon ausgehen. Zumal die Kiste einfach mal die Hälfte eines KS kostet.

Mit einem B550 Board, 5800X3D und 32GB DDR4-3800 CL14/16 kannste für einen "schmalen Kurs" einfach mal alles beim Gaming stehen lassen.

Ist doch super geil. Trotzdem weiß ich, was hier wieder los sein wird. Am besten sperrt man mich präventiv =D.
 
  • Gefällt mir
Reaktionen: Dome87
Ich finde auch spannend, was Intel irgendwann in die Richtung plant. Durch den monolithischen Aufbau können die ja nicht mal "einfach so" stacken.
 
  • Gefällt mir
Reaktionen: t3chn0
Ich glaube das Raptor Lake spannend wird. Mit den 16 E-Kernen ist man endlich auf den 32 "Threads", so kann es endlich einen direkten Vergleich geben.

ZEN4 wird nicht so viel Cache haben, dafür andere Optimierungen die vermutlich eine ähnliche Leistung am Ende bringen.

Ich weiß gar nicht ob Intel bei Raptor Lake auch nochmal was am L1 und L2 Cache ändern wird. AMD spielt ja das L3 Cache Game ziemlich gut. Wie gut RDNA2 performed ist schon krass, wenn man bedenkt wie klein das Interface des Speichers ist und das nahezu komplett durch den Cache egalisiert wird.

Meine Frage wäre, wo ist das Ende erreicht beim Cache? Was passiert, wenn man statt 96MB L3 auf einmal 512MB, oder 1GB L3 Cache hat?

Was hilft mehr? L1 L2 oder L3 Cache?

Warum ist es relativ "einfach" den L3 Cache zu vergrößern und warum tun sich die Hersteller so schwer mit großem L1 und L2 Cache?

Bei Alder Lake hat ja die Vergrößerung von L1 und L2 schon massive IPC Steigerungen gebracht.

Mir geht bei der Technik richtig einer ab =P.
 
  • Gefällt mir
Reaktionen: Dome87
Zur besseren Einordnung, der 12900K kommt mit den gleichen DDR4 3200C14 gerade mal auf 171FPS.
Ein 5900X mit gleichem RAM schafft ca 150FPS.
Und ein getunter 12900K mit DDR5 6200C32 kommt auf 242FPS.

Also man sieht, das Spiel reagiert auf latenzen wie kein anderes und ist wirklich absoluter best case für den 5800X3D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dome87
Im "best case" 15% schneller als ein 12900KS und im "worst case" vermutlich langsamer als selbiger. Allerdings sprechen Verbrauch und Preis natürlich absolut für den 5800X3D. Am Ende vielleicht auch eine Frage der Plattform, die man besitzt und der Auswahl an Spielen, die man besitzt.
 
Gibt's wirklich Menschen die eine CPU nach der Auswahl der eigenen Spiele aussuchen? 🤔
 
Ne, aber sie werden dadurch (gezielt) beeinflusst oder lassen sich beeiflussen.

Hier wurde genau der Benchmark genommen, den AMD auf ihren Marketing Slides schon genutzt hab. Was soll da wohl rauskommen?^^

Der Fall jetzt wird noch extremer als letztes Mal. Nimmst du 5 Games die passen, kannst du AMDs CPU um locker 15 bis 20 Prozent vorn sehen lassen. Nimmst du 5 andere die Intel passen, verliert der AMD-Prozessor sofort jedes. Aber ist die Mischung aus den 10 Games dann das, was man sehen will? Es erzählt nie die ganze Wahrheit. Hier wird es am Ende viel Diskussion geben, es wird sich über einzelne Spiele aufgeregt usw. Am Ende wird es ein Kopf-an-Kopf-Rennen (innerhalb 5% oder so), jeder der es in eine Richtung groß ausschlagen lässt, muss seinen Test überdenken. Wir haben schonmal 20 Games vorbereitet ;)

Aber selbst das ist ein Riesen Erfolg für AMD und eine Schmach für Intel. Denn 60 Euro Board, 30 Euro RAM und fertig bist für den Prozessor. Der dazu noch 300 Euro weniger kostet als der Gegenspieler KS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Veitograf, LukS, Tanzmusikus und 2 andere
Volker schrieb:
Hier wurde genau der Benchmark genommen, den AMD auf ihren Marketing Slides schon genutzt hab. Was soll da wohl rauskommen?^^
Dabei sehen sie ihn mit ihrem 1080p High Test aber auch nur 10% vor dem 12900K in ihren eigenen Slides, das ist also nicht mal ihr Best Case Beispiel^^ Bestimmt wurde hierfür auch der weniger anspruchsvolle Ingame Benchmark benutzt.

Hier sind es in einer realen Spielszene +25% bzw wenn beide den gleichen 3200CL14 RAM nutzen sogar +35%.
 
Volker schrieb:
Aber selbst das ist ein Riesen Erfolg für AMD und eine Schmach für Intel. Denn 60 Euro Board, 30 Euro RAM und fertig bist für den Prozessor. Der dazu noch 300 Euro weniger kostet als der Gegenspieler KS.
ein B550 mit brauchbaren und gekühlten Spannungswandlern geht wohl eher aufn Hunni zu, 16GB guter RAM eher 60-70. und so 30 für nen Kühler.
Kommt halt aufs Spiel an ob es auf Änderungen im Speichersubsystem positiv reagiert oder doch eher mehr Takt/Kerne mag. Da der X3D geringer takten soll wird es bei einigen Spielen wohl einen kleine Rückschritt geben, andere mit effektiv 0% und andere die mehr oder weniger stark auf den L3 skalieren.
 
Taxxor schrieb:
Dabei sehen sie ihn mit ihrem 1080p High Test aber auch nur 10% vor dem 12900K in ihren eigenen Slides,

Ja weil die Benchmarks schon ein Jahr alt sind vs den 5900X, sie wurden im Mai 2021 präsentiert und Wochen vorher gemacht.

Jetzt in neuen sieht das ganz anders aus, da stehen teilweise Zahlen, da sind selbst deine 25% wenig .. und der 12900K läuft mit 5200er DDR5-Ram. Aber AMDs Benchmark-Auswahl ist leider semi geil, deshalb sieht die Realität eben nicht so aus. Am Ende sehen sie aber dennoch selbst nichtmal 10 Prozent Vorsprung sondern eher weniger, und mit den ganzen alten Gurken ausm Parcours wird es irgendwas um die schwarze Null vermutlich. Bissel Realitätsinn haben sie noch, trotz XX%+ X Ausreißern nach oben. Ist ja auch gut so, es fällt ihnen nur auf die Füße.
 
Zuletzt bearbeitet:
Volker schrieb:
Ja weil die Benchmarks schon ein Jahr alt sind vs den 5900X, sie wurden im Mai 2021 präsentiert und Wochen vorher gemacht.
An dem Spiel hat sich seit dem nichts großartig geändert. Was Taxxor meint, ist der deutliche Unterschied zwischen Built-in Benchmark und Custom Szene, was man sehr oft beobachten kann.
 
Macht es eigentlich einen großen Unterschied ob der Cache auf einem ccd liegst (5800x3d) oder aufgeteilt auf 2 ccd (5900x)? Rein theoretisch.
 
@Northstar2710 Ja, denn wenn du ihn bei einem 5900X aufteilst, hat eben nicht jeder Kern 96MB zur Verfügung sondern nur 64MB.
Für den gleichen Effekt wie beim 5800X müsstest du dann schon jedem CCD zusätzliche 64MB geben
 
  • Gefällt mir
Reaktionen: Northstar2710
Northstar2710 schrieb:
Macht es eigentlich einen großen Unterschied ob der Cache auf einem ccd liegst (5800x3d) oder aufgeteilt auf 2 ccd (5900x)? Rein theoretisch.
Ja, Inter-CCD-Latenzen sind so teuer, da kann man auch gleich auf den RAM zugreifen.
 
  • Gefällt mir
Reaktionen: Northstar2710
@Zer0Strat

Das trifft es auf den Punkt 👍 aber das verstehen die meisten hier bestimmt nicht 😂

Sprich: Die CPU setzt andere Prioritäten und nutzt die CCD übergreifende (Cache) Kommunikation „stark verzögert“ und ist dann ungefähr so schnell wie der Zugriff auf den RAM.
 
Hu hu @CB
Jetzt wo ue5 richtig draußen ist...
Nehmt ihr die in den test auf?
Wäre sicherlich ein guter Indikator für viele zukünftige Spiele.

Mfg
 
  • Gefällt mir
Reaktionen: der Unzensierte
Matthias80 schrieb:
Hu hu @CB
Jetzt wo ue5 richtig draußen ist...
Nehmt ihr die in den test auf?
Wäre sicherlich ein guter Indikator für viele zukünftige Spiele.

Mfg
Ist noch viel zu "buggy" und kein Game das aktuell auf dem Markt ist außer Fortnite :D
 
Zurück
Oben